id
stringlengths
1
8
url
stringlengths
31
159
title
stringlengths
1
92
text
stringlengths
7
322k
854
https://fr.wikipedia.org/wiki/Dendrochronologie
Dendrochronologie
Branche de la dendrologie, la dendrochronologie (du grec ancien , dendron, « arbre », , khronos, « temps » et , -logie, « discours ») est une méthode scientifique permettant en particulier d'obtenir des datations de pièces de bois à l’année près en comptant et en analysant la morphologie des anneaux de croissance (ou cernes) des arbres. Elle permet également de reconstituer les changements climatiques et environnementaux. Le botaniste bâlois Heinrich Zoller avait déjà publié dans les années 1950 une étude montrant et utilisant la présence de cernes annuels chez certaines herbacées. Il avait grâce à cela évalué l'âge de plusieurs herbacées de végétation de steppe sèche du Valais, mais ses travaux sont passés relativement inaperçus. Principes La dendrochronologie a été inventée et développée au cours du par A.E. Douglass, le fondateur du Laboratory of Tree-Ring Research de l’Université de l'Arizona. Plusieurs siècles auparavant Léonard de Vinci avait déjà décrit le principe des cernes de croissance et leurs variations en fonction des conditions climatiques. Edmund Schulman (1908-1958) et Fritz Schweingruber (1935-) ont également largement contribué au développement scientifique de la discipline. Sous des latitudes moyennes, les arbres poussent en produisant du bois lorsque les conditions climatiques sont favorables (du début du printemps à la fin de l'été). Au printemps, les cernes sont clairs car les vaisseaux conduisant la sève sont plus larges, ce qui permet des flux plus importants. L'analyse d'un échantillon de bois en repérant ses anneaux de croissance et en attribuant à chacun d'entre eux un millésime de formation, permet de déduire les conditions climatiques contemporaines à la vie de l'arbre. En prenant des échantillons dans différents sites d'une même région et ayant poussé à des époques différentes mais se recoupant, il est possible de recomposer une séquence sur plusieurs siècles et de créer une chronologie de référence permettant de réaliser des études paléo-climatiques. L'idéal est bien sûr d'avoir une tranche d'arbre multi-centenaire. La comparaison du profil de croissance d'un morceau de bois d'une époque indéterminée avec cette chronologie de référence permet sa datation exacte à l'année près. Cette propriété a permis d'établir des courbes de calibrage pour corriger les résultats de la datation par le carbone 14, qui supposait une concentration de carbone 14 constante dans l'atmosphère au cours des siècles alors que celle-ci a varié. Depuis quelques décennies, les datations par le carbone 14 sont calibrées et donc plus précises. La dendrochronologie est une des meilleures méthodes de datation absolue utilisées en archéologie pour les périodes remontant jusqu'au Mésolithique (env. 7000 ans av. J.-C.), qui permet de dater des objets ou des sites (à Charavines, en Isère, dès 1974, un habitat néolithique fut le site français pionnier dans cette discipline). Elle permet une datation très précise, à l'année près, mais nécessite que des éléments en bois de taille suffisante soient conservés et qu'il n'y ait pas de cernes manquants ou surnuméraires. En effet, le comptage des cernes est une procédure rudimentaire qui est souvent à l'origine d'une sous-estimation. En effet, chez de nombreuses espèces, l'arbre peut certaines années ne pas former de bois sur tout ou partie de sa circonférence (d'où un cerne partiellement ou totalement absent), en raison d'un hiver rigoureux combiné ou non à un printemps tardif, ou consécutivement à une défoliation sévère. Plus rarement, l’arbre peut fabriquer plusieurs cernes (cernes doubles ou faux cernes) dans une année, par exemple à la suite de l'installation précoce de la sécheresse estivale (cas de la région méditerranéenne), lorsque le cambium élabore des éléments de bois final, puis, à la faveur d'une amélioration des conditions météorologiques estivales, produire à nouveau des éléments de bois initial, avant de produire en fin de saison de croissance le bois final normal. De plus, le premier cerne formé par chaque arbre se trouve généralement au niveau du collet racinaire de l'arbre, sous le niveau du sol. Pour identifier ces cernes manquants ou surnuméraires, afin d'obtenir un âge exact, les dendrochronologues utilisent l'interdatation (appelée aussi synchronisation), . Dendrochronologie et paléoenvironnement Des analyses microchimiques de chaque cerne permettent de déterminer les concentrations de certains polluants dans l'environnement (plomb par exemple) pour les années et décennies antérieures (tant que le bois reste en bon état et qu'il n'a pas subi de contamination secondaire). L'analyse dendrochronologique apporte également des indices sur la pluviométrie et la température qu'il faisait au moment où l'arbre produisait un cerne. Les données sont pondérées par l'analyse de nombreux arbres pour gommer certains artefacts, par exemple liés à des attaques de certains insectes défoliateurs (qui peuvent stopper la croissance d'un arbre jusqu'à 5 ans durant par des attaques répétées). Ce principe est à la base d'une sous-discipline de la dendrochronologie, la dendroclimatologie. De même en présence de certains mammifères (bisons, cervidés) qui écorcent partiellement les arbres, la croissance des cernes peut être provisoirement modifiée le temps de la cicatrisation. La compréhension des évolutions passées — face aux changements climatiques notamment — peut éclairer le présent et le futur des forêts. Ainsi les satellites montrent un allongement de la saison de végétation dans le nord de l'hémisphère Nord, mais l'étude des cernes de l'épinette blanche en Alaska et des teneurs du bois en isotopes du carbone montrent (sur 90 ans) que la croissance radiale des arbres a — dans cette région — été ralentie quand il faisait plus chaud (et trop sec ?), ce qui est contraire à ce qu'attendaient nombre d'experts, et qui doit faire réviser les théories sur la capacité de la forêt boréale à stocker plus de carbone si le réchauffement se poursuit. Dendrochronologie appliquée à certaines herbacées (vivaces) Les herbacées dicotylédones peuvent vivre jusqu'à plusieurs décennies et leurs racines (ou tiges quand elles sont pérennes) sont également porteuses de cernes de croissance parce que les vaisseaux de sève sont plus épais au printemps qu’en fin d'été. Des essais récents réalisés dans des champs en Suisse ont montré qu’il s’agit bien de véritables cernes annuels, même s'ils sont plus fins que ceux des arbres et plus difficiles à observer car ne mesurant que de de large. L'étude par Fritz Schweingruber de sections de racines pivotantes de saxifrages faux aïzoons (Saxifraga aizoides) a permis de trouver des individus de 22 ans. Un âge de 19 ans a été démontré pour une campanule à feuilles de cranson (Campanula cochleariifolia). Des pieds-de-chat étaient âgés de dix ans (Antennaria dioica) alors que certaines bruyères (Erica carnea) avaient atteint les 70 ans. La dendrochronologie des herbacées pourra aider à mieux comprendre rétrospectivement la dynamique des populations de communautés végétales et l'âge de certaines plantes qu'on ignorait jusqu'ici, notamment pour des espèces menacées ou au contraire invasives. Dater l'apparition et l’expansion d’une espèce invasive dans différents types d'habitat peut permettre d'affiner des scénarios de progression future. La largeur des cernes est également un indicateur jugé fiable des conditions locales et temporelles de bonne ou mauvaise croissance de la végétation, les plantes réagissant de manière plus marquée à la plupart des aléas que les arbres dont les racines plongent plus profondément dans le sol. Études sur la dendrochronologie En France Pour être vraiment significatif, un prélèvement (par exemple dans une maison en pan de bois ou dans une charpente) doit s’effectuer par lots, en échantillonnage représentatif. Dans les châteaux, les églises et autres édifices, les prélèvements de bois sur les poutres des différents ensembles peuvent être réalisés par carottage de cinq millimètres de diamètre. Le fait que les laboratoires fournissent un rapport d’analyse détaillé dans un délai de deux à trois mois permet aux géologues, préhistoriens, historiens, historiens d’art, restaurateurs d’art ou architectes, d’orienter leurs travaux et de réaliser la mise en valeur des résultats dans leur contexte. Depuis 1993, le Centre de recherches sur les monuments historiques mène une politique d’analyses de dendrochronologie pour préciser ou confirmer les datations des charpentes, des pans de bois et des menuiseries étudiées par le service. Ces analyses ont permis d’établir des jalons chronologiques des mises en œuvre et sont une aide précieuse pour dater les éléments architecturaux en bois. Analyses de dendrochronologie des charpentes de Chinon (Indre-et-loire), de Puiseaux (Loiret) et de Bourges menées par le Centre de recherches sur les monuments historiques dans le cadre d’actions de datation des charpentes. La mission de la recherche et de la technologie, en liaison avec les directions patrimoniales du ministère, a pour sa part commandé une étude sur l’organisation de la dendrochronologie en France et les conditions d’intervention des organismes fournissant des datations par la dendrochronologie aux archéologues, historiens, chercheurs, architectes, chargés de la conservation du patrimoine culturel. En effet, un nombre croissant de laboratoires publics et privés se disputent non sans heurts l’exercice de la dendrochronologie, méthode de datation spécifique au bois basée sur l’analyse comparative des cernes de croissance. Il est à noter que ce sont l’expérience et la richesse des références accumulées qui sont déterminantes pour la qualité de cette méthode, alors que le matériel nécessaire est simple et n’exige pas de lourds investissements. Cette étude avait pour objectif de comprendre cette situation de concurrence entre ces laboratoires, préjudiciable aux services du ministère, qui en sont les principaux commanditaires. Il s’agissait d’apprécier et de comparer les performances, au sens le plus étendu du terme, des laboratoires en France et en Europe ; afin d’évaluer le caractère stratégique de la dendrochronologie et ses applications notamment en matière de datation, d’authentification, d’expertise, de conservation et de valorisation du matériau bois dans le patrimoine culturel ; également d’apprécier la dimension du marché de la dendrochronologie en France, de prévoir son évolution et les moyens d’y faire face si possible en développant le recours à des moyens nationaux. la datation par dendrochronologie n’intéressait que la recherche archéologique. Il s’y ajoute aujourd’hui de manière presque égale en nombre d’échantillons datés par an, l’étude du bâti (monuments historiques, sites etc) et l'étude/expertise d'œuvres d'art. La méthode et ses possibilités sont encore mal connues des architectes et le recours à la dendrochronologie lors des études préalables est encore accessoire. Au Québec Les longues séries dendrochronologiques ayant pu être reconstituées à ce jour au Québec sont principalement constituées d'épinette noire à la limite nordique de la forêt boréale ainsi que de thuya occidental, de pin blanc et de pruche du Canada plus au sud dans les forêts boréale et tempérée. Plusieurs groupes et associations œuvrent à la construction de longues séries dendrochronologiques. À Montréal, le Groupe de Recherche en Dendrochronologie Historique (GRDH), OSBL basée à l'Université de Montréal, a effectué de nombreuses analyses dendrochronologiques sur des pièces de bois provenant de maisons anciennes, de sites archéologiques et d'arbres vivants. Les travaux du groupe ont mené à la création depuis 2002 de chronologies de référence pour la ville de Québec, l'Île d'Orléans, Montréal ou encore l'Outaouais. À Québec, le Centre d'études nordiques a construit plusieurs chronologies, notamment dans la région de Québec et dans le Bas-Saint-Laurent. Enfin, plus au nord, le laboratoire de dendroécologie de la forêt d'enseignement et de recherche du lac Duparquet (FERLD), liée à l'Université du Québec en Abitibi-Témiscamingue, est un acteur incontournable de la dendrochronologie au Québec. Cette station de recherche se concentre principalement sur l'étude de la forêt boréale. Références Voir aussi Bibliographie Astrade L, Miramont C (2010), Panorama de la dendrochronologie en France. Actes du colloque « Panorama de la dendrochronologie en France », Digne-les-Bains, 8-10 octobre 2009, Coll. Edytem, 216 p. Briand C.H; Brazer S.E; Harter-Dennis J.M (2006), Tree rings and the aging of trees: A controversy in 19th century America. Tree-Ring Res., 62 (2), 51−65. Djindjian F. (2011), « Chapitre 6 - La Chronologie absolue », Manuel d'Archéologie, Paris, Armand Colin, « U », p. 273 - 288. Filion L (dir.), Payette S (dir.) (2010), La Dendroécologie. Principes, méthodes et applications. Québec, Presses de l'Université Laval, 772 p. Guibal F (1996), « Remarques sur quelques difficultés propres à la dendrochronologie en France méditerranéenne », Revue d'archéométrie, Supplément Colloque d'archéométrie 1995, Périgueux, 39-43. Kaennel M., Schweingruber F.H. (Compilers) (1995), Multilingual glossary of dendrochronology. Terms and definitions in English, German, French, Spanish, Italian, Portuguese, and Russian. Birmensdorf; Berne, Stuttgart, Vienna, Swiss Federal Institute for Forest, Snow and Landscape Research; Haupt. 467 p. Glossaire en ligne Lavier C, Perrier P, Vincenot S & Lambert G (1988), « Pratique de la dendrochronologie », Histoire et Mesure, III, 3, 279-308. Article en ligne Munaut A.V (1979), « La Dendrochronologie », Bulletin de l'Association française pour l'étude du quaternaire, vol. 16, -1-2, 65-74. Article en ligne Lebourgeois F, Merian P (2012), Principes et méthodes de la dendrochronologie. Nancy, UMR INRA-ENGREF 1092, Laboratoire d'Étude des Ressources FOrêt-Bois. Manuel en ligne Schweingruber F.H (1996), Tree Rings and Environment: Dendroecology; Swiss Federal Institute for Forest, Snow and Landscape Research and Paul Haupt Verlag.: Bern, Switzerland. Smith K.T (2008), An organismal view of dendrochronology. Dendrochronologia, 26 (3), 185−193. Revues scientifiques Tree-Ring Research (anciennement Tree-Ring Bulletin) Dendrochronologia Articles connexes Arbre Dendrogéomorphologie Dendrométrie Documents sur écorce de bouleau Méristème Tronc (botanique) (âge d'un tronc) Dendrochimie Laboratory of Tree-Ring Research Liens externes Web-documentaire « La dendrochronologie » dans le web-documentaire Archéologie du bâti ou comment lire un mur ? (Université Toulouse - Jean Jaurés) Laboratoires en France LAMS - CNRS (Paris) : Applications de la dendrochronologie et l’archéodendrométrie aux objets en bois de petite taille (Catherine Lavier) UMR SYLVA - Equipe EcoSILVA : La dendrochronologie (François Lebourgeois) Laboratoires au Québec Laboratoire de dendroécologie, Forêt d'enseignement et de recherche du lac Duparquet (FERLD), UQÀT (Duparquet) Groupe de Recherche en Dendrochronologie Historique (GRDH), Université de Montréal (Montréal) Laboratoire d'écologie historique et de dendrochronologie, UQÀR (Rimouski) Laboratoires aux États-Unis Laboratory of Tree-Ring Research - University of Arizona (Tucson) Laboratoires en Suisse Laboratoire de dendrochronologie de Neuchâtel Dendrolab;The Swiss Tree Ring Lab - Université de Genève Autres institutions Virtual Knowledge Centre - Universiteit Utrecht Digital Collaboratory for Cultural Dendrochronology The Ultimate Tree-Ring Web Pages by Henri D. Grissino-Mayer (University of Tennessee) Méthode liée à l'archéologie Datation Discipline botanique
856
https://fr.wikipedia.org/wiki/Dragon%20Quest
Dragon Quest
, aussi connu sous le nom de Dragon Warrior aux États-Unis, est une série de jeux vidéo créée en 1986 par le concepteur Yuji Horii. Pour chacun des épisodes, Horii tient la place de directeur ou de producteur, Akira Toriyama supervise l'environnement graphique puis se concentre sur la création des personnages et Kōichi Sugiyama compose les musiques. La série est extrêmement populaire au Japon et s'est vendue à près de 80 millions d'exemplaires dans le monde. Création Le premier épisode, créé par la société japonaise Enix, est sorti en 1986. Inspiré par les déjà nombreux jeux vidéo de rôle sur microordinateurs, il est généralement considéré comme le premier représentant du genre sur console de jeu vidéo. Au Japon, l'influence du jeu original et de la série sur les jeux vidéo de rôle sur console a été immense. La série continue encore aujourd'hui à faire des émules, et chaque épisode s'est hissé au sommet des classements des meilleures ventes de jeux vidéo au Japon. Ce qui caractérise Dragon Quest est une certaine forme de classicisme et de simplicité : univers heroic-fantasy coloré, dragons, héros, légendes et autres démons qui se retrouvent dans tous les épisodes, là où d'autres séries varient les univers. À tout cela on peut ajouter les graphismes très caractéristiques d'Akira Toriyama, une difficulté relevée, et un gameplay reconnu pour sa profondeur. Dragon Quest est l'œuvre maîtresse de Yuji Horii. Ce dernier a aussi supervisé, avec Hironobu Sakaguchi, le célèbre Chrono Trigger. Un autre grand nom de DQ est Kōichi Sugiyama, responsable des thèmes musicaux. De par son âge, la série a connu un grand nombre de plates-formes différentes : MSX, NES, Super Nintendo, Game Boy Color, Game Boy Advance, Nintendo DS, Nintendo 3DS, Wii, Wii U, Nintendo Switch, téléphones portables, PlayStation, PlayStation 2, PlayStation 3, PlayStation 4 et Xbox one. Épisodes Série principale Jeux dérivés Dragon Quest a donné naissance à des séries dérivées : Dragon Quest : Fushigi no Dungeon (Mystery Dungeon) : 1993 : Torneko no Daiboken, Torneko étant le personnage du gros marchand dans Dragon Quest IV : L'Épopée des élus, sorti sur Super Famicom au Japon ; 1999 : Torneko: The Last Hope (Torneko no Daibōken 2 - Fushigi no Dungeon au Japon) sorti sur PlayStation au Japon et aux États-Unis ; 2002 : Dragon Quest Characters: Torneko no Daibōken 3 sorti sur PlayStation 2 et Game Boy Advance au Japon ; 2006 : Dragon Quest: Shounen Yangus to Fushigi no Dungeon, qui raconte l'enfance de Yangus, personnage jouable de Dragon Quest VIII, sorti sur PlayStation 2 au Japon ; Dragon Quest Monsters, dans laquelle le joueur doit élever des monstres afin de les faire combattre. Le concept est très proche des jeux Pokémon sortis sur Game Boy quelques années avant : 1998 : Dragon Quest Monsters, sorti sur Game Boy Color au Japon, aux États-Unis et en Europe (premier jeu de la franchise à sortir officiellement en Europe) ; 2001 : Dragon Quest Monsters 2, sorti sur Game Boy Color au Japon et aux États-Unis. 2002 : Dragon Quest Monsters 1+2 Hoshi Furi no Yūsha to Bokujō no Nakamatachi, sorti sur PlayStation au Japon, à la fois compilation et remake des deux épisodes Game Boy Color ; 2003 : Dragon Quest Monsters: Caravan Heart, sorti sur Game Boy Advance au Japon ; 2006 : Dragon Quest Monsters: Joker, sorti sur Nintendo DS au Japon, aux États-Unis et en Europe; 2011 : Dragon Quest Monsters: Joker 2, sorti sur Nintendo DS au Japon, aux États-Unis et en Europe; 2012 : Dragon Quest Monsters: Terry no Wonderland 3D, sorti sur Nintendo 3DS au Japon, remake du premier Dragon Quest Monsters ; 2014 : Dragon Quest Monsters: Iru to Ruka no Fushigi na Fushigi na Kagi, sorti sur Nintendo 3DS au Japon, remake de Dragon Quest Monsters 2 ; 2014 : Dragon Quest Monsters: Super Light, jeu Free to play sorti sur mobile Apple et Android au Japon ; 2016 : Dragon Quest Monsters: Joker 3, sorti sur Nintendo 3DS au Japon; Slime MoriMori Dragon Quest, qui relate les aventures d'un slime bleu ; Dragon Quest Swords, jeux adoptant une vue à la première personne demandant d'affronter des vagues d'ennemis apparaissant à l'écran à l'aide d'un appareil avec reconnaissance de mouvements : 2003 : Kenshin Dragon Quest: Yomigaerishi Densetsu no Ken, jeu sorti uniquement au Japon. Il s'agit d'un appareil à brancher directement à sa télévision pour pouvoir jouer. Le principe consiste à attaquer les monstres qui apparaissent sur sa télévision à l'aide de l'épée / manette ; 2007 : Dragon Quest Swords : La Reine masquée et la tour des miroirs, sur Wii, qui met à profit la jouabilité particulière de cette console ; Dragon Quest: Monster Battle Road, sorti en Arcade en 2007 au Japon ; Dragon Quest Heroes, une série de type beat them up proche du concept des jeux Dynasty Warriors (appelés Musou ou Musо̄ au Japon) développés par Omega Force : 2015 : Dragon Quest Heroes : Le Crépuscule de l'Arbre du Monde, sur PlayStation 4 et PlayStation 3 (uniquement au Japon sur PlayStation 3) ; 2016 : Dragon Quest Heroes II, sur PlayStation 3, PlayStation 4, PlayStation Vita, Windows ; 2017 : Dragon Quest Heroes I+II, sur Nintendo Switch, compilation des deux épisodes sortie uniquement au Japon ; , un jeu musical sur Nintendo 3DS exclusivement au Japon ; Dragon Quest Builders est un jeu d'aventure et de constructions dans un concept proche de Minecraft. 2016 : Dragon Quest Builders, sur PlayStation 3 (uniquement au Japon), PlayStation 4, PlayStation Vita et Nintendo Switch ; 2019 : Dragon Quest Builders 2, sur Microsoft Windows (via Steam), PlayStation 4 et Nintendo Switch ; Hoshi no Dragon Quest, (Dragon Quest of the stars) un jeu de rôle free-to-play sorti sur mobile Apple et Android, exclusivement au Japon en 2015, puis mondialement en 2020 ; Dragon Quest Rivals, un jeu de cartes à collectionner et de duel entre joueurs free-to-play sorti sur mobile Apple et Android, Windows et Nintendo Switch exclusivement au Japon en 2017, le concept est proche de Hearthstone ; Dragon Quest WALK, un jeu d'aventures nécessitant de parcourir les rues pour trouver des monstres et des trésors free-to-play sorti sur mobile Apple et Android, exclusivement au Japon en 2019, le concept est proche de Pokémon GO ; Dragon Quest Tact, un tactical-RPG free-to-play sorti sur mobile Apple et Android, en 2020 au Japon et en 2021 dans le reste du monde ; Adaptations Plusieurs mangas et anime ont été adaptés de Dragon Quest : Dragon Quest: Dai no daibōken : un manga de 37 volumes, une série télévisée de 46 épisodes, 3 films d'animation. L'adaptation la plus connue en Occident. D'abord éditée en France par J'ai lu sous le titre de Fly, elle est rééditée par Tonkam sous le nom de Dragon Quest : La Quête de Daï. Dragon Quest: Yuusha no Abel : un manga basée sur Dragon Quest III, série télévisée de 42 épisodes. Dragon Quest: Emblem of Roto : un manga de 21 volumes, un film. Dragon Quest: The Heaven Saga : une adaptation manga de Dragon Quest V. Dragon Quest: Maboroshi no Daichi : une adaptation manga de Dragon Quest VI Dragon Quest: Eden no senshitachi : une adaptation manga de Dragon Quest VII. Dragon Quest: Emblem of Roto: Les héritiers de l' emblème : suite de Dragon Quest: Emblem of Roto , en cours de parution. Popularité au Japon et à l'étranger Au Japon, Dragon Quest détient de nombreux records. Il s'agit de la série la plus populaire de Square Enix, devant Final Fantasy et d'une manière générale, il s'agit de la série non-Nintendo la plus populaire du pays. Sur NES, les trois meilleures ventes d'éditeurs autres que Nintendo sont des Dragon Quest, tandis que sur Super Nintendo, Dragon Quest VI constitue également la meilleure vente d'un éditeur tiers avec d'exemplaires vendus. Dragon Quest VII devient l'épisode le plus vendu de la série avec presque d'exemplaires vendus, meilleure vente de la PlayStation au Japon et, hors jeux Nintendo, la meilleure vente de l'histoire du pays. Toujours au Japon, La série est si populaire, qu'à la suite de la sortie de Dragon Quest III en 1988, Enix planifie son calendrier de telle sorte que la sortie d'un nouvel opus de Dragon Quest se fasse désormais en dehors des jours ouvrés, afin de limiter l'absentéisme (aussi bien scolaire que professionnel). C'est un tel phénomène au Japon qu'il existe des concerts basés sur cet univers, et de nombreux CD reprenant les diverses OST des jeux (certains ayant bénéficié de la participation de l'Orchestre philharmonique de Londres). Dragon Quest VIII devient à son tour la meilleure vente de la PlayStation 2, tandis que le Dragon Quest IX est plus tard annoncé sur la Nintendo DS qui connaît un succès énorme. Bien que l'annonce d'un nouvel épisode sur une console portable surprenne beaucoup de monde, certaines personnes commencent déjà à imaginer la possibilité d'un succès colossal grâce au phénomène de la Nintendo DS, dont le président de Enterbrain qui déclare s'attendre à ce que le jeu puisse dépasser les . À sa sortie en juillet 2009, il devient le deuxième meilleur démarrage de l'histoire avec environ d'exemplaires écoulés en première semaine () selon Famitsu, mais la loi l'imposant de sortir en week-end l'empêche ainsi de tenir la comparaison face à Final Fantasy VIII qui s'était lui écoulé à d'exemplaires en première semaine, mais était sorti un jeudi, jour habituel des nouveautés au Japon, lui laissant ainsi 4 jours de commercialisation. Néanmoins Dragon Quest IX réussit à se maintenir dans les meilleures ventes et devient alors l'épisode le plus vendu de la série mais aussi le premier jeu non-Nintendo a dépasser les d'exemplaires vendus et constitue actuellement le vidéo le plus vendu de l'histoire du Japon. Dragon Quest n'a en revanche pas beaucoup de succès dans le reste du monde, ce qui fait d'ailleurs qu'au niveau mondial, Final Fantasy est ainsi la série la plus populaire de Square-Enix. Enix avait tout de même à l'époque sorti les premiers épisode aux États-Unis, sous le nom de Dragon Warrior, mais aucun opus n'a rencontré de véritable succès. En revanche, la société n'a sorti aucun épisode en Europe. Après la fusion avec Squaresoft, l'éditeur devient plus ambitieux pour sa série à l'international. Dragon Quest VIII devient le premier épisode à sortir en Europe et également le premier à être traduit officiellement en français. Sans connaître un grand succès, le jeu se vend tout de même très bien en Occident. Depuis, chaque épisode a droit à une localisation aux États-Unis comme en Europe, où Dragon Quest IV, Dragon Quest V et Dragon Quest VI sortent pour la première fois grâce à leurs remakes sur Nintendo DS. Les ventes sont toutefois assez moyennes, surtout en comparaison du succès japonais. La série s'avère toutefois plus populaire en Europe qu'aux États-Unis, bien que ce dernier soit le plus important marché au monde pour le jeu vidéo : dans le cas de Dragon Quest IV sur DS, Square-Enix a écoulé au Japon, en Amérique du Nord, et en Europe. Divers La mascotte officielle de Dragon Quest est un slime (traduit en « gluant », dans la version française de Dragon Quest VIII) bleu, en forme d'oignon. Il apparaît dans chaque épisode du jeu ; c'est souvent le premier personnage que l'on rencontre. Il peut, en se mélangeant avec d'autres slimes, devenir un roi slime, un slime plus gros coiffé d'une couronne. Les jeux contiennent quelques notes religieuses : de nombreux évêques vagabondent souvent au sein de l'univers de Dragon Quest Monsters, et ont un pouvoir de guérison. Dans Dragon Quest VII, le seigneur du mal, une sorte de diable, appelé Orgodemir, est le dernier ennemi à combattre. Une quête annexe permet de se battre contre Dieu lui-même. Dans les épisodes de la série à partir de Dragon Quest IV (numérotés), la sauvegarde se fait dans des églises. Dans Dragon Quest IX, des pierres gravées dans le palais du tout-puissant relatent un récit ressemblant très fort à la genèse (premier livre de la Bible). Dans ce même opus, le mal est incarné par un ange déchu, le tout-puissant a une fille unique qui s'est sacrifiée pour l'humanité. Le héros de Dragon Quest XI est disponible en DLC payant dans Super Smash Bros. Ultimate, avec les héros de Dragon Quest III, Dragon Quest IV et Dragon Quest VIII en costumes alternatifs. Influence Inspiré des jeux de rôle sur micro-ordinateurs (avec Ultima I en 1980 ou Wizardry en 1981), le premier opus Dragon Quest est considéré comme le premier jeu du genre sur console de jeux vidéo. En tant que premier jeu japonais du genre, il est source d'une influence artistique que l'on surnomme J-RPG pour les jeux de rôles japonais. Ce même jeu a fait naître une autre série tout aussi populaire au Japon, Final Fantasy. Une série qui, à ses débuts, prenait référence sur la série Dragon Quest (au moins dans la forme comme l'utilisation de chiffre romain pour les titres) mais qui a su se démarquer par une prise de risque artistique et commerciale par la suite. Dragon Quest a aussi inspiré d'autres séries tout aussi populaires telles que Pokémon, Digimon et Dokapon par la mécanique de recrutement et d'élevage de monstre. En effet dans Dragon Quest V sorti en 1992, il était déjà possible de capturer des monstres et de les faire évoluer, le principe même de Pokémon dont le premier jeu est sorti en 1996. Dragon Quest a également inspiré Sega et le Ryu ga Gotoku Studio dans le dernier épisode de la saga Yakuza. En effet, dans Yakuza: Like a Dragon, sorti en 2020, le protagoniste principal, Ichiban Kasuga, se prend pour un héros de Dragon Quest. Le nom de la série est ouvertement cité dans le jeu, Square-Enix ayant donné à Sega le droit d'utilisation du nom. Notes et références Liens externes Site officiel de Square-Enix (Japonais) Jeux vidéo : « “Dragon Quest”, c’est le vieux livre poussiéreux sur lequel on souffle » Dossier sur la série sur Jeuxvideo.com Série de jeux vidéo lancée en 1986
859
https://fr.wikipedia.org/wiki/Dirigeants%20du%20Japon
Dirigeants du Japon
L' est le chef de l'État japonais de facto. Historiquement, cependant, le pouvoir impérial a souvent été usurpé de fait par des chefs de familles puissantes, dont les mieux connus sont les . Selon la Constitution du Japon promulguée en 1947 lors de l'occupation ayant suivi la Seconde Guerre mondiale, l'empereur du Japon a maintenant un rôle uniquement symbolique, le pouvoir exécutif étant détenu par le , chef du gouvernement, à l'instar de ses homologues dans la plupart des autres monarchies constitutionnelles. Souverains impériaux Depuis 270 (-660 d'après la légende historique) : empereurs du Japon, voir la liste des empereurs du Japon Empereurs retirés Pour échapper aux pressions et conserver leur pouvoir, certains empereurs « retirés » affectèrent de laisser le trône à des membres de leur famille, tout en exerçant leur contrôle depuis les coulisses : 1087 – 1129 : l'empereur Shirakawa, qui régna officiellement de 1073 à 1087 ; 1129 – 1156 : l'empereur Toba, qui régna officiellement de 1107 à 1123 ; 1158 – 1192 : l'empereur Go-Shirakawa, qui régna de 1155 à 1158. Dirigeants autres qu'empereurs 866 – 1184 : régents Fujiwara 1192 – 1333 : shoguns de Kamakura 1203 – 1333 : régents du shogunat de Kamakura 1338 – 1573 : shoguns Ashikaga 1568 – 1598 : shoguns de transition 1603 – 1897 : shoguns Tokugawa 1868 – 1912 : dirigeants de la période Meiji Depuis 1946 : Premiers ministres Notes et références Voir aussi Bakufu (shogunat) Histoire du Japon Politique au Japon Dirigeants Politique au Japon Japon
860
https://fr.wikipedia.org/wiki/Dirigeants%20de%20la%20p%C3%A9riode%20Meiji
Dirigeants de la période Meiji
Voici une liste des principaux acteurs de la Restauration Meiji (明治). Cette période débute avec le retour au pouvoir des empereurs japonais, après plusieurs siècles de domination par les shoguns Tokugawa. Certains d'entre eux furent Premiers ministres. Toshimichi Ōkubo (1830-1878) Takayoshi Kido (1833-1877) Takamori Saigō (1827-1877) Tomomi Iwakura (1825-1883) Hirobumi Itō (1841-1909) Kiyotaka Kuroda (1840-1900) Masayoshi Matsukata (1835-1924) Iwao Ōyama (1842-1916) Yorimitchi Saigo (1843-1902) Aritomo Yamagata (1838-1922) Kaoru Inoue (1835-1915) Kinmochi Saionji (1849-1940) Voir aussi Bakufu Shogun Période Edo Chronologie du Japon Histoire du Japon Japon Meiji Empire du Japon Personnalité politique japonaise
862
https://fr.wikipedia.org/wiki/Disque%20dur
Disque dur
Un disque dur (parfois abrégé DD ; en anglais, hard disk drive, HD ou HDD) est une mémoire de masse à disque tournant magnétique utilisée principalement dans les ordinateurs, mais également dans des baladeurs numériques, des caméscopes, des lecteurs/enregistreurs de DVD de salon, des consoles de jeux vidéo Inventé en 1956, le disque dur a fait l'objet d'évolutions de capacité et de performances considérables, tout en voyant son coût diminuer, ce qui a contribué à la généralisation de son utilisation, particulièrement, dans l'informatique. Avec l'arrivée des disques SSD la part de marché des disques durs est en baisse. Historique En 1956, le premier système de disque dur s'appelle l'IBM 350. Il est utilisé dans le (RAMAC pour « »). Il est dévoilé au public par IBM. La production commerciale commence en juin 1957 et, jusqu’en 1961, plus d’un millier d’unités sont vendues. Son prix est alors de par mégaoctet. Le était constitué de de de diamètre, deux têtes de lecture/écriture qui pouvaient se déplacer d’un plateau à un autre en moins d’une seconde. La capacité totale était de cinq millions de caractères. Le RAMAC avait déjà un concurrent : le , composé de magnétiques chacun d’une capacité de . Bien que ce dernier ait eu une vitesse supérieure, c’est le RAMAC, qui pouvait stocker trois fois plus d’informations, qui avait le rapport coût/performance le plus intéressant pour le plus grand nombre d’applications. En juin 1954, J. J. Hagopian, ingénieur IBM, a l'idée de faire « voler » les têtes de lecture/écriture au-dessus de la surface des plateaux, sur un coussin d’air. Il propose le design de la forme de ces têtes. En septembre 1954, il dessine l’équivalent des disques durs actuels : des plateaux superposés et un axe sur lequel sont fixées les têtes de lecture/écriture. Cela deviendra un produit commercial en 1961 sous la dénomination « ». En 1962, IBM sort son périphérique de stockage à disque dur amovible modèle 1311, il faisait la taille d'une machine à laver et pouvait enregistrer jusqu'à deux millions de caractères sur une pile de disques. Les utilisateurs peuvent acheter des paquets de disques supplémentaires et les échanger au besoin, un peu comme des bobines de bande magnétique. Les modèles ultérieurs d'unité d'entraînement pour piles de disques amovibles, d'IBM et d'autres, sont devenus la norme dans la plupart des installations informatiques de l'époque. Ils ont atteint des capacités de dans le début des années 1980. Les unités de disques durs non amovibles ont été appelées lecteur-enregistreurs de disques durs « fixes ». Fin 1969, trois ingénieurs réfléchissent à ce qui pourrait être pour eux le système disque idéal. Ils tombent d’accord sur un modèle composé de deux disques de chacun, l’un amovible, l’autre fixe. On le nomme « », comme celui d'un modèle de carabine . Le nom est resté, et encore aujourd’hui un disque « » désigne un disque dur non amovible (soit quasiment tous les disques internes depuis les années 1990). Dans les années 1970, HP sort ses premiers disques à têtes mobiles ; d'abord le HP-7900A, suivi des HP-7905, 7920 et 7925, tous ces disques possèdent des cartouches amovibles. À la même époque il a existé des disques durs à têtes fixes : un certain nombre de têtes permettaient un accès piste-à-piste très rapide avec, certes, une capacité inférieure aux disques à têtes mobiles mais moins fragiles mécaniquement ; ils ont été utilisés pour les applications embarquées, notamment en sismique par réflexion. À cette époque, le disque dur a remplacé efficacement les tambours et les bandes, reléguant peu à peu ces dernières à des applications d’archivage et de sauvegarde dans les années 1990. Dans les années 1980, HP sort de nouveaux disques, plus performants, les HP-7933 et HP-7935 à pack amovible. À cette époque sont apparus des disques reliés directement sur les réseaux NAS et SAN, suivis par d'autres applications dans lesquelles le disque dur a trouvé son utilité : stockage d'information de caméscopes, de lecteurs/enregistreurs de DVD de salon, de consoles de jeux vidéo Au cours des années 1990, la taille des disques durs a pu être considérablement réduite grâce aux travaux d'Albert Fert et de Peter Grünberg sur la magnétorésistance géante. Leur prix va se démocratiser et tous les ordinateurs personnels seront équipés d'un disque dur, et non plus seulement de lecteurs de disquettes. En 1998, année du centenaire de l’enregistrement magnétique (inventé par le Danois Valdemar Poulsen), IBM commercialise le premier disque dur de (), capacité présentée à l’époque par la presse comme disproportionnée par rapport aux besoins réels des particuliers. En effet : ils n'avaient pas encore accès en masse à Internet et au téléchargement, en particulier le téléchargement illégal. Dans les années 2000, le disque dur se met à concurrencer les disquettes en raison de la baisse de son coût au gigaoctet et de sa plus grande commodité d’accès ; vers la fin de cette même décennie, il commence à être remplacé lui-même comme mémoire de masse, pour les petites capacités (), par des stockages à mémoire flash qui, bien que plus onéreux, n’imposent pas le délai de latence dû à la rotation des plateaux. En 2011, le besoin du marché en disques durs était évalué à d'unités par an. Au quatrième trimestre de 2011, des inondations en Thaïlande provoquent une pénurie de disques durs, en rendant inopérantes plusieurs usines, ce qui provoque une augmentation importante des prix. Certains modèles ont vu leur prix doubler, voire tripler. Évolutions en termes de prix ou de capacité Entre 1980, date de sortie du ST-506 d'une capacité de , et 2008, la surface moyenne occupée par un bit d’information sur le disque s’est vue réduite d’un facteur de plus de ( pour un plateau en 1980 et en 2008, soit une densité supérieure). Dans le même temps, le prix du mégaoctet a été divisé par plus d'un million, sans tenir compte de l'inflation, car : en 1980, le ST-506 coûtait , soit ; en 2008, le mégaoctet d’un disque dur ne coûte plus qu'environ . Capacité de stockage Les disques durs ayant les capacités les plus importantes sur le marché dépassent les (téraoctets) (2017) et en 2019. Le constructeur Western Digital a annoncé en son prochain modèle de (téraoctets). La capacité des disques durs a augmenté beaucoup plus vite que leur rapidité, limitée par la mécanique. Le temps d'accès en lecture est lié à la vitesse de rotation du disque et au temps de positionnement des têtes de lecture. Le débit d'information ensuite est d'autant meilleur que la densité du disque et la vitesse de rotation sont élevées. En 1997, le standard pour les PC de bureau est de pour les disques durs de . Vers 2002, les disques durs de sont courants pour des PC de bureau. En 2009, le standard pour les PC de bureau est de (à partir de en août 2008) et de pour les PC portables. En 2010, sont devenus courants. Pour les « faibles capacités » de moins de environ, ils sont remplacés, de plus en plus, par des mémoires électroniques de type carte SD ou « disques » SSD. En 2,5 pouces (2,5") : premier disque 2,5" sur un seul plateau en avril 2007 (Toshiba) ; premier disque 2,5" en août 2009 (Western Digital Scorpio Blue WD10TEVT). Principe de fonctionnement Dès 1956, dans un disque dur, on trouve des plateaux rigides en rotation. Chaque plateau est constitué d’un disque réalisé généralement en aluminium, qui a les avantages d’être léger, facilement usinable et paramagnétique. À partir de 1990, de nouvelles techniques utilisent le verre ou la céramique, qui permettent des états de surface encore plus lisses que ceux de l’aluminium. Les faces de ces plateaux sont recouvertes d’une couche magnétique, sur laquelle sont stockées les données. Ces données sont écrites en code binaire {0/1} sur le disque grâce à une tête de lecture/écriture, petite antenne très proche du matériau magnétique. Suivant le courant électrique qui la traverse, cette tête modifie le champ magnétique local pour écrire soit un 1, soit un 0, à la surface du disque. Pour lire, le même matériel est utilisé, mais dans l’autre sens : le mouvement du champ magnétique local engendre aux bornes de la tête un potentiel électrique qui dépend de la valeur précédemment écrite, on peut ainsi lire . Un disque dur typique contient un axe central autour duquel les plateaux tournent à une vitesse de rotation constante. Toutes les têtes de lecture/écriture sont reliées à une armature qui se déplace à la surface des plateaux, avec une ou deux têtes par plateau (une tête par face utilisée). L’armature déplace les têtes radialement à travers les plateaux pendant qu’ils tournent, permettant ainsi d’accéder à la totalité de leur surface. Le disque peut-être positionné horizontalement ou verticalement selon le boîtier. L’électronique associée contrôle le mouvement de l’armature ainsi que la rotation des plateaux, et réalise les lectures et les écritures suivant les requêtes reçues. Les des disques durs récents sont capables d’organiser les requêtes de manière à minimiser le temps d’accès aux données, et donc à maximiser les performances du disque. Mécanique Les disques durs à plateaux sont des organes mécaniques, donc fragiles. Il est important de ne pas soumettre les disques, internes ou externes, à des chocs qui pourraient endommager les roulements, ni à des températures de stockage basses qui rendraient le lubrifiant trop visqueux et empêcherait le démarrage. Plateaux Les plateaux sont solidaires d’un axe sur roulements à billes ou à huile. Cet axe est maintenu en mouvement par un moteur électrique. La vitesse de rotation est actuellement (2013) comprise entre (les valeurs typiques des vitesses vont de voire ). La vitesse de rotation est maintenue constante sur tous les modèles, en dépit parfois . En effet, suivant l’augmentation des préoccupations environnementales, les constructeurs ont produit des disques visant l’économie d’énergie, souvent dénommés « » ; ceux-ci sont annoncés comme ayant une vitesse de rotation variable (la vitesse de rotation n'est pas variable, mais l'électronique du disque arrête complètement la rotation quand le disque n'est pas utilisé pendant une longue période ; d'autres disques récents non dénommés «  » font de même avec, semble-t-il, un délai de mise en veille moins court), laissant donc supposer qu'au repos ils tourneraient plus lentement en réduisant leur consommation électrique, et augmenteraient cette vitesse en cas de sollicitations. Il a cependant été confirmé (notamment par des tests acoustiques) que cette information était erronée : ces disques fonctionnent bien à vitesse constante, plus faible que la vitesse standard de (soit pour Western Digital et pour Seagate). Les disques sont composés d’un substrat, autrefois en aluminium (ou en zinc), de plus en plus souvent en verre, traité par diverses couches dont une ferromagnétique recouverte d’une couche de protection. L’état de surface doit être le meilleur possible. Note : contrairement aux CD/DVD, ce sont d’abord les pistes périphériques (c'est-à-dire les plus éloignées du centre du plateau) qui sont écrites en premier (et reconnues comme « début du disque »), car c’est à cet endroit que les performances sont maximales : en effet, la vitesse linéaire d'un point du disque est plus élevée à l'extérieur du disque (à vitesse de rotation constante) donc la tête de lecture/écriture couvre une plus longue série de données en un tour qu’au milieu du disque. Fixées au bout d’un bras, elles sont solidaires d’un second axe qui permet de les faire pivoter en arc de cercle sur la surface des plateaux. Toutes les têtes pivotent donc en même temps. Il y a une tête par surface. Leur géométrie leur permet de voler au-dessus de la surface du plateau sans le toucher : elles reposent sur un coussin d’air créé par la rotation des plateaux. En 1997, les têtes volaient à de la surface des plateaux ; en 2006, cette valeur est d’environ . Le moteur qui les entraîne doit être capable de fournir des accélérations et décélérations très fortes. Un des algorithmes de contrôle des mouvements du bras porte-tête est d’accélérer au maximum puis de freiner au maximum pour que la tête se positionne sur le bon cylindre. Il faudra ensuite attendre un court instant pour que les vibrations engendrées par ce freinage s’estompent. À l’arrêt, les têtes doivent être parquées, soit sur une zone spéciale (la plus proche du centre, il n’y a alors pas de données à cet endroit), soit en dehors des plateaux. Si une ou plusieurs têtes entrent en contact avec la surface des plateaux, cela s’appelle un « atterrissage » et provoque le plus souvent la destruction des informations situées à cet endroit. Une imperfection sur la surface telle qu’une poussière aura le même effet. La mécanique des disques durs est donc assemblée en salle blanche et toutes les précautions (joints…) sont prises pour qu’aucune impureté ne puisse pénétrer à l’intérieur du boîtier (appelé « HDA » pour « » en anglais). Les techniques pour la conception des têtes sont (en 2006) : tête inductive ; tête MR ; tête GMR . Électronique Elle est composée d’une partie dédiée à l’asservissement des moteurs et d’une autre à l’exploitation des informations électriques issues de l’interaction électromagnétique entre les têtes de lecture et les surfaces des plateaux. Une partie plus informatique va faire l’interface avec l’extérieur et la traduction de l’adresse absolue d’un bloc en coordonnées à (tête, cylindre, bloc). L’électronique permet également de corriger les erreurs logicielles (erreur d'écriture). Contrôleur Un contrôleur de disque est l’ensemble électronique qui contrôle la mécanique d’un disque dur. Le rôle de cet ensemble est de piloter les moteurs de rotation, de positionner les têtes de lecture/enregistrement, et d’interpréter les signaux électriques reçus de ces têtes pour les convertir en données exploitables ou d’enregistrer des données à un emplacement particulier de la surface des disques composant le disque dur. Sur les premiers disques durs, par exemple le ST-506, ces fonctions étaient réalisées par une carte électronique indépendante de l’ensemble mécanique. Le volumineux câblage d’interconnexion a rapidement favorisé la recherche d’une solution plus compacte : le contrôleur de disque se trouva alors accolé au disque, donnant naissance aux standards SCSI, IDE et maintenant SATA. L’appellation « Contrôleur de disque » est souvent employée par approximation en remplacement de « Contrôleur ATA » ou « Contrôleur SCSI ». « Contrôleur de disque » est une appellation générique qui convient également à d'autres types de périphériques ou matériels de stockage : disque dur donc, mais aussi lecteur de CD, dérouleur de bande magnétique, scanner Alimentation électrique Dans un ordinateur personnel, l'alimentation électrique d'un disque dur à interface IDE est reçue à travers un connecteur Molex. Certains disques durs à interface Serial ATA utilisaient dans un premier temps ce même connecteur Molex pour être compatible avec les alimentations existantes, mais ils ont progressivement tous migré vers une prise spécifique longue et plate (alimentation SATA). Géométrie Chaque plateau (possédant le plus souvent deux surfaces utilisables) est composé de pistes concentriques initialement séparées les unes des autres par une zone appelée « espace interpiste ». Cette zone disparaît pour les disques durs à plus grande capacité et les pistes sont superposées les unes aux autres dans un format SMR dit enregistrement magnétique à bardeau plus dense mais moins rapide à l'écriture. Les pistes situées à une même distance de l’axe de rotation forment un cylindre. La piste est divisée en blocs (composés de secteurs) contenant les données. En adressage CHS, il faut donc trois coordonnées pour accéder à un bloc (ou secteur) de disque : Le numéro de la piste (détermine la position du bras portant l’ensemble des têtes) ; Le numéro de la tête de lecture (choix de la surface) ; Le numéro du bloc (ou secteur) sur cette piste (détermine à partir de quel endroit il faut commencer à lire les données). Cette conversion est faite le plus souvent par le contrôleur du disque à partir d’une adresse absolue de bloc appelée LBA (un numéro compris entre 0 et le nombre total de blocs du disque diminué de 1). Puisque les pistes sont circulaires (leur circonférence est fonction du rayon - c = 2×pi×r), les pistes extérieures ont une plus grande longueur que les pistes intérieures (leur circonférence est plus grande). Le fait que la vitesse de rotation des disques soit constante quelle que soit la piste lue/écrite par la tête est donc problématique. Sur les premiers disques durs (ST-506 par exemple) le nombre de secteurs par rotation était indépendant du numéro de piste (donc les informations étaient stockées avec une densité spatiale variable selon la piste). Depuis les années 1990 et la généralisation du zone bit recording (en), la densité d’enregistrement est devenue constante, avec une variation du nombre de secteurs selon la piste. Sur les premiers disques, une surface était formatée en usine et contenait les informations permettant au système de se synchroniser (de savoir quelle était la position des têtes à tout moment). Cette surface était dénommée « servo ». Par la suite, ces zones de synchronisation ont été insérées entre les blocs de données, mais elles sont toujours formatées en usine (dans la norme SCSI il existe une commande FORMAT qui réenregistre intégralement toutes les informations de toutes les surfaces, elle n’est pas nécessairement mise en œuvre sur tous les disques). Typiquement donc, on trouvera sur chaque piste une succession de : Un petit espace « blanc » : il laisse à la logique du contrôleur de disque une zone inutilisée de cette piste du disque pendant le temps nécessaire au basculement du mode lecture au mode écriture et inversement (cela permet également de compenser de légères dérives de la vitesse de rotation des surfaces de disque) ; Une zone servo : elle contient des « tops » permettant de synchroniser la logique du contrôleur de disque avec les données qui vont défiler sous la tête de lecture juste après ; Un en-tête contenant le numéro du bloc qui va suivre : il permet au contrôleur du disque de déterminer le numéro de secteur que la tête de lecture va lire juste après (et par là de déterminer également si le bras portant les têtes est positionné sur la bonne piste) ; Les données : ce qui est véritablement stocké par l’utilisateur du disque ; Une somme de contrôle permettant de détecter/corriger des erreurs : cela fournit également un moyen de mesurer le vieillissement du disque dur (il perd petit à petit de sa fiabilité). Types d'interface Les interfaces des disques durs sont les connecteurs et les câbles permettant l'acheminement des données. Elles ont largement évolué avec le temps dans un souci de compacité, d'ergonomie et d’augmentation des performances. Voici les 2 principales interfaces de nos jours : (ou S-ATA), est l'interface série de loin la plus commune de nos jours sur les PC publics. Elle combine la compacité, l'ergonomie et la bande passante suffisante pour ne pas être un goulot d'étranglement ; IDE (ou PATA), est une interface parallèle, la plus courante dans les machines personnelles jusqu’à 2005 et reconnaissable à sa nappe de connexion grise caractéristique à . les connecteurs IDE sont directement liés au bus de communication du disque dur (comme les connecteurs ISA). Ainsi que les interfaces plus spécifiques ou anciennes : SCSI (), plus chère que l'IDE mais offrant généralement des performances supérieures cette interface est surtout utilisée dans les serveurs. Régulièrement améliorée (passage de notamment et augmentation de la vitesse de transfert : normes SCSI-1, SCSI-2, SCSI-3). Cependant, un disque dur SCSI est limité à au maximum (contre 63 pour l'IDE). Désormais très peu utilisée dans les machines grand public ; (SMD), très utilisée dans les années 1980, elle était principalement réservée pour les disques de grande capacité installés sur des serveurs ; SA1000, un bus utilisé en micro informatique et dont le ST-506 est un dérivé ; ST-506, très utilisée au début de la micro-informatique dans les années 1980 ; ESDI (), a succédé au ST-506, qu’elle améliore ; SAS (), qui combine les avantages du SCSI avec ceux du et est compatible avec cette dernière, plus fiable et principalement utilisé sur les serveurs ; (FC-AL), est un successeur du SCSI. La liaison est sérielle et peut utiliser une connectique fibre optique ou cuivre. Principalement utilisée sur les serveurs. Note : les interfaces M2 concernent exclusivement les SSD et pas les disques durs. Les protocoles de communication Les protocoles de communication avec une unité de stockage, incluant les disques durs, sont très dépendants de l'interface de connexion, il ne faut pas cependant les confondre. Norme ATA : norme encadrant les protocoles de l'interface IDE (en parallèle, d'où le terme fréquent de PATA) : ATA1 : première itération de la norme implémentant deux protocoles de communication : le PIO : le processeur de l'ordinateur est intercalé entre la RAM (qui contient les données à enregistrer sur le DD) et le disque dur. Le processeur, via un programme spécifique va identifier les clusters libres du disques dur, puis lire les instructions de la RAM pour les écrire dans le disque dur. Ce protocole est très simple à implémenter mais très consommateur en temps de calcul processeur, le DMA : le disque dur accède à la RAM directement via son contrôleur. Ce qui améliore la bande passante et le débit. C'est le protocole le plus utilisé ; ATA2 (EIDE) : amélioration des débits de transfert de données ; ATA3 : amélioration de la fiabilité ; ATA4 : augmentation de la plage d'adresses (adressage sur 28 bits / LBA pour Long Binary Address) pour pouvoir stocker dans des disques durs de par secteur un total de ; ATA5 : amélioration des débits de transfert de données en DMA (mode 3, 40 broches) et avec le mode 4, aussi appelé « Ultra-DMA » (parfois appelé Ultra ATA par abus de langage, sur 80 broches) ; ATA6 : amélioration du LBA à , pour gérer des Disques durs de 2 Pétaoctets. Amélioration du protocole DMA (mode 5) pour atteindre de transfert ; ATA7 : dernière version de la norme ATA pour atteindre un débit de en DMA (mode 6). Norme SATA : équivalent ATA, mais en Série, cette norme est à la norme ATA ce que le port Série est au port parallèle : plus petit, plus fiable, plus rapide, pour adresser des disques durs sans limite de capacité. Pour pouvoir utiliser un port SATA, il faut multiplexer les données du bus de la carte mère, via un contrôleur (c'est-à-dire une puce sur la carte mère), c'est le contrôleur SATA. Comme tout multiplexage, on peut autoriser des erreurs de communication (via des procédures de détection), et donc augmenter les débits de manière très importante. Pour communiquer avec ce contrôleur, le processeur utilise le protocole AHCI (qui permet aussi d'émuler une communication IDE). Technologie RAID, ce n'est pas un protocole, mais une manière de gérer plusieurs disques durs pour augmenter la sécurité des données et/ou le taux de transfert. Boîtiers adaptateurs (disques durs externes) L'USB et le Firewire/IEEE 1394 (ainsi que les connectiques réseau) ne sont pas des interfaces de disque dur : les disques durs externes amovibles USB ou Firewire sont équipés en interne d'un adaptateur d'interface USB/S-ATA ou Firewire/S-ATA. Ces disques existent en trois formats : , et mais on trouve aussi des boîtiers permettant de transformer des disques internes en disques externes, avec leur alimentation séparée et leur interface, généralement USB. En plus de la compatibilité de la connectique, l'utilisation de disques de technologie récente peut nécessiter un boîtier adaptateur capable de supporter cette technologie nouvelle. Par ailleurs, certains disques durs externes ne peuvent être dissociés de leur adaptateur car ils forment un tout (circuit imprimé commun) ; dans ce cas, le disque dur ne peut pas être extrait pour être monté sur un ordinateur personnel. En avril 2014, les capacités courantes sur le marché sont de , , , , , , et de , , , , , . Des fonctionnalités telles que la sécurité biométrique ou des interfaces multiples sont disponibles sur les modèles les plus onéreux. Capacité Nominale La capacité d’un disque dur peut être calculée ainsi : nombre de cylindres × nombre de têtes × nombre de secteurs par piste × nombre d’octets par secteur (). Cependant les nombres de cylindres, têtes et secteurs sont faux pour les disques utilisant le (enregistrement à densité constante), ou la translation d’adresses LBA. Sur les disques ATA de taille supérieure à , les valeurs sont fixées à , et un nombre de cylindres dépendant de la capacité réelle du disque afin de maintenir la compatibilité avec les systèmes d’exploitation plus anciens. Par exemple avec un disque dur S-ATA Hitachi de fin 2005 : × × × = soit (ou ). Utilisable par les systèmes DOS et Windows La FAT12, lancée avec la première version de PC-DOS, conçue pour les disquettes, ne permettait d'adresser que , dont la taille pouvait être au maximum de sous . Il s'ensuivait une limite de fait à par partition sous . Lancée avec MS-DOS 3.0, la FAT16 autorisa l'adressage de de , soit par partition, avec quatre partitions maximum pour . Avec le DOS 4, le nombre de clusters put monter à , permettant des partitions de mais la taille des clusters ne pouvait toujours pas dépasser . MS-DOS 5 et 6 permirent l'usage de clusters plus grands, autorisant la gestion de partitions de avec des clusters de , mais ne géraient pas les disques de capacité de plus de car ils employaient l'interface (AH=02h et AH=03h) du BIOS. MS-DOS 7.0 supprima la limite à par l'usage de la nouvelle interface (), mais conservait la limitation à par partition, inhérente à FAT16 avec des clusters de . MS-DOS 7.1, distribué avec Windows 95 OSR/2 et Windows 98, supportait FAT32, ramenant la limite théorique à pour . Mais sur disque ATA, le pilote de ne permettait que l'usage de LBA-28, et pas de LBA-48, ramenant la limite pratique à la gestion de disques de . Les BIOS avaient eux-mêmes leurs limites d'adressage, et des limites propres aux BIOS apparurent pour les tailles de , , , , . Cette dernière limite à ne put être dépassée qu'en étendant l'interface BIOS INT-13 par la . Les outils de Microsoft ont eu leurs propres limites pour des tailles de et 64. Linux Avec les noyaux n'utilisant que l'adressage CHS sur les disques IDE, la capacité était limitée à . Les noyaux contemporains utilisant nativement l'adressage LBA 48 bits, la limite de capacité est désormais de . Limite structurelle En 2010, l'adressage ATA est limité à par l'usage de la norme LBA-48. Compression La compression de disque est une technique qui augmente la quantité d'informations pouvant être stockées sur un disque dur. Les utilitaires de compression de disque étaient populaires au début des années 1990, lorsque les disques durs des micro-ordinateurs étaient encore relativement petits () et assez coûteux (environ par mégaoctet). Les utilitaires de compression de disque permettaient alors d'augmenter pour un faible coût la capacité d'un disque dur, coût qui compensait alors largement la différence avec un disque de plus grande capacité. . , lorsque les progrès de la technologie et de fabrication des disques durs ont entraîné une augmentation des capacités, une baisse des prix, et que les systèmes d'exploitation majeurs de l'époque ont intégré en standard cette fonctionnalité. Néanmoins cela continue à être utilisé sur certains disques durs externes et même SSD. Performances Le temps d’accès et le débit d’un disque dur permettent d’en mesurer les performances. Les facteurs principaux à prendre en compte sont : le temps de latence facteur de la vitesse de rotation des plateaux. Le temps de latence (en secondes) est égal à 60 divisé par la vitesse de rotation en tours par minute. Le temps de latence moyen est égal au temps de latence divisé par deux (car on estime que statistiquement les données sont à un demi-tour près des têtes). Dans les premiers disques durs, jusqu’en 1970, le temps de latence était d’un tour : on devait en effet attendre que se présente la , rayon origine () devant les têtes, puis on cherchait le ou les secteurs concernés à partir de cette (). IBM munit des d’une piste fixe entière destinée à l’adressage, et qui éliminait le besoin de ; le temps de positionnement (en anglais ) temps que met la tête pour atteindre le cylindre choisi. C’est une moyenne entre le temps piste à piste, et le plus long possible () ; le temps de transfert est le temps que vont mettre les données à être transférées entre le disque dur et l’ordinateur par le biais de son interface. Pour estimer le temps de transfert total, on additionne les trois temps précédents. On peut par exemple rajouter le temps de réponse du contrôleur. Il faut souvent faire attention aux spécifications des constructeurs, ceux-ci auront tendance à communiquer les valeurs de pointe au lieu des valeurs soutenues (par exemple pour les débits). L’ajout de mémoire vive sur le contrôleur du disque permet d’augmenter les performances. Cette mémoire sera remplie par les blocs qui suivent le bloc demandé, en espérant que l’accès aux données sera séquentiel. En écriture, le disque peut informer l’hôte qui a initié le transfert que celui-ci est terminé alors que les données ne sont pas encore écrites sur le média lui-même. Comme tout système de cache, cela pose un problème de cohérence des données. Sécurité L'évolution rapide des systèmes conduisant à remplacer périodiquement les matériels, de nombreux disques durs recyclés contiennent des informations qui peuvent être confidentielles (comptes bancaires, informations personnelles…). Des guides concernant l'effacement des supports magnétiques sont disponibles. Le contenu des disques durs est de plus en plus souvent chiffré pour obtenir de meilleures conditions de sécurité. Le chiffrement peut être logiciel (géré par le système d'exploitation) ou géré par une puce intégrée au disque dur. Gestions des secteurs défectueux Les anciens disques durs utilisant l’interface , par exemple le Maxtor XT-2190, disposaient d’une étiquette permettant de répertorier les secteurs défectueux. Lors du formatage et donc, en vue d’une préparation à l’utilisation, il était nécessaire de saisir manuellement cette liste de secteurs défectueux afin que le système d’exploitation n’y accède pas. Cette liste n’était pas forcément vierge au moment de l’achat. Avec le temps, les contrôleurs électroniques des disques durs ont pris en charge matériellement les secteurs défectueux. Une zone du disque dur est réservée à la ré-allocation des secteurs défectueux. Les performances s’en trouvent réduites, mais le nombre de secteurs étant faible, l'effet est négligeable pour l'utilisateur. L’usure de la couche magnétique, importante sur les premiers disques durs mais de plus en plus réduite, peut causer la perte de secteurs de données. Le contrôleur électronique embarqué du disque dur gère la récupération des secteurs défectueux de façon transparente pour l’utilisateur, mais l’informe de son état avec le SMART (). Dans la grande majorité des cas, le contrôleur ne tente pas une récupération des nouveaux secteurs défectueux, mais les marque simplement comme inutilisables. Ils seront réalloués au prochain formatage bas-niveau à des secteurs de remplacement parfaitement lisibles. Cependant, suivant le contrôleur et l’algorithme utilisé, la réallocation peut avoir lieu pendant le fonctionnement. Les secteurs défectueux représentent une pierre d'achoppement des sauvegardes matérielles de disques durs en mode miroir (que ce soit au moyen de doubles docks possédant un dispositif de copie matérielle hors connexion ou d'une commande comme dd en Linux), car ces secteurs peuvent exister sur un disque et non sur l'autre, ou encore être à des endroits différents sur chaque disque, rendant dès lors la copie matérielle imparfaite. Formats Les dimensions des disques durs sont normalisées : pour les anciens disques (à interface SMD) ; : génération suivante, permettant de mettre deux disques sur une largeur de baie ; : format apparu en 1980 avec le ST-506, on le trouve aussi en demi-hauteur ; est la taille standard depuis de nombreuses années ; pour les ordinateurs portables à l’origine et installé sur certains serveurs depuis 2006, et qui est le format des solid-state drives ; 1,8 pouce (4,572 cm) pour les baladeurs numériques, les ultraportables, certains disques durs externes. De plus petits disques existent mais entrent dans la catégorie des , avec une taille de (). Les formats normalisés précédents sont définis d’après la taille des plateaux. Il existe aussi une normalisation de la taille des boîtiers pour permettre aux disques durs de tous les manufacturiers de s’insérer dans tous les ordinateurs. Tableau récapitulatif Le disque est créé en 1998 par IBM. est une marque déposée pour un disque dur de très petite taille développé puis commercialisé à partir de 1999 pour répondre aux besoins des baladeurs numériques et surtout de la photographie numérique. Le emprunte les dimensions et la connectique d'une carte mémoire CompactFlash () et est utilisé de la même manière. Sa capacité varie de à . Ce disque avait, à l'époque, une capacité supérieure aux cartes mémoires, mais était plus cher (mécanique de précision avec systèmes antichocs), plus fragile et consommait davantage d’électricité à cause de son micromoteur. Il était principalement utilisé dans les appareils photos professionnels et dans certains lecteurs MP3 en raison de sa capacité importante. Depuis environ 2007, ce type de disque dur est en concurrence frontale avec les cartes de mémoire flash, qui sont moins sensibles aux chocs, car faites d’électronique pure et dont le prix diminue sans cesse. Disque virtuel (RAM disque) Un disque virtuel est un logiciel qui permet d’émuler un disque à partir d’un espace alloué en mémoire centrale. Sa création est faite par le pilote de disque virtuel, sa destruction est faite par la réinitialisation ou l'extinction de l'ordinateur (plus rarement par le pilote), les accès se font par des appels systèmes identiques à ceux pour les disques réels (le noyau doit contenir les pilotes adéquats). Les temps d’accès sont extrêmement rapides, en revanche, par nature, la capacité d'un disque virtuel ne peut excéder la taille de la mémoire centrale. Les données étant perdues si la mémoire n’est plus alimentée électriquement, on écrit en général sur un disque virtuel des fichiers pour lecture seule, copies de fichiers sur disque, ou des fichiers intermédiaires dont la perte importe peu, par exemple : les fichiers de code exécutable (souvent d'extensions .OVR ou .OVL) ; les fichiers intermédiaires de compilation (extensions .OBJ ou .o). Disque dur amovible Historiquement, le premier disque dur amovible à large diffusion commerciale était un boîtier rackable contenant un disque dur et doté d'une interface IDE ; avec ce type de technologie, aucun branchement à chaud n'était possible. Les disques externes raccordables à chaud commercialisés par la suite sont principalement dotés d'un port FireWire, eSata ou USB. Les disques durs externes raccordés via un port USB sont de plus en plus abordables, et possèdent par exemple des capacités de , , pour un usage typique de sauvegarde de données volumineuses (photos, musique, vidéo). L'interface est de type ou , et elle sert aussi à l'alimentation électrique. Ils sont parfois dotés de deux prises USB, la deuxième permettant une meilleure alimentation en énergie, un port étant limité à ; l'utilisation de deux ports permet d'atteindre . Concurrents du disque dur classique Solid-state drive Un SSD (pour ) peut avoir extérieurement l’apparence d’un disque dur classique, y compris l’interface, ou avoir un format plus réduit (mSATA, mSATA half-size, autrement dit demi-format) mais est dans tous les cas constitué de plusieurs puces de mémoire flash et ne contient aucun élément mécanique. Par rapport à un disque dur, les temps d’accès sont très rapides pour une consommation généralement inférieure, mais lors de leur lancement, leur capacité était encore limitée à et leur prix très élevé. Depuis 2008, on voit la commercialisation d'ordinateurs portables (généralement des ultraportables) équipés de SSD à la place du disque dur, par la plupart des grands constructeurs (, , Asus, Sony, Dell, Fujitsu, Toshiba). Ces modèles peuvent être utilisés par exemple dans un autobus, ce qui serait déconseillé pour un modèle à disque dur physique, la tête de lecture risquant alors d'entrer en contact avec le disque et d'endommager l'un et l'autre. Comme toute nouvelle technologie, les caractéristiques évoluent très rapidement : en 2009, un SSD de vaut environ , ce qui reste nettement plus cher qu’un disque dur classique ; mi-2011, un SSD de vaut moins de ; la capacité des SSD dépasse désormais ; fin 2012, un SSD de vaut environ ; fin 2014, un SSD de vaut environ ; en 2017, un SSD de vaut moins de ; en 2018, un SSD de vaut environ ; en 2019, un SSD de vaut environ . Disque dur hybride À mi-chemin entre le disque dur et le SSD, les disques durs hybrides (SSHD) sont des disques magnétiques classiques accompagnés d’un petit module de mémoire flash ( selon le fabricant) et d'une mémoire cache ( selon le fabricant). Développé en priorité pour les ordinateurs portables, l’avantage de ces disques réside dans le fait de réduire la consommation d’énergie, d’augmenter la vitesse de démarrage et d’augmenter, enfin, la durée de vie du disque dur. Lorsqu’un ordinateur portable équipé d’un disque hybride a besoin de stocker des données, il les range temporairement dans la mémoire flash, ce qui évite aux pièces mécaniques de se mettre en route. L’utilisation de la mémoire flash devrait permettre d’améliorer de 20 % les chargements et le temps de démarrage des PC. Les PC portables devraient quant à eux profiter d’une augmentation d’autonomie de 5 à 15 %, ce qui pourrait se traduire par un gain de sur les dernières générations de PC portables. Fabricants Le nombre de fabricants de disques durs est assez limité de nos jours, en raison de divers rachats ou fusions d’entreprises, voire l’abandon par certaines entreprises de cette activité. Les fabricants mondiaux restants sont : ; Toshiba ; Western Digital. Les fabricants historiques sont : Notes et références Notes Références Annexes Articles connexes Bloc de système de fichiers Serveur de stockage en réseau (NAS) RAID Réseau de stockage SAN (SSD) JBOD Baie de stockage Liens externes « 100 Years of Magnetic Recording Milestones: 1898 to 1998 », IBM. « Disque dur », sur Vulgarisation-informatique.com. Jean-Pierre Louvet, « Le premier disque dur a cinquante ans ! », Futura-Sciences, 14 septembre 2006.
865
https://fr.wikipedia.org/wiki/Divinit%C3%A9s%20%C3%A9gyptiennes
Divinités égyptiennes
Les dieux et déesses de l’Égypte antique représentent une foule considérable de plus d'un millier de puissances surnaturelles ; divinités cosmogoniques, divinités provinciales, divinités locales, divinités funéraires, personnification de phénomènes naturels ou de concepts abstraits, ancêtres déifiés, démons, génies, divinités étrangères importées, etc. Le mot égyptien pour dieu est netjer et son plus ancien hiéroglyphe représente vraisemblablement un mat enveloppé de bandelettes de tissu. Pour désigner le concept de la divinité, les glyphes alternatifs sont le faucon sur un perchoir et un personnage accroupi. D'autres termes existent pour désigner une divinité, tel baou ou sekhem mais leur diffusion a été de moindre importance. L'iconographie divine fut dès les temps protohistoriques placée sous le caractère de la diversité. La plupart des divinités furent dotées de plusieurs modes de représentations. La forme zoomorphe est sans doute la plus ancienne, mais très vite on lui adjoignit la forme purement anthropomorphe. La forme composite qui mêle un corps humain à une tête animale, ou vice versa, est plus tardive mais apparaît tout de même dès le avant notre ère. Le panthéon des dieux égyptiens ne fut jamais organisé de manière canonique et rigoureuse à la manière des anciens Grecs. Cependant l'anarchie n'est pas totale. Les prêtres de la cité d'Héliopolis élaborèrent l'Ennéade (pesedjet), un groupement de neuf divinités issues du démiurge. Ce groupe fit florès à travers tout le pays et toutes les villes d'importance se virent dotées de leur propre Ennéade, sans pour autant se tenir strictement au nombre neuf, synonyme de la multitude. Les autres regroupements sont le couple, avec Osiris et Isis pour parangon, et la triade qui est l'adjonction au couple divin d'un dieu enfant, manifestation du cycle de la régénération cosmique. Il semble que ce qui caractérise un dieu égyptien, c'est d'abord les nombreux rites qui lui sont consacrés ; l'offrande de la Maât par pharaon à une divinité étant le geste cultuel par excellence. Terminologie Netjer Déclinaisons |+ |- ! scope="col" | Mot ! scope="col" |Translittération ! scope="col" | Hiéroglyphe ! scope="col" | Traduction |- |align=center| netjer||align=center|nṯr ||align=center|R8-Z1||align=center | dieu, divinité, roi |- |align=center| netjer||align=center|nṯr ||align=center|R8-X1:D21 ||align=center | dieu |- |align=center| netjer||align=center|nṯr ||align=center|R8-G7 ||align=center | dieu |- |align=center| netjer||align=center|nṯr ||align=center|R8-A40 ||align=center | dieu |- |align=center| netjer||align=center|nṯr ||align=center|N35-M6-M6-M6 ||align=center | dieu |- |align=center| netjeret||align=center|nṯrt ||align=center|R8-X1:D21-I12||align=center | déesse |- |align=center| netjery||align=center|nṯry ||align=center|R8-X1:D21-Z4:Y1||align=center | devenir divin |- |align=center| netjer nefer||align=center| nṯr nfr ||align=center|R8-F35 ||align=center |dieu parfait |- |align=center| ter||align=center| tr ||align=center|X1:D21-M6-N5 ||align=center |saison, année |- |align=center| tjeret||align=center| ṯrt ||align=center|V13:D21-X1-M1 ||align=center |saule |- |align=center| teret||align=center| trt ||align=center|U33-V13:X1-M1 ||align=center |saule |- |align=center| tjer||align=center| ṯr ||align=center| X1:D21-M5-A30-Aa29||align=center |estimer, rendre un culte |- |align=center| ter||align=center| tr ||align=center|V13:D21-A30||align=center |respect |} Les mots égyptiens « netjer » (masculin) et « netjeret » (féminin) se traduisent en langue française par « dieu » et « déesse ». L'actuelle transcription des hiéroglyphes utilisée par les égyptologues donne au mot netjer la forme « nṯr ». Cette forme scientifique n'indique que les consonnes du mot égyptien, l'écriture égyptienne ne restituant pas les voyelles. La prononciation exacte est par conséquent perdue. Pour rendre le mot nṯr prononçable à un public francophone, on ajoute mais très arbitrairement, un « e » aux consonnes pour le prononcer sous la forme netjer ou neter (si l'on ne tient pas compte de l'arrêt prépalatal). Les travaux de restitution de la vocalisation exacte des mots de l'égyptien ancien, à partir des vocables grec, copte ou akkadien permettent de restituer approximativement le terme nṯr sous la forme « nátjīr » avec « natjārat » pour sa forme féminine. La langue égyptienne, comme d'autres langues dispose du duel, une forme grammaticale intermédiaire au singulier et au pluriel ; netjeroui (masculin duel) et netjerti (féminin duel). Le duel s'applique à deux divinités apparaissant ensemble comme Isis et Nephtys ou Horus et Seth. La forme du pluriel commence à partir du nombre trois, netjerou (masculin pluriel) et netjerout (féminin pluriel). Étymologie Les tentatives pour donner l'origine du mot netjer se sont montrées jusqu'à présent peu convaincantes. Aucune hypothèse n'a rallié à elle l'approbation de la majorité des égyptologues. La plus ancienne tentative remonte au en la personne d'Emmanuel de Rougé. Elle se fonde sur un rapprochement phonétique avec le mot ter, signifiant « rajeunir, renouveler » et représenté par le signe hiéroglyphique de la tige végétale et symbolisant l'année. Friedrich Wilhelm von Bissing a fait un rapprochement avec le mot « natron », un ancien terme issu de la langue égyptienne. La très controversée Margaret Alice Murray s'est essayée à un rapprochement, peu probant, avec l'arbre tjeret, le « saule » dans le cadre d'un culte rendu aux arbres. En 1988, Dimitri Meeks a postulé que tous les mots basés sur la racine netjer sont en rapport avec un acte cultuel. Le pharaon ne devient un dieu parfait, netjer nefer, qu'après les rites de couronnement, tandis que les défunts ne peuvent espérer une survie divine qu'après des rites funéraires. Signes hiéroglyphiques Emblème Le mot « netjer » s'écrit avec un signe hiéroglyphique qui représente probablement un bâton avec des banderoles. En 1947, l'égyptologue britannique Percy Edward Newberry décrit ainsi ce signe : « une hampe enveloppée d'une bandelette maintenue par une corde, dont l'extrémité se projette, tel un rabat ou une banderole ». Ce signe est très ancien, ses premières attestations remontent à la période proto-dynastique. Jusqu’à la , les banderoles sont nettement séparées et leur nombre varie entre deux et quatre. Au cours de l'Ancien Empire la forme du signe hiéroglyphique se fixe et les banderoles sont remplacées par une bandelette unique. Les variantes les plus précises de ce signe montrent alors une sorte de bâton-fétiche entièrement enrubanné de tissus jaune, bleu et vert. Selon l'égyptologue allemand , il pourrait s'agir d'une stylisation de l'imy-out. Ce suaire, constitué par une peau d'animal, enveloppait le roi mort et permettait au souverain de renaître régénéré. Cette peau est toujours figurée comme étant suspendue à un mât et sa symbolique est en lien avec Osiris et Anubis, les principales divinités du culte funéraire royal. Le papyrus hiéroglyphique de Tanis rédigé durant la période romaine de l'Égypte va dans ce sens. Dans cette liste de signes hiéroglyphiques, le signe « netjer » est accompagné d'une notice en écriture hiératique qui dit « celui qui est placé dans la tombe ». Mais cette petite explication ne vaut peut-être pas pour le bâton enrubanné en lui-même. À cette époque, le mot « netjer » désigne aussi le défunt alors assimilé au dieu funéraire Osiris. Quoi qu'il en soit de cette explication, une variante du signe « netjer » le montre comme une hampe tel un drapeau flottant sur son mât au milieu de la nécropole avec d'un côté un tombeau et de l'autre une colline. Il est manifeste que les Égyptiens percevaient ce signe comme l'indication d'une zone sacrée. Le bâton-fétiche des origines aurait dérivé vers un drapeau cultuel fiché dans le sol et marquant l'entrée des territoires sacrés (cimetières, temples et palais royaux) où les dieux, plus fortement qu'ailleurs, régnaient en maîtres. Il est indéniable que la notion de Dieu a donc été représentée dès les débuts de l'écriture égyptienne par un objet inanimé (bâton ou mât) en rapport avec le domaine funéraire. Cependant, il serait trop restrictif de limiter la notion égyptienne de divinité au seul domaine funéraire. Le mot « netjer » n'est pas une équivalence parfaite de la notion recouverte par les termes de « défunt » ou de « roi défunt ». Faucon D'autres hiéroglyphes peuvent servir à écrire le mot « netjer ». Le premier représente l'image d'un faucon sur une enseigne telle qu'elle était portée en procession. Ce signe est aussi ancien que le signe du bâton fétiche et comme lui, il date de l'invention de l'écriture hiéroglyphique. Le faucon est dès les origines de la civilisation égyptienne l'une des principales incarnations de la divinité. Le faucon sert à individualiser le dieu Horus c'est-à-dire « le Lointain ». Horus n'est d'abord qu'une divinité-faucon parmi beaucoup d'autres. Mais avec l'affirmation du pouvoir pharaonique ce dieu céleste se dote des aspects d'une divinité dynastique ; le pharaon étant alors considéré comme un Horus vivant sur terre. Horus est aussi très vite associé à Rê le dieu solaire ; sans doute dès la même si cet aspect n'est formulé qu'à partir de la dans les « Textes des pyramides ». Mais le faucon sur son pavois sert surtout en tant que signe déterminatif dans l'écriture cursive égyptienne (écriture hiératique). Ce signe est plutôt rare en tant que hiéroglyphe gravé sur les monuments et contrairement au bâton-fétiche sert très peu comme logogramme du mot « netjer ». Homme assis En plus de l'emblème et du faucon, l'homme assis est un autre hiéroglyphe qui sert à désigner la divinité. Cette image est plus récente et n'apparaît qu'à partir de la . À la fin de l'Ancien Empire, ce signe sert essentiellement de déterminatif pour les noms des dieux égyptiens. Il représente un homme assis par terre, les genoux repliés vers la poitrine et enveloppé dans un suaire qui lui cache entièrement les deux bras. Il porte à son menton une barbe cérémonielle, attribut des dieux et des rois. Dans les Textes des pyramides ce signe sert de déterminatif qu'au seul dieu Osiris. Sa symbolique est donc en rapport avec le roi défunt qui comme un nouvel Osiris bénéficie des rituels de régénération et de renaissance. Par la suite, le signe de l'homme assis a été étendu aux autres divinités masculines comme déterminatif. De ce hiéroglyphe dérive toute une série d'autres qui sont comme des versions abrégés des noms des dieux. Sir Alan Henderson Gardiner a regroupé dans la section C de sa liste de hiéroglyphes tous les signes représentant des divinités anthropomorphes et zoomorphes en position assise. Ces derniers furent très en vogue durant la période ramesside ( et s) et apparaissent notamment dans les cartouches des titulatures royales. Tous ces signes ne se lisent pas netjer mais bel et bien comme le nom propre du dieu, Rê ou Ptah par exemple. Autres termes Baou Le mot « netjer » apparaît dans les plus anciens textes écrits en Égypte. Cependant Hans Wolfgang Helck pensait que l'on pouvait voir dans le terme « baou » (transcription : bȝw, pluriel de bȝ) une désignation encore plus ancienne de la notion de divinité. Généralement traduit par « âmes », le terme baou désigne un groupe de divinités attachés à une ville en particulier. Les pyramides à textes parlent ainsi des « baou de Héliopolis », des « baou de Bouto », des « baou d'Hermopolis », etc. Par la suite, ces expressions seront successivement reprises par les Textes des sarcophages et par les Livres des Morts (chapitres 111 à 116). Ces âmes ont été très diversement interprétées ; Kurt Sethe a vu en elles des anciens rois décédés et ayant uniquement régné sur ces villes. Quant à Hermann Kees, il les voyait comme des groupes de très anciennes divinités locales. Dès les Textes des pyramides, les plus grandes divinités sont intégrées aux « âmes de Héliopolis » : Les baou sont donc des êtres divins et cette notion recoupe la notion de netjer. Mais le mot baou sert aussi dès l'Ancien Empire à désigner un concept plus abstrait. Il s'agit alors d'une sorte de puissance qui émane des divinités ou des souverains humains. Cette efficacité peut être positive (l'origine d'un succès) ou négative (tempête destructrice). Les traductions modernes comme volonté, pouvoir créateur, énergie, gloire ne sont pas valable pour tous les cas de figure ; aucun terme moderne ne pouvant restituer le sens originel. Le baou peut donc être vu comme l'action visible et constaté de la divinité. Mais très tôt, la divinité netjer et son action baou ont été confondus, expliquant par là que les divinités netjer ont aussi été appelées baou. Sekhem Le terme « sekhem » (transcription : sḫm) comme netjer et baou se retrouve dans les plus anciens textes égyptiens. On le traduit généralement en français par le mot « puissance ». Comme le baou, le sekhem se réfère à une émanation de la divinité, il s'agit d'une puissance, une force que toute divinité possède en propre. Cette puissance s'incarne dans un objet symbolique, le sceptre sekhem que tout dignitaire divin ou humain se doit de tenir entre ses mains. Le mot sekhem est la racine du nom propre de Sekhmet la déesse lionne, faisant d'elle « La Puissante ». Sous le Nouvel Empire, le mot sekhem sert à désigner l'image d'un dieu, sa représentation animé ou inanimé sur terre. Plus tardivement encore, sekhem devient un synonyme de netjer sans que l'on puisse voir entre les deux une quelconque nuance». Historique Préhistoire En Égypte, le avant notre ère est une période charnière entre le néolithique et l'âge du bronze. Les plus anciennes preuves archéologiques attestant l'existence de croyances religieuses remontent à cette époque. Dès le départ, la religiosité offre le visage de la diversité. Les principales découvertes ont été faites à Héliopolis, Maadi, Badari et Nagada. Des fouilles archéologiques ont révélé des inhumations d'animaux, surtout des gazelles et des canidés (chiens, chacals) mais aussi des béliers et des bovidés. La présence d'objets cultuels dans ces tombes semble prouver qu'il s'agissait d'animaux sacrés. Durant la période de Nagada , les vases sont décorés de motifs animaliers et les palettes à fard prennent des formes animales. Toutes ces découvertes attestent des croyances en des divinités pouvant prendre des formes animales. Cependant, il ne s'agit pas d'une zoolâtrie pure et simple. Au cours des périodes suivantes, de Nagada à la Dynastie 0, la vénération se porte manifestement aussi sur des objets sacrés. L'iconographie montre ainsi des hampes processionnelles sur lesquelles sont perchées soit des animaux soit des objets sacrés. De cette période protohistorique, on ne dispose pas encore de preuves formelles concernant des croyances en des divinités anthropomorphes. Des statuettes en argile ou en os (femmes nues, hommes barbus) ont bien été retrouvées mais il n'est pas assuré qu'il faille voir en elles les premières représentations anthropomorphes des divinités égyptiennes. Période thinite À la fin de la protohistoire égyptienne (vers 3000 avant notre ère), les animaux sont toujours perçus comme étant plus puissants que les humains. Sur les fragments de la Palette du champ de bataille conservés à Londres et à Oxford, les vaincus sont figurés sous forme humaine nus et désarmés voire ligotés à une hampe. Jetés à terre, leurs corps sont foulés par les vainqueurs représentés sous des formes animales ; lions et rapaces. Cette conception de la supériorité animale transparaît aussi dans les titulatures royales. Les premiers rois de l'Égypte antique n'ont que des noms d'animaux ; vautour, faucon, scorpion, crocodile. Vers la fin de la (vers 2800 avant notre ère), la pensée humaine connaît une mutation qui fait que les Anciens Égyptiens modifient leur manière de penser leur univers. Les rois abandonnent les dénominations strictement animales tandis que dans l'iconographie les formes animales ou inanimées s'humanisent. Les forces et les puissances surnaturelles, jusqu'alors seulement zoomorphes, s'humanisent et leurs représentations deviennent aussi anthropomorphes. La Palette de Narmer laisse ainsi voir la déesse Bat sous une forme mixte (tête de vache avec visage humain vu de face). La contrée vaincue est figurée comme un fourré de papyrus avec une tête d'homme tenue en laisse par un faucon en fureur. Durant le premier quart du , le cercle des divinités à être entièrement représentées sous la forme humaine est très limité. La Pierre de Palerme est un bloc de basalte gravé de hiéroglyphes qui se présente comme les annales des cinq premières dynasties royales. Ce document n'est toutefois pas contemporain de cette époque car des anachronismes ont été constatés. Cette réserve mis à part, la pierre indique qu'une statue de Min a été réalisée sous la puis une autre sous la . Mais on ne sait pas si ces statues avaient déjà fait voir le dieu Min sous sa forme humaine ithyphallique. La nécropole de Tarkhan a révélé un vase en pierre où figure une représentation de Ptah dans un naos et datable des toutes premières dynasties. C'est aussi sous les et s que les déesses Satis et Neith acquièrent chacune leur forme humaine. Il en va de même pour les principales divinités cosmiques : Atoum, Shou, Geb et Nout. Mais à cette même époque les dieux à forme entièrement animale sont toujours les plus fréquents, tels Horus et Seth. Les divinités composites, tête animale sur un corps humain ne font leur apparition qu'à l'extrême fin de la ; sur une empreinte d'un sceau-cylindre au nom du roi Péribsen par exemple. Le dieu Horus acquiert sa forme composite hiéracocéphale sous la . Toutefois, cette forme a déjà été attribuée au dieu-faucon Ach, le gardien des oasis libyques, quelque temps plus en avant. Fragments attribués au roi Péribsen, . Ancien Empire À la fin du , le territoire de l'Égypte antique devient un pays unifié autour d'une monarchie centralisée. Pouvoirs civils et religieux étant confondus, les grandes traditions religieuses issues des peuplades préhistoriques se structurent autour de l'idéologie royale. Disposant de l'écriture, les scribes et les prêtres royaux développent des rituels et tentent de donner un sens commun aux différentes traditions religieuses. Se met alors en place une vision de l'univers où le roi, incarnation du dieu Horus de Hiérakonpolis, tient une position centrale. Cette mythologie, où les divinités sont mises au service de la destinée royale, ne nous est toutefois parvenue qu'avec des textes de la fin du ; les fameux Textes des pyramides gravés sur les murs des modestes pyramides des rois des et s (entre 2350 et 2150 avant notre ère). Tout au long de l'histoire religieuse égyptienne le culte des dieux locaux est resté la donnée fondamentale de la vénération. Cependant quelques divinités ont réussi à connaître une influence plus grande. Ces divinités en bénéficiant d'une association à l'idéologie royale et des circonstances politiques sont parvenues à dépasser le cadre de leur cité ou de leur nome. L'Ancien Empire est marqué par la place prépondérante du culte solaire issu des traditions d'Héliopolis où le dieu Rê apparaît comme la manifestation visible d'Atoum, le démiurge issu des sombres eaux du Noun. Dans le domaine des cultes funéraires, les divinités canines comme Oupouaout ou Anubis s'effacent devant Osiris auquel le roi défunt est assimilé. Moyen Empire Après les temps difficiles de la Première Période intermédiaire, le pouvoir monarchique réaffirme sa puissance durant le Moyen Empire sous les et s (entre 2100 et 1780 avant notre ère). Le culte de Rê, le dieu solaire, s'associe aux principales divinités locales. À Thèbes, la ville d'où est partie la volonté réunificatrice du pays, le dieu Amon prend l'aspect d'un démiurge solaire sous son aspect d'Amon-Rê. Les autres divinités locales sont elles aussi associées à l'idéologie solaire, tels le faucon Montou-Rê à Hermonthis, le bélier Khnoum-Rê à Éléphantine ou le crocodile Sobek-Rê dans les localités du Fayoum. Dans le domaine funéraire, le dieu Osiris continue sa montée en puissance. Sa dévotion s'étend dans tout le pays mais plus particulièrement à Abydos sa ville sainte où de nombreuses chapelles et stèles prouvent sa renommée auprès du peuple. Les formules funéraires des Textes des sarcophages, plus particulièrement prisés par les nomarques de la Moyenne-Égypte, sont la marque d'une diffusion des prérogatives funéraires royales auprès des grandes familles dirigeantes. Ces textes tout en montrant l'importante place prise par Osiris et Isis dans les croyances post-mortem, montrent aussi le rôle crucial joué par Rê dans les contrées souterraines. De nombreux défunts cherchent en effet à accompagner le dieu Rê à bord de sa barque durant son voyage nocturne. Les défunts cherchent aussi à devenir les scribes des dieux Thot, Atoum ou Hathor. Nouvel Empire Sous le Nouvel Empire (entre 1552 et 1069 avant notre ère), la domination du dieu Amon-Rê s'accentue. La ville de Thèbes et son clergé sont largement favorisés par les premiers souverains de la . Tous les pharaons de cette époque participent à l'embellissement des immenses complexes religieux de Louxor et de Karnak. La suprématie d'Amon n'est remise en question que lors de la parenthèse amarnienne. Cette réforme religieuse, balbutiante sous , est symboliquement portée à son apogée par Amenhotep en la quatrième année de son règne. En devenant Akhenaton, le souverain abandonne Amon et Thèbes et se tourne vers Aton, le disque solaire déifié et fonde la ville nouvelle d'Akhetaton, « l'Horizon d'Aton ». Mais ses successeurs, Toutânkhamon et Aÿ reviennent très vite aux anciennes conceptions religieuses. Cette décision est définitivement entérinée par le général Horemheb, initiateur de la par la condamnation à l'oubli des souverains amarniens et par la destruction des temples d'Aton à Thèbes. Le dieu Amon retrouve sa place dominante dans l'idéologie royale. Il se trouve toutefois associé au dieu Rê d'Héliopolis et au Dieu Ptah de Memphis dans de savantes spéculations religieuses. Ces conceptions sont peut-être la marque d'une politique royale plus équilibrée envers les autres grandes divinités et villes du pays : Cette spéculation autour des trois principaux dieux monarchiques s'enrichit sous de réflexions autour du chiffre quatre. L'armée se divise ainsi en quatre grandes divisions placées sous le patronage d'Amon, Rê, Ptah et Seth. En Nubie, dans le naos du grand temple d'Abou Simbel, trônent quatre divinités Ptah, Amon, (divinisé) et Rê-Horakhty, tandis qu'à l'extérieur quatre grands colosses sous les traits de gardent l'entrée du temple. Déclin Le Nouvel Empire se termine sur un désordre socio-économique, les obscurs successeurs du pharaon ne parvenant plus à imposer leur pleine autorité sur la Haute-Égypte. À partir du règne de , le pays est de fait scindé en deux. Profitant de l'impéritie du pouvoir pharaonique, une lignée de grands prêtres d'Amon contrôle la Haute-Égypte depuis Thèbes. La Basse-Égypte reste quant à elle sous l'influence des pharaons de la installée à Tanis, la Thèbes du Nord avec son temple lui aussi consacré au dieu Amon. L'idéologie royale de cette époque tend vers la théocratie ; le véritable pharaon est en fait le dieu Amon qui gouverne le pays par l'entremise d'oracles interprétés par son clergé. Avec la , des Libyens détenteurs du pouvoir militaire s'emparent de la fonction royale. Ils prennent d'abord le pouvoir dans le Nord autour de Bubastis, Tanis et Memphis leurs zones d'émigration. Avec une forte garnison à Héracléopolis et la nomination de princes royaux en tant que grand prêtre à Thèbes, les pharaons libyens parviennent ensuite à contrôler totalement le Sud. Mais ce pouvoir libyen finit par se disloquer à cause de dissensions internes. Plusieurs dynasties coexistent alors au même moment, les , et s. Ce désordre politique est mis à profit par des pharaons d'origine nubienne () qui parviennent à se saisir de la Haute-Égypte. Les Nubiens ne parviennent cependant pas à s'affirmer totalement en Basse-Égypte morcelée en plusieurs chefferies dont les roitelets des et s. Au cours d'invasions, les armées assyriennes d'Assurbanipal refoulent les Nubiens de Tanoutamon en deçà d'Assouan et en profitent pour mettre à sac la ville de Thèbes. Profitant d'un reflux des troupes assyriennes, réunifie l'Égypte et inaugure une période de prospérité : la Renaissance saïte. Cette période est marquée par un retour aux sources où spiritualité et art de l'Ancien Empire sont mis à l'honneur et copiés. Cette période voit aussi se développer le culte des animaux sacrés comme Apis ou Boukhis. Le dieu Osiris devient de plus en plus populaire au quotidien, tandis que Seth qui fut promu au temps de est de plus en plus diabolisé et rejeté. Le culte d'Isis et des dieux enfants comme Harsiesis connaît une plus grande ferveur. Pendant toute cette période, les pharaons implantent leurs tombes dans leurs capitales. En Nubie pour la et pour les dynasties indigènes dans le delta du Nil essentiellement à Tanis et à Saïs. Originaire de cette région, Neith la déesse guerrière, devient la patronne alors de la monarchie. Dominations perses En l'an 525 avant notre ère, l'armée égyptienne conduite par le jeune est défaite à Péluse par les forces des Perses Achéménides de . Conquise, l'Égypte devient une province perse et Cambyse est intronisé pharaon à Saïs. Lui et ses successeurs sont considérés comme les membres la . Mais ils sont avant tout des rois perses qui gouvernent l'Égypte depuis Suse à travers des satrapes. Le perse poursuit la politique pharaonique traditionnelle ; il fait construire un temple dans l'oasis de Kharga et en fait restaurer d'autres comme à Bousiris et à El Kab. Certaines élites égyptiennes se rallient facilement aux dominants à l'image de Oudjahorresné, prêtre de Neith à Saïs. Mais cette première domination perse est aussi marquée par de nombreuses révoltes. Sous et l'indépendance est presque complète avec les soulèvements des pharaons locaux des , et s égyptiennes. Cette indépendance nationale face aux Perses est surtout assurée avec l'aide de mercenaires grecs. L'égyptien durant ses dix-huit ans de règne fait restaurer de nombreux temples. Tout au sud du pays, sur les îles sacrées de Philæ et de Biggeh, il fait construire deux sanctuaires dédiés respectivement à Isis et à Osiris, ce dernier étant considéré comme l'initiateur de la crue du Nil. La prospérité économique de ce temps profite aussi aux autres divinités. Le roi accorde ainsi les taxes perçues sur les importations du comptoir grec de Naucratis au temple de Neith de Saïs. Son petit-fils poursuit la même politique en maintenant les valeurs religieuses traditionnelles. Sa grande piété transparaît à travers une statue qui le représente en taille réduite entre les pattes du faucon Horus coiffé de la double couronne, le pschent. Les troupes perses d' sont refoulées une première fois vers -350. Mais quelques années plus tard, en -343, lors d'une seconde tentative, l'armée de est défaite à Péluse par les perses puis une seconde fois à Memphis qui subit un siège en règle. résiste plusieurs mois en Haute-Égypte mais est finalement contraint à fuir en Nubie où l'on perd définitivement sa trace. Avec ce roi, finit la dernière dynastie indigène égyptienne. Les Perses dominent une seconde fois l'Égypte sous les règnes des rois et (). À la mort d', et à la faveur de troubles de succession qui éloigne un temps l'emprise des perses sur l'Égypte, une ultime tentative de reprise du pouvoir par un prince égyptien a lieu en -338 avec le règne éphémère de Khababash qui est attesté au Sérapéum de Saqqarah. Mais cette rébellion est matée en -336 avec la montée sur le trône achéménide de qui reprend le contrôle du pays pour seulement quatre années. En effet, dès -332 le satrape livre le pays sans grands combats au macédonien Alexandre le Grand. Époque ptolémaïque et romaine Sous la domination grecque des Ptolémées puis sous l'occupation romaine, la religion traditionnelle égyptienne continue à persister. Les occupants n'ont jamais pourchassé les divinités égyptiennes ni tenté de les remplacer par d'autres. Cependant, au contact du monde gréco-romain, l'Égypte antique va connaître de profonds bouleversements. Sous les Ptolémées, si les individus égyptiens ne doivent pas faire face à une assimilation culturelle, leur société va cependant devenir très nettement biculturelle avec deux civilisations très différentes sur un même territoire. Les Lagides tout en favorisant la minorité grecque doivent composer avec la majorité égyptienne, se fondre dans le moule pharaonique et ménager le clergé provincial. Tout ceci n'empêche pas des révoltes, surtout en Haute-Égypte, de par son éloignement avec Alexandrie, la nouvelle capitale. Après la défaite de en -30, les Romains, peu nombreux, renforcent les droits de la minorité grecque et modifient l'administration du pays pour une meilleure captation des rentrées fiscales. Les temples sont ainsi dépossédés de leurs biens fonciers et par là même dépourvus de toute autonomie financière. L'idéologie pharaonique persiste tout de même à travers le pays». Des empereurs comme Auguste et Tibère sont tout naturellement représentés sur les murs des temples dans le costume de pharaon. Entre le avant notre ère et le de notre ère, la vitalité des divinités égyptiennes se montre à travers la reconstruction de nombreux temples. Parmi les plus célèbres figurent le temple d'Horus à Edfou, le temple d'Isis sur l'île de Philæ, le temple d'Hathor à Dendérah et le temple de Sobek et Haroëris à Kôm Ombo. On peut aussi citer des sanctuaires bien plus modeste comme le temple d'Hathor à Deir el-Médineh, le temple d'Isis à Dendour, le temple de Tafa et le temple d'Amon à Debod. Les élites égyptiennes, dont les prêtres, accèdent à la culture hellénistique et bénéficient d'une double culture. Durant l'époque romaine l'usage de la langue grecque est partout présent dans les milieux sacerdotaux. Mais si on trouve des prières rédigées en langue grecque pour un public grec, les grandes spéculations religieuses à l'intérieur des temples se font toujours en langue égyptienne. L'usage des hiéroglyphes sur les monuments se complexifie par la création des glyphes nouveaux et l'usage de combinaisons cryptographiques très ardues. Les textes anciens (mythes, réglementations sacerdotales, textes liturgiques et littéraires) continuent à être recopiés en écriture démotique. Cependant on assiste aussi à des réflexions nouvelles où l'on tente d'ordonner les mythes et les divinités dans des synthèses théologiques innovantes. Le culte des divinités locales persiste mais les divinités du mythe osirien sont de plus en plus populaires. Tous les temples d'importance se dotent de chapelles osiriennes autonomes ainsi que de mammisi consacrés à la naissance des dieux enfants élaborés à l'image de Harsiesis, « Horus, fils d'Isis ». Le culte d'Isis dépasse les frontières de l'Égypte et atteint Rome et les contrées les plus éloignées de son empire. L'iconographie du dieu Osiris conserve sa forme momiforme traditionnelle mais on peut ainsi le rencontrer sous sa forme gréco-romaine de Sarapis (homme barbu à la manière d'Hadès) ou sous sa forme d'Osiris-Canope avec une tête qui émerge d'un vase lui servant de corps. Malgré l'aversion des Romains pour les divinités animales, Anubis sous sa forme d'Hermanubis parvient à se faire une place dans les croyances, sans doute encouragé par le comportement lubrique attribué au chien. Thot assimilé à Hermès devient le Trismégiste, c'est-à-dire le « Trois fois grand », l'auteur de savantes spéculations philosophiques diffusées à travers le Corpus Hermeticum et la Table d'émeraude alternatives ésotériques aux lois de Moïse durant le Moyen Âge occidental. Iconographie Diversité des représentations La forme composite qui fusionne un corps humain avec une tête animale peut être vue comme l'iconographie la plus représentative de la conception égyptienne de la divinité. Mais ce mode de représentation doit plus être vu comme un enrichissement de l'iconographie que comme une substitution du mode de représentation entièrement animal. L'ancienne forme animale de la divinité n'a jamais été remplacée par la nouvelle forme composite. C'est ainsi que chaque divinité égyptienne peut être représentée de différentes manières, aucune manière n'ayant définitivement chassé l'autre. Les différents modes coexistent à toutes les époques de l'Égypte antique. Le dieu Thot est ainsi figuré à l'image d'un babouin, d'un ibis ou d'un homme à tête d'ibis. La déesse Hathor offre une gamme de représentations encore plus large. Elle peut apparaître sous la forme d'une vache, sous une femme (simplement accompagnée de son nom hiéroglyphique), plus rarement sous la forme d'une femme à tête de vache, sous la forme d'une femme coiffée d'une perruque ornée de cornes de vache avec le disque solaire, comme une vache surgissant d'une colline, sous le visage d'une femme vu de face mais avec des oreilles de vaches, sous la forme d'un arbre, d'une serpente, d'une lionne, etc. Zoomorphisme Dans la culture égyptienne, nommer, représenter est un acte quasi magique, c'est faire venir à l'existence ce que l'on nommait ou représentait. Pour les Égyptiens, le démiurge crée, à son image, toutes les créatures terrestres, hommes, animaux, végétaux et minéraux. En retour, le choix de l'image, par le prêtre ou l'artiste est essentiel: on comparait, par exemple, les manifestations d'une espèce animale à un trait caractéristique d'une manifestation du démiurge ; une manifestation de ce qui est inexprimable trouvait alors sa forme métaphorique. À propos de Bastet le prêtre pouvait dire : « La déesse Bastet vous protège comme une chatte protège ses chatons ». D'où l'attention au détail significatif qui manifeste, dans la représentation, une chatte vigilante, les oreilles dressées. Et l'attention au détail significatif, dans l'art égyptien des représentations figurées vient de là. Ainsi le bousier qui enfouit sa pelote ou bien qui émerge du sable en la poussant (son « garde-manger » et où il pond ses œufs, son « nid ») était la plus merveilleuse métaphore pour évoquer le cycle solaire, le soleil qui émerge chaque matin dans le ciel pour disparaître, le soir, à l'horizon. L'animal n'est pas le dieu mais il peut en représenter une manifestation. Sa momie (à partir du Nouvel Empire) peut servir aussi d'intermédiaire entre le dévot et le démiurge, pour lui demander une faveur ou le remercier. Enfin certains animaux précis, des individus choisis, pouvaient incarner la divinité, c'est le cas d'Apis (à partir d'Amenhotep III), incarnation du dieu Ptah sur la terre. Le bestiaire servant à représenter les dieux n'est pas extensible. Il se limite aux animaux qui vivaient dans la plaine du Nil lorsque l'iconographie divine s'est mise en place. L'éléphant, le rhinocéros et la girafe n'ont pas été divinisés. Ces espèces ont peuplé la vallée à une époque reculée, mais avec les variations du climat elles avaient déjà disparu lorsque le paysage religieux de l'Égypte antique s'est structuré. Quant au cheval, il ne fut introduit que très tardivement et n'a donc pas joué un grand rôle dans l'imaginaire divin. Les seules représentations du cheval se limitent aux divinités étrangères du Moyen-Orient ; Astarté montant à cru un cheval par exemple. Les Égyptiens ont donc observé le comportement des animaux et ont attribué aux différentes espèces des qualités qu'ils ont transposées au monde divin. Le scarabée poussant sa boule d'excréments est devenu Khépri le dieu poussant le disque solaire hors de la nuit. Dans une horde de babouins, le mâle dominant se montre très paternaliste avec ses rejetons, surtout s'ils sont orphelins de mère. Le dieu à l'image de singe cynocéphale, Thot, a ainsi été figuré comme un maître sur une estrade dictant ses paroles à un scribe comme à un fils spirituel. Anthropomorphisme Les phénomènes naturels, le cosmos, les lieux ainsi que les concepts abstraits ont très tôt été figurés comme des divinités à l'apparence humaine. La déesse Maât personnifie l'harmonie cosmique mise en place par Atoum le démiurge. Venu à l'existence au même moment, Shou est la personnification du souffle de vie. Maât et Shou portent généralement une plume d'autruche sur la tête pour symboliser leur nature éthérée. Shou prend souvent l'aspect d'un homme en train de soulever Nout la déesse du ciel, pour la séparer de Geb le dieu de la terre qui sont eux aussi représentés à la manière anthropomorphe. Maât peut aussi apparaître dédoublée dans le Tribunal d'Osiris. Elle est alors rapprochée des deux sœurs Isis et Nephtys, personnifications du trône et du palais royal. D'autres forces à l'œuvre dans l'univers ont été personnalisées : Sia l'intuition, Hou le verbe créateur ou encore Heka la magie. De ces trois, seul Heka semble avoir bénéficié d'un véritable culte. Le Nil, les étendues d'eau et les poissons n'ont pas été divinisés ; peut être à cause d'un tabou. Seule la crue du Nil a bénéficié d'une représentation anthropomorphe. Sous l'aspect de Hâpy, la crue a pris l'apparence d'un homme obèse à la bedaine retombant sur la ceinture de son pagne, les mamelons pendant sur le thorax. Il transporte généralement une table d'offrande et le fourré de papyrus placé sur sa tête le met en lien avec les zones humides où stagnent les eaux limoneuses et fertiles de la crue. Certains lieux remarquables ont aussi bénéficié de la personnalisation ; les Égyptiens ont en effet perçu la présence du divin en certains lieux. Le piton rocheux qui surmonte la nécropole de Thèbes a été vu comme étant la déesse Meresgert « Celle qui aime le silence ». Si beaucoup de représentations la montrent comme une femme avec la coiffure traditionnelle de Hathor (corne de vache et disque solaire), dans le village de Deir el-Médineh sa forme habituelle est le cobra. Après la défaite des Hyksôs, la ville de Thèbes fut vue comme une déesse armée d'un arc, d'une massue et d'une lance. Même les secteurs d'agglomération ont pu être divinisés. Sous la , la nécropole thébaine située sur la rive occidentale, en face du temple d'Amon de Karnak, est devenue la déesse Khefethernebes, « Celle qui est en face de son maître ». Forme composite Corps humain à tête animale La divinité figurée sous la forme composite adopte le plus souvent un corps humain surmonté d'une tête animale. De plus, pratiquement toutes les divinités composites portent une longue perruque tripartite, deux parties des cheveux tombant sur le torse et une troisième partie dans le dos. Cette perruque sert de transition entre le corps humain et la tête animale. L'animal peut être un mammifère (taureau, vache, lion, chien, chacal, chat, panthère, hippopotame, animal Seth, bélier, lièvre), un oiseau (faucon, vautour, ibis), un reptilien (crocodile, serpent) voire un batracien (grenouille). Ce système comporte pourtant quelques exceptions. La forme animale du dieu Khépri est le scarabée. Sa forme composite ne se limite pas à montrer la tête de l'insecte mais son corps entier, tel un visage. Le démon de la Douât « Celui qui enchaîne » est quant à lui représenté comme un homme avec deux boucles d'une corde en guise de tête mais sans perruque tripartite. La déesse Serket est entièrement figurée comme une femme, son animal la nèpe (punaise des étangs) étant placé au-dessus de la tête. Geb est un homme ayant son animal, le jars, au sommet de sa tête. Quant à la déesse Bastet, sa tête de chatte peut se trouver dépourvue de sa perruque tripartite. Corps animal à tête humaine La forme composite fusionnant un corps animal et une tête humaine n'est pas la plus courante. Cette combinaison s'applique surtout dans les cas où l'humanité aspire à entrer dans le monde divin. L'exemple le plus connu est le sphinx égyptien ; corps de lion et tête humaine. Mais cette représentation renvoie plus vers le pharaon que vers une divinité en tant que telle. L'autre combinaison de ce genre s'applique pour l'âme-Ba, une des composantes de l'être selon les Anciens Égyptiens. Nous nous trouvons ici avec un corps d'oiseau avec une tête humaine. Certaines représentations montrent le Ba avec deux bras humains dans le geste d'adoration. Corps paniconique Les divinités égyptiennes sont rarement figurées comme des êtres monstrueux. Les combinaisons de différents animaux entre eux ou les combinaisons qui mêlent le corps humain avec plusieurs animaux sont réservées à un cadre très limité de divinités liées au concept de la marginalité (limite civilisation / monde désertique ; naissance / mort). La figuration paniconique (ou panthée, ou syncrétique) est une addition de formes et de symboles, chaque partie étant vue comme une des nombreuses facettes du monde divin. La plus célèbre divinité paniconique est l'animal de Seth, qui combine plusieurs animaux évoluant dans le désert. Dans le tribunal d'Osiris, sous la balance de la pesée des cœurs est représenté une autre figure paniconique, Ammout la dévoreuse des impies, dont le corps est une hybridation de crocodile, de lion (ou léopard) et d'hippopotame. Les ivoires magiques sont des objets plus particulièrement utilisés durant les Moyen et Nouvel Empires. Leur fonction est apotropaïque et tous visaient à éloigner le mauvais sort des femmes en couches. Fabriqués à partir de canines d'hippopotames, les ivoires se présentent comme des croissants d'à peu près cinquante centimètres de long sur cinq de large. De nombreuses divinités protectrices sont figurées incisées sur les deux tranches ; griffons à corps de lion et tête de faucon, Aha sous la forme de Bès, divinité léonines empoignant des serpents, hippopotames gravides, léopard à cou de serpent, cobras ailés à têtes humaines, etc. Durant la Basse époque et l'occupation romaine, dans le cadre des pratiques magiques, ces figurations se sont multipliées et complexifiées. Les dieux comme Bès ou Tithoès peuvent être vus comme le summum de cette hybridation ; addition d'ailes, de serpents sur les articulations (genoux, coudes, etc.), addition de couronnes. Attributs Vêtements et nudité Mis à part les dieux momiformes comme Min, Ptah, Khonsou, Sokar, Osiris et les quatre fils d'Horus, les divinités portent uniformément le même costume ; les vêtements ne permettent donc pas de distinguer un dieu d'un autre. Cependant la différence sexuelle est bien marquée, les illustrations ne mêlant pas les apparences masculine et féminine. L'exception la plus notable à cette règle concerne la déesse Mout ithyphallique des vignettes du chapitre 164 du Livre des Morts. Le vêtement des divinités masculines est resté le même tout le long de l'histoire de l'Égypte antique. Sa forme fut fixée sous la et il consiste en un pagne court. Le torse peut être nu ou recouvert d'une tunique à bretelles. Les divinités féminines portent une longue robe maintenue par des bretelles, très cintrée, les seins nus. Les divinités adoptent toujours l'attitude de la marche, une jambe en avant, mais ne portent pas de sandales. La nudité complète ne s'applique qu'aux divinités enfants comme Harpocrate (Horus enfant) ou Néfertoum (jeune soleil). La nudité s'applique aussi à la déesse Nout mais seulement quand elle est figurée comme la voûte céleste. Couronnes Tout comme le vêtement, la couronne n'est pas vraiment un signe distinctif ; aucune couronne n'étant réservée à un dieu en particulier. Les éléments de ces régalia rappellent la nature de ceux qui les portent ; hautes plumes, disque solaire, cornes de bovin ou d'ovin. À partir du Nouvel Empire, les couronnes se complexifient, se mêlent et fusionnent entre elles. Les couronnes des dieux principaux restent cependant stables : le bonnet de Ptah, l'atef d'Osiris ou les plumes d'Amon. Panthéon Dieux locaux L'Égypte antique a été subdivisée en une quarantaine de nomes, communément appelés districts. Au cours de l'histoire, leur nombre et leurs frontières ont varié. Sous les Ptolémées, en accord avec d'antiques traditions, on considère le royaume comme un Double-Pays divisé en quarante-deux nomes ; vingt-deux pour la Haute-Égypte et vingt pour la Basse-Égypte. Le pouvoir pharaonique a plus ou moins bien contrôlé ces districts au cours de l'histoire. Les élites régionales ou nomarques ont été soit de loyaux fonctionnaires royaux soit des potentats plus ou moins autonomes. Les nomes ont été la base d'une cartographie sacrée ; le découpage du Double-Pays résultant de la volonté du Dieu créateur. Chaque nome a disposé de son emblème constitué par un pavois sur lequel était juché la représentation d'un fétiche, manifestation visible de la divinité locale. Les multiples croyances issues des temps préhistoriques furent continuellement réinterprétées et réorganisées au sein des temples des grandes métropoles, chaque nome disposant d'une grande divinité locale : Khnoum à Éléphantine, Amon à Thèbes par exemple. Les spéculations théologiques ont aussi abouti à ce que chaque dieu local dispose d'une divinité parèdre, d'une relique osirienne, d'un ou de plusieurs arbres sacrés, mais aussi de lieux et de fêtes sacrés. Les fétiches sur les pavois emblématiques peuvent être considérés comme les plus anciennes divinités des nomes, les témoins des plus anciens cultes. Le plus grand nombre de ces dieux-fétiches a lentement disparu des traditions religieuses, leur souvenir s'effaçant peu à peu. À Dendérah, le crocodile Iq s'est effacé devant Hathor, à Héracléopolis l'arbre Nâret cède devant Hérishef, à Athribis le taureau noir Kemour s'associe à Khentykhety, à Edfou le faucon des origines a été réinterprété comme étant le dieu Horus. Ce n'est qu'à partir de la Basse époque que les mythes, panthéons et interdits locaux furent systématisés. On dispose ainsi pour le de Haute-Égypte d'une monographie religieuse centrée autour du dieu Anubis. Ce texte rédigé à l'époque ptolémaïque est actuellement conservé par le Musée du Louvre et connu sous le nom de « Papyrus Jumilhac ». Mais on ne peut pas limiter l'histoire de la religion locale égyptienne à une simple addition de zones géographiques, chacune ayant eu sa propre histoire. Dans les premiers temps, cette classification locale n'a pas joué un grand rôle. Quand certains cultes locaux apparaissent, leurs divinités ne sont pas provinciales mais déjà nationales. Dès son apparition, Osiris est très largement diffusé et on ne peut réduire ses origines à une simple divinité locale adorée par une poignée de nomades à Busiris dans le delta du Nil. Il en va de même pour des divinités comme Rê, Ptah ou Khnoum. Durant l'Ancien Empire, la topographie locale ne tient pas un grand rôle. Les dieux ne semblent pas liés à un point donné du territoire. Le clergé des dieux locaux ne se constitue que vers la fin de la . Les grands temples locaux ne font leur apparition que sous les Moyen et Nouvel Empires. Triades Le couple divin avec sa dualité sexuelle est la configuration divine la plus répandue ; Osiris et Isis étant perçu comme le couple par excellence. Les Textes des pyramides mettent déjà en scène le martyre d'Osiris et les lamentations d'Isis sa sœur-épouse. Dès cette époque, leur fils, le dieu Horus combat Seth pour venger l'assassinat de son père. À partir du Nouvel Empire, il se produit dans toute l'Égypte un effort de systématisation des relations divines. La base de cette réflexion est la triade formée par Osiris et Isis, père et mère d'Horus le dieu enfant. Chaque théologie locale réunit trois divinités complémentaires entre elles. La triade résume symboliquement le cycle du renouvellement des forces vitales à l'œuvre dans l'univers. Le plus souvent le dieu-enfant est la forme jeune du dieu-père. À Memphis, les divinités Ptah et Sekhmet ont d'abord été vénérées séparément. Mais la deuxième devient la parèdre du premier, et Néfertoum leur est adjoint comme dieu-enfant. À Thèbes, sous la , le dieu Amon est rapproché de la déesse Mout et le dieu Khonsou devient leur rejeton. Le plus souvent, l'enfant de la triade est un dieu masculin mais il est possible de rencontrer des triades avec un rejeton féminin comme à Éléphantine où le couple Khnoum et Satis ont été considérés comme les parents de la déesse Anoukis. À Esna, le même Khnoum est mis en couple avec la déesse Nebètou (forme favorable de la lionne Menhyt) avec le dieu Heka pour enfant. À Médamoud, Montou le faucon belliqueux a été vu comme le compagnon de Râttaouy la forme féminine de Rê et comme le père de Harparê « Horus le Soleil ». À Edfou, les divinités Horus et Hathor sont les parents de Harsomtous. Ennéades La classification théologique la plus importante est l'Ennéade. Le terme en égyptien ancien est pesedjet forgé sur pesedj désignation du nombre cardinal neuf. L'ennéade est donc la forme intensifiée du pluriel, neuf étant égal à trois fois trois. Ce groupe de dieux, pesedj signifie aussi « escorte lumineuse », apparaît pour la première fois dans la théologie de la ville d'Héliopolis. Dès la fin de l'Ancien Empire, les Textes des pyramides offrent la liste complète des neuf dieux : Le concept de l'Ennéade a probablement remplacé celui de la Corporation divine, khet en Égyptien ancien ; sans doute au moment où les souverains de la ont placé le dieu solaire Atoum-Rê au cœur de leur idéologie religieuse. Auparavant les rois des et s se réclament encore de la Corporation divine dans leurs titulatures, tels les rois Djéser, Sekhemkhet et Mykérinos. Contrairement à la Corporation divine, l'Ennéade d'Héliopolis est plus qu'un simple groupement de divinités indéfinies. L'Ennéade évoque la constitution de l'univers et les premières générations issues du dieu créateur. Atoum est le dieu issu des eaux du Noun, le chaos originel. Grâce à ses enfants Shou et Tefnout, Atoum devient Rê le soleil. De ces deux jumeaux naît la génération suivante, Geb la terre et Nout le ciel dont sont issus Osiris et Isis ainsi que Seth et Nephtys. L'ennéade n'est pas un concept figé. Durant le Nouvel Empire, le dieu Seth en est chassé et remplacé par Horus. Les ennéades qui ont été composées après celle d'Héliopolis n'ont pas nécessairement regroupé neuf divinités. L'ennéade de Thèbes est plus large et compte quinze divinités, tandis que celle d'Abydos est plus restreinte avec ses sept divinités membres. L'Ennéade d'Abydos nous est connue par un discours du roi gravé sur une stèle découverte à Abydos : Divinités stellaires Les prêtres égyptiens ont été de fins observateurs des étoiles. Dès les Textes des pyramides, certaines étoiles sont dotées d'un nom et sont personnifiées en divinités anthropomorphes. Deux grandes catégories d'étoiles ont été distinguées. Les étoiles circumpolaires ont été vues comme les « Impérissables » car elles ne quittent jamais la voûte céleste durant toutes les nuits de l'année. Les étoiles non-circumpolaires disparaissent sous l'horizon durant par an. Elles ont été nommées les « Infatigables » car malgré leur fatigue elles finissent par revenir, leur disparition étant assimilée au sommeil de la mort. À partir des étoiles infatigables, les astronomes égyptiens ont établi les , chaque décan commençant par la réapparition d'une étoile dans le ciel nocturne après sa période de disparition. L'année égyptienne a donc été divisée en , soit trois décades par mois (36 × 10 = 360 jours) auxquelles il a fallu ajouter les cinq jours épagomènes considérés comme néfastes. Dans les textes astronomiques, chaque décan porte un nom. Le roi a fait représenter le ciel nocturne sur le plafond de sa tombe (KV17). Chaque décan dispose de sa dénomination et est mis en relation avec un groupe de deux ou trois divinités peintes en jaune sur un fond bleu nuit et avançant d'est en ouest. Sur le plafond de la tombe de Sénènmout (TT353), le nom de plusieurs décans est même accompagné du dessin de la constellation, le décan Héry-ib-ouia est centré sur une barque et le décan Seret sur un mouton. Le cycle décanal débute avec le groupe Qenemet « Obscurité » (aussi dénommé Tep-aqenemet, « Chef de l'obscurité ») qui est annoncé par la réapparition de l'étoile Sirius dénommée Sopet (ou Sepedet) en langue égyptienne, « l'Aiguisée » ou « l'Efficace » en français. Cette étoile est personnifiée sous les traits d'une femme coiffée de plusieurs hautes plumes. Sur les murs du temple de Dendérah, Sirius est considérée comme la souveraine des décans, ailleurs il est dit que toutes les étoiles commencent à la date du premier jour de l'année quand Sirius apparaît. Sur une plaquette attribuée au roi Djer () Sirius est représentée sous la forme d'une vache et mise en relation avec le début de l'année quand la crue du Nil réapparait. La vache du ciel, symbole de l'abondance, est à la fois Hathor, Sopet, Isis, Sekhmet et Ouadjet. Dans les tombes de et Senmout, l'étoile Sirius est clairement mit en relation avec la déesse Isis, son nom étant placé au-dessus de la personnification de l'étoile. La fin du cycle décanal est annoncé par le décan de la constellation d'Orion, Sah en égyptien, manifestation du dieu Osiris régénéré et représenté comme un homme qui court et regardant derrière lui. Les cinq planètes visibles à l'œil nu ont aussi été divinisées. Mercure, souvent assimilé à Seth est Sebeg « Celui qui est à l'avant ». Vénus a plusieurs noms « Divinité du matin » ou « Étoile unique » du fait de sa brillance. Jupiter est considérée comme « l'Étoile du sud », Saturne est « l'Étoile de l'ouest qui traverse le ciel » ou « Horus taureau du ciel ». Mars du fait de sa couleur rouge orangée est « Horus rouge » (à l'époque gréco-romaine) ou « l'Étoile de l'est du ciel » ou « Celle qui navigue à reculons » à cause de son mouvement rétrograde observé tous les deux ans. Humains déifiés Les héros et les demi-dieux tels qu'ils furent imaginés en Grèce antique n'ont pas existé dans la mentalité égyptienne. Dans de rares cas, de simples mortels ont été considérés comme de véritables divinités et un véritable culte s'est développé autour de leur chapelle funéraire. Dans la plupart des cas, la vénération ne dépassa pas le cadre de leur province d'origine. Ces personnages furent de leur vivant soit des gestionnaires hors pair soit de fins lettrés. Parmi ces hommes d'exception, on peut citer plusieurs hauts fonctionnaires de l'Ancien Empire dont deux vizirs. Imhotep, le ministre du roi Djéser () fut l'architecte de la toute première pyramide d'Égypte et le premier égyptien à avoir fait édifier pour son roi des monuments en pierre taillée. Imhotep est aussi le seul humain déifié à avoir connu une très large renommée, à la fois spatiale et temporelle. Des temples lui furent dédiés dans plusieurs villes dont Memphis et Thèbes. À Karnak, un temple lui fut consacré en association avec Ptah considéré comme son géniteur. Le ministre Kagemni a quant à lui occupé sa fonction sous le roi Snéfrou (). Sa renommée fut bien moins importante que celle d'Imhotep. On lui attribua toutefois la rédaction d'une œuvre moralisante ; les Instructions pour Kagemni maintenant en partie perdue. Le nomarque Izi fut en poste dans la ville d'Edfou sous la . Après son décès, un culte se développa autour de sa tombe et resta actif jusqu'à la Deuxième Période intermédiaire. Le nomarque Héqaïb en poste à Éléphantine sous la bénéficia lui aussi de la vénération de fidèles, mais, pour lui aussi, la renommée fut restreinte et ne dépassa pas les frontières de la région d'Assouan avant de s'éteindre sous le Moyen Empire. Amenhotep fils de Hapou fut déifié sous le Nouvel Empire. Architecte du roi , ce dernier lui doit l'édification de son temple funéraire, le Château des millions d'années, dont il ne reste plus aujourd'hui que les deux colosses de Memnon. Après son décès, il devint un intercesseur pour le petit peuple auprès de la grande divinité Amon. Son culte fut toutefois limité à la région thébaine. Il fut aussi considéré comme un dieu guérisseur. À Deir el-Bahari, le temple principal fut transformé en un sanatorium où ses talents magiques et médicaux furent mis en commun avec ceux de son confrère Imhotep. À Deir el-Médineh, les ouvriers chargés de creuser les tombes de la vallée des Rois portèrent leur vénération sur le roi Amenhotep et sur sa mère la reine Ahmès-Néfertary. Considérés comme les patrons de la nécropole, leurs effigies ont été retrouvées dans plusieurs tombes de particuliers. Jusqu'à la fin de l'ère ramesside, la statue de ce roi déifié parcourait la nécropole et rendait des oracles au cours du mois de Phaminoth, c'est-à-dire le mois d'. Divinités populaires En dehors des cultes et des rituels mis en œuvre par l'état pharaonique dans ses temples, la plupart des grandes divinités égyptiennes sont aussi concernées par une approche plus personnelle et individuelle de la piété. Pour tout Égyptien, les divinités sont des recours, des espoirs de solution face aux nombreuses difficultés qui peuvent assaillir un individu au cours de son existence. Durant le Nouvel Empire, les artisans du village de Deir el-Médineh, ont porté leur piété vers de nombreuses divinités : Rê, Horakhty, Amon, Ptah, Thot, Iâh, Sobek, Min, Osiris, Anubis, Isis, Nephtys, Horus, Hathor, Meresgert, Taouret, Rénénoutet, Seth, Montou, Qadesh, Reshep, Anat, le roi et sa mère Ahmès-Néfertary, Satis, Anoukis et bien d'autres encore. Les habitations de ce village se composaient de deux pièces. La première servait d'entrée et disposait d'un autel destiné à un culte domestique avec des représentations de Bès, des ex-voto, des divinités liées à la fécondité mais aussi des bustes d'ancêtres : les akh iker ou « glorifiés excellents ». Dans l'autre pièce, plus spacieuse, des stèles fausse-portes étaient consacrées au roi déifié et à sa mère Ahmès-Néfertary mais figuraient aussi de petits naos en bois pour des divinités comme Ptah, Rénénoutet ou Taouret. Sous la dynastie des Ptolémées, la population de la petite ville d'Athribis vénère (sans compter les grandes divinités) pas moins de soixante-huit divinités de seconde importance. La petite bourgade de Douan-âouy en Moyenne-Égypte compte trente-six cultes différents. Même Amarna la ville du pharaon monolâtre Akhenaton n'a pas échappé à la multitude des divinités adorées en privé dans les cercles familiaux. À travers tout le pays se sont diffusées des statuettes et des amulettes en bois, en terre cuite, en faïence ou en bronze représentant des divinités à caractère prophylactique ou apotropaïque : Bès, Taouret, Hathor, Isis allaitant Horus, Imhotep, Harpocrate, etc. Divinités importées Au fil du temps, le panthéon égyptien s'est enrichi de dieux étrangers, par les conquêtes, le commerce ou le brassage des populations. À l'époque où les frontières n'étaient pas encore définies, ou à l'époque des expéditions intensives vers la Nubie, certaines divinités soudanaises auraient rejoint leurs homologues septentrionales, comme Arensnouphis, Mandoulis et Apédémak. Durant le Moyen Empire et la Deuxième Période intermédiaire, avec l'incursion des Hyksôs, Anat et Qadesh, originaires de la Syro-Palestine, le phénicien Baal, la hourrite Astarté et le cananéen Reshep se sont d'abord implantés dans le delta du Nil, avant que leur culte ne se répande en Égypte durant le Nouvel Empire. À partir du avant notre ère, la venue des Grecs sous la dynastie des Ptolémées a aussi engendré des dieux, mêlant aspects de la religion hellénique aux idées égyptiennes, comme Agathodémon, Sarapis et Kolanthes. Aton De nombreuses divinités égyptiennes peuvent incarner la puissance du soleil. Traditionnellement, ces dieux sont représentés sous la forme humaine ou animale et tous sont dotés du disque solaire. C'est ainsi qu'Horakhti, « l'Horus de l'Horizon » est représenté comme un homme à tête de faucon sur laquelle est posé un disque solaire, aton en langue égyptienne. Durant les premiers temps de son règne (dix-sept ans au total), Amenhotep commence lentement à déroger de la tradition pharaonique. La véritable rupture avec la théologie d'Amon ne survient en effet qu'au cours de la quatrième année. En accédant au trône, le jeune roi ne se démarque pas de ses prédécesseurs. Comme le prouve sa titulature royale, il est considéré comme le fils d'Amon-Rê, celui dont la royauté est puissante dans Karnak. Mais au cours de sa première année de règne, Amenhotep abandonne les chantiers et les constructions en l'honneur d'Amon et se tourne vers un nouveau sanctuaire centré autour de l'immense obélisque unique de . Le choix de ce lieu n'est pas anodin car à Thèbes, la zone orientale dans l'enceinte sacrée d'Amon est très connoté par les aspects solaires du dieu Amon. En convertissant l'obélisque de son ancêtre en Benben (bétyle sacré), Amenhotep se détourne de la masse des dieux du panthéon et porte son attention, d'une manière très exclusive, sur la manifestation visible du soleil, l'Aton un des aspects de la très vieille divinité solaire traditionnelle, Rê-Horakhty. Un des blocs de ce temple rasé sous les successeurs du roi se trouve à Berlin et fait voir qu'Amenhotep n'a pas encore abandonné les anciens codes iconographiques ; Rê-Horakhty figure toujours comme une divinité anthropomorphe et hiéraconcéphale. La nouveauté réside dans le nom de la nouvelle divinité de prédilection. Le théonyme est long, fixe et précis. Cette particularité n'autorise aucune interprétation ou spéculation religieuse, aucune assimilation avec une autre divinité. Amenhotep devient le grand-prêtre de « Rê-Horakhty qui jubile dans l'Horizon en son nom de Shou qui est dans Aton ». Cette divinité se définit donc comme étant Rê, le soleil et l'animateur de l'univers sous la forme de Horakhty, c'est-à-dire, le Lointain dans le ciel ; une divinité dont la manifestation visible est dans le ciel et qui fait voir sa lumière vivifiante (Shou) par le disque solaire (Aton). Le nom dogmatique du dieu Aton va connaitre quelques petites modifications au cours du règne. Le roi va d'abord insister sur l'aspect vivant de sa divinité en faisant précéder le théonyme par l'Ânkh, le signe hiéroglyphique de la vie, une manière de montrer que les autres divinités sont des objets morts, de simples statues cultuelles. Au cours de l'an quatre, Amenhotep pour montrer les liens indéfectibles de la royauté avec le dieu Aton, va faire inscrire le nom dogmatique dans un double cartouche, à savoir un signe hiéroglyphique d'ordinaire réservé à la titulature royale. Aton est un dieu royal et le pharaon est son image vivante sur terre, le seul être humain à comprendre ses desseins. La main mise de la royauté sur la divinité se montre aussi par la mise en place d'une nouvelle iconographie. Aton est désormais un globe solaire vu de face qui donne la vie au couple royal grâce à ses rayons se terminant avec des mains. Ce globe solaire irradie de lumière non pas le monde entier mais seulement le roi Amenhotep devenu au cours de l'an cinq le pharaon Akhenaton, « Celui qui est utile à Aton ». En deux ans, entre l'an quatre et l'an six, un immense sanctuaire à ciel ouvert, le « Domaine de l'Aton dans l'Héliopolis du Sud » est édifié à Thèbes en l'honneur d'Aton ; durant ce temps, Amenhotep change de nom et découvre le site d'Amarna, à mi-chemin entre Thèbes et Memphis. Ce lieu, avec ses palais et ses sanctuaires, deviendra sa capitale sous le nom Akhetaton, « l'Horizon d'Aton ». Une fois installé dans sa ville nouvelle, théologiquement, le roi est considéré comme le pivot de la création. La force vitale du dieu Aton passe nécessairement par le couple royal et de là inonde le monde. Le roi devient la statue cultuelle vivante du dieu solaire, un objet de vénération, le sujet de tous les rituels : Nature Noms propres Divinités principales Pour la plupart des grandes divinités égyptiennes, la signification de leurs noms est très incertaine. Malgré de nombreuses tentatives, il n'y a pas d'étymologie convaincante pour Osiris, Rê, Seth, Ptah ou Min. Pour d'autres divinités, les noms sont une référence à leur principale caractéristique. Sekhmet est « la Puissante », Amon, « le Caché », Noun est « l'inerte », Heh « l'infinité ». Le dieu créateur Atoum est à la fois « celui qui est complet » et « celui qui n'est pas » car avant qu'il ne se mette à créer l'univers il formait une unité indifférenciée. Contrairement à la mythologie grecque, les noms des grandes divinités cosmiques égyptiennes ne correspondent pas aux éléments auxquels elles correspondent. En égyptien ancien, terre se dit ta mais son dieu est Geb, ciel se dit pet mais sa déesse est Nout. La Lune, iâh, a été divinisée sous son nom de Iâh mais les principaux dieux lunaires sont Khonsou et Djéhouty (plus connu sous Thot, son nom en grec ancien). Le cas de aton, le disque solaire, est encore plus particulier. La divinité solaire fut traditionnellement Rê mais durant la , sous le règne du pharaon Akhenaton, le disque solaire fut divinisé sous le nom d'Aton. Divinités secondaires Le nom des divinités locales dérive généralement du nom de leur localité d'origine. La déesse vautour de la ville de Nekheb se dénomme Nekhbet. En tant que protectrice de la Haute-Égypte, elle est souvent mise en relation avec la déesse cobra Ouadjet originaire de la ville de Per-Ouadj et protectrice de la Basse-Égypte. Le nom du de Basse-Égypte est Andjet et son dieu est Andjéty ; une divinité funéraire qui fut très vite assimilée à Osiris. Bien avant l'Ancien Empire, il existe déjà un terme encore plus général pour désigner les divinités locales. Le terme niouty, « Celui de la ville » (nioutyou au pluriel) désigne simplement le dieu de la ville, niout en Égyptien ancien. Parmi les divinités mineures figurent tous ceux que nous pouvons plutôt considérer comme des démons ou des génies. Les Anciens Égyptiens les considéraient comme de petits dieux. Ces puissances ne sont pas des divinités indépendantes mais des divinités subordonnées, des manifestations de la puissance des grands dieux. Toutes ces divinités mineures ont des noms qui évoquent soit un trait de leur apparence soit leur fonction spécifique. Le dieu Osiris, pour se protéger des attaques de Seth, est probablement la divinité majeure qui dispose du plus grand nombre de ces divinités subordonnées. Plusieurs chapitres du Livre des Morts permettent aux défunts de connaître leurs noms : Composantes de la personnalité Ba Un dieu passe du monde invisible au monde visible grâce à son âme-Ba qui est avant tout un élément mobile. Quand un défunt fort de son statut d'ancêtre déifié désire sortir de sa tombe, il utilise son Ba. Cette liberté d'action est figurée dans les vignettes du Livre des Morts comme un oiseau à tête humaine. Quand un prêtre invite une divinité à se manifester sur terre, elle descend du ciel grâce à son Ba. Dans le temple, c'est donc le Ba de la divinité qui habite les statues ou les animaux sacrés. Le Ba est la manifestation, la présence du dieu sur terre. Dans le Livre de la Vache céleste, le dieu créateur énumère quelques manifestations divines : Ka Le Ka est la force vitale individuelle attachée à chaque divinité et à chaque humain. Tout être vivant doit se nourrir pour pouvoir continuer à vivre ; sans nourriture (kaou en égyptien) il dépérit puis meurt. Mais s'il tombe dans les excès, il peut aussi en souffrir. Dans les livres sapientaux, les sages égyptiens conseillent à leurs disciples de ne pas se montrer voraces au sens propre et au sens figuré car ce comportement égoïste est mauvais pour le Ka et déplaît fortement aux divinités. Le Ka est donc aussi le reflet d'un juste sens moral. Les divinités possèdent plusieurs Kaou. Le chapitre 15 du Livre des Morts après avoir attribué sept âmes-Ba au dieu Rê fait connaître ses quatorze Kas : Trilocalisation divine Les statues cultuelles déposées dans les naos des temples ou même les animaux sacrés (Apis par exemple) ne sont que la résidence terrestre des puissances divines. La forme véritable du dieu évolue dans le ciel. Son âme-Ba peut descendre sur terre et rejoindre ses images façonnées. Cependant, le véritable corps du dieu n'est pas sa statue terrestre. Le corps du dieu réside dans le monde souterrain de la Douât. La véritable identité du dieu reste mystérieuse. Personne ne connaît ni sa véritable nature, ni sa véritable identité ; ni les autres dieux, ni les prêtres de son culte. Cette conception d'une divinité inconnaissable et située sur les trois plans de la création (ciel, terre et Douât) a été élaborée par les prêtres du dieu Amon, démiurge de la ville de Thèbes en Haute-Égypte : Fonctions Création de l'univers Les mythes cosmiques sont à l'image de la géographie de l'Égypte antique. Les Nilotiques, par l'observation de leur environnement naturel, en premier lieu de la crue du Nil (personnifiée par Hâpy), ont conçu l'acte créateur comme l'établissement d'une dynamique cyclique. Le cycle doit se répéter infiniment afin de maintenir l'existence du monde. L'état d'avant la création est décrite comme la négation de tout ce qui existe : L'univers repose sur un équilibre de deux forces opposées mais complémentaires. Les dieux et les hommes dans leurs actes quotidiens doivent veiller à ce que le désordre « isefet » ne renverse pas l'harmonie cosmique « Maât ». Cette tension entre ces deux opposés s'incarne mythologiquement dans le conflit qui oppose Seth, l'élément perturbateur, l'agressivité de la puissance, à Horus la divinité qui rassemble en elle toutes les forces utiles au maintien de la vie. L'existence humaine, tant corporelle que spirituelle est basée sur les quatre premières actions du Dieu créateur : Les principaux récits mythologiques sont apparus dans les trois plus importants centres religieux de l'Égypte naissante : Héliopolis, Hermopolis et Memphis. Aussi différentes qu'elles puissent paraître, les cosmogonies égyptiennes ont un principe commun : l'énergie du Noun précède et alimente l'Univers symbolisé par la Barque de Rê. Mais ce dernier doit se régénérer régulièrement, faute de quoi, il sombre dans le chaos et le néant ; c'est la tâche du culte divin. La manifestation de cette énergie est le démiurge (que ce soit Atoum, Neith, Sobek ou Taténen) qui s'est créé lui-même, qui a pris forme sur le tertre issu de l'océan primordial, le Noun, puis mis en marche la machine cosmique, avant d'engendrer les éléments qui allaient compléter et entretenir la création. Mais l'univers n'a pas été créé définitivement : au contraire, il est soumis aux contraintes du temps et des cycles, il peut disparaître et se renouveler. Seul le cycle lui-même, la dynamique de la création, l'énergie mise en œuvre (incarnée par le phénix Bénou) sont éternels. Même les dieux sont susceptibles de succomber. Pour les anciens Égyptiens, les dieux habitaient aussi sur terre dans leurs temples. Mais il fallait les honorer pour qu'ils continuent, non seulement à y résider, mais également pour les maintenir en vie. Pour cela, les prêtres priaient, dansaient, chantaient et leur apportaient des offrandes de nourriture et d'objets précieux. Temple Microcosme Le dieu créateur Atoum-Rê après avoir créé et régné sur le monde s'est retiré dans le ciel après une révolte humaine. Il est cependant représenté sur terre par le pharaon considéré comme son successeur. Après avoir bénéficié des rites du couronnement, l'individu qui assume la charge royale est vu comme une personne sacrée assimilée à Horus, fils d'Isis et d'Osiris mais aussi fils de Rê ou d'Amon-Rê. Le rôle du pharaon est avant tout d'assurer un lien entre le peuple d'Égypte resté sur terre et le peuple divin réfugié dans le ciel. Les rites et les cultes célébrés dans les temples rappellent et se réfèrent sans cesse au « Temps de la Première fois », c'est-à-dire le moment de la Création et l'époque où les divinités et les humains ne formaient qu'un seul peuple. Le temple est considéré comme l'endroit où le dieu créateur s'est posé pour la première fois après s'être extirpé des eaux du Noun. L'Égypte ayant connu plusieurs mythes de la « Première fois », ce lieu d'émergence a été vu de plusieurs manières mais toujours inspirés par le contexte géographique du pays ; une île émergeant des eaux du Nil (Héliopolis), un amas de papyrus flottant sur le fleuve (temple d'Edfou), une fleur de lotus s'ouvrant au petit matin (Hermopolis). Du fait de la révolte humaine contre Rê, le temple égyptien ne peut pas être vu comme un lieu de rassemblement populaire. Le peuple égyptien est vu comme les descendants des insurgés rescapés de la répression divine, ceux qui ont échappé aux griffes de la terrible lionne Sekhmet envoyée par Rê pour mater la révolte. Le temple et le pharaon, grâce aux rites qui miment les événements mythiques, s'inscrivent dans des temps et des lieux d'avant la révolte. Le temple est un retour aux origines et une image du cosmos tel qu'il fut imaginé par le dieu créateur. L'architecture sacrée fait du temple un microcosme. La muraille qui l'entoure est la manifestation du combat entre les armées du dieu créateur contre celles d'Apophis (le serpent maléfique), les eaux du lac sacré situé à l'intérieur du téménos rappellent le Noun, les deux môles du pylône d'entrée sont les montagnes de l'Orient et de l'Occident (les lieux d'apparition et de disparition du soleil), les colonnes papyformes évoquent le marais primordial, le défilé des génies des nômes évoque l'abondance issue des champs fertilisés par la crue du Nil, le plafond est un ciel où prennent place les représentations des étoiles et de Nout la voûte céleste, etc. Statues cultuelles Il ne faut pas imaginer que les Anciens Égyptiens se figuraient leurs divinités comme étant réellement des animaux ou des êtres surhumains à tête d'animaux. La diversité des représentations indique que l'iconographie divine n'est qu'une manière de décrire la nature véritable des dieux. Les statues à l'intérieur des temples, mais aussi toutes les autres représentations picturales (fresques, bas-relief) ne sont que des réceptacles ; des symboles destinés à accueillir la véritable manifestation de la divinité. Les divinités sont des puissances invisibles, dispersées dans tout l'univers créé. Le seul moyen d'entrer en contact avec elles est leurs représentations cultuelles. Ces idoles façonnées par les hommes n'ont pas été vues comme une invention humaine mais comme un don du Dieu créateur. Les statues divines ont été créées en même temps que les dieux et les hommes par le dieu Ptah, le démiurge de la ville de Memphis : Sur les scènes pariétales du temple le pharaon est le seul interlocuteur et le seul médiateur avec les divinités domiciliées dans le temple. Mais, ne pouvant se rendre dans tous les lieux de culte, il délègue à des prêtres l'accès aux statues cultuelles. Chaque matin, la divinité endormie dans le naos est réveillée par des hymnes. Après cela, elle est lavée puis habillée de vêtements tissée avec le lin le plus fin. Elle est ensuite nourrie par la présentation de nombreuses offrandes alimentaires. Au terme du repas, le prêtre présente à la divinité de l'encens et la Maât sous la forme d'une petite statuette. D'ailleurs dans quelques petits temples, on s'est contenté, faute de place, de ne représenter que ce moment du rituel. Rites cultuels Les temples égyptiens à travers leurs différentes scènes pariétales offrent près de de rituels exécutés en l'honneur des divinités. Sans tous les citer on peut rapporter une demi-douzaine de gestes d'offrandes de boissons (eau, bière, vin ou lait), une quarantaine de gestes d'offrandes de nourriture (pains, gâteaux, viandes rôties, légumes, papyrus, céréales, fruits, miel), une cinquantaine de gestes d'offrandes diverses (onguents, étoffes, pierreries, couronnes, colliers, pectoraux, amulettes), mais aussi trente différents rites en rapport avec la royauté et soixante-dix rites en rapport avec la régénération divine, le cosmos et la défense apotropaïque de l'univers. Les murs du temple d'Horus à Edfou sont ainsi couverts par plus de de ce genre. Le choix et la répartition des offrandes et des rites dépend du Dieu honoré dans le temple. À Edfou, le culte est orienté vers la royauté d'Horus, à Dendérah vers la féminité d'Hathor et à Philæ vers le retour de la crue du Nil. Les offrandes sont en effet liées aux spécificités des divinités. Geb le dieu de la terre reçoit surtout des bouquet de fleurs, les dieux de la première cataracte comme Khnoum, Anoukis, Isis et Osiris reçoivent des libations d'eau, tandis que les dieux-enfants reçoivent du lait. Le pharaon en échange espère en retour une bonne crue du Nil, la fertilité des champs, la perpétuation de cosmos, etc. Le souverain n'hésite pas à s'adresser à toute une série de divinités mineures mais jugées très efficaces dans leurs spécialités. La déesse-vache Hésat donne le lait, le dieu céréalier Nepri le bon pain, le dieu du pressoir Chesmou les huiles et le vin, la déesse Menqèt la bière, Taït les étoffes, etc. Généralement le pharaon ne s'adresse qu'à une seule divinité mais ces dernières peuvent aussi se présenter en couple ou en groupe. Les scènes gravées sur les murs des temples ne représentent pas forcément la réalité du culte. La représentation des offrandes constitue une sorte d'hommage perpétuel aux divinités et l'on espère d'elles en retour une abondance de biens. Offrande de la Maât La Maât est la perfection vers laquelle les humains doivent tendre. Dans les temples, de nombreuses représentations montrent le pharaon, c'est-à-dire le représentant de l'humanité, en train d'offrir la Maât aux dieux. Des affirmations théologiques comparent la Maât aux nourritures terrestres, pains, bières, victuailles ou à l'encens. La Maât est une substance spirituelle qui depuis les origines du monde fait vivre les divinités : Le cycle du don et du contre-don de la Maât ; ses allers-retours entre le monde divin et le monde humain est résumé dans un texte inscrit dans la tombe thébaine TT49 : La Maât est l'élément qui permet la cohésion de l'univers. Selon la volonté de Rê, la Maât demeure parmi les hommes, dans leurs cœurs. Mais pour qu'elle reste auprès d'eux, il faut qu'ils parlent et agissent selon ses normes. Dès les Textes des pyramides, le roi parle et agit en fonction de la Maât ; toutes ses paroles sont la Maât. L'affaiblissement de la monarchie et les désordres socio-politiques de la Première Période intermédiaire ont été vus comme un temps où la Maât a été chassé. Un temps où le désordre isefet fut la norme des comportements humains. La Maât est ce qui permet la cohésion de la société égyptienne et l'ingrédient essentiel de l'harmonie cosmique ; le monde divin et le monde terrestre formant un tout insécable. La Maât est une notion globale. Elle est les bonnes récoltes, les bonnes paroles, les bons gestes et comportements, la bonne administration, les bonnes prières et les bons rituels cultuels. Tous les êtres de la création ; les divinités, le pharaon, les hommes y sont soumis. La Maât est à la base de l'économie agricole, de la gestion des ressources, de la justice et des cultes. Toutes ces notions se rejoignent dans le corps symbolique du pharaon. Le roi vit de la Maât, il l'offre aux puissances du ciel et vers le peuple terrestre d'Égypte. Envoûtement En Égypte antique, l'envoûtement est une pratique institutionnelle dirigée contre les ennemis politiques de l'institution pharaonique et contre les ennemis mythologiques du dieu solaire ; les premiers étant assimilés aux seconds. L'envoûtement est une pratique fondée sur les lois de la magie sympathique où le semblable agit sur le semblable. La représentation d'une chose agit sur la chose représentée. Façonner la statuette d'un ennemi puis lui donner son nom, c'est agir sur lui. Le but est de s'emparer de sa volonté pour l'obliger ou l'empêcher de faire certains actes. Les fouilles archéologiques ont révélé de nombreuses figurines datées de la ensevelies dans les nécropoles situées autour de la pyramide de Khéops. À cette époque, les ennemis visés sont surtout les Nubiens. Le site de la forteresse de Mirgissa (dans l'actuel Soudan à la hauteur de la deuxième cataracte) a quant à lui révélés quatre statuettes en albâtre et des centaines de vases d'envoûtement brisés datés de la . Le matériel d'envoûtement (vases ou figurines en cire) sont généralement associés à la couleur rouge considérée comme maléfique puis brisés à la fin du processus opératoire. Dès l'Ancien Empire, les Textes des pyramides évoquent le rituel de « briser les vases rouges ». Au Nouvel Empire, dans les textes magico-religieux, la couleur rouge est très souvent associée au serpent Apophis puis dans les rituels de la Basse époque au dieu Seth. Dans l'écriture, le serpent et l'animal séthien sont souvent transpercés de couteaux pour annihiler leurs aspects néfastes. Les rituels d'envoûtement étaient pratiqués au sein des temples au profit du pharaon et pour le bien de tous. Cette magie est perçue comme un moyen de maintenir la Maât (l'ordre cosmique) : Les formules du Livre de renverser Apophis conservées par des exemplaires tardifs montrent que la pratique de l'envoûtement accompagne les autres gestes cultuels (offrandes, libations). Plusieurs fois par jour, les prêtres malmenaient le serpent Apophis par le biais d'une petite figurine en cire rouge ou d'une image dessinée sur une feuille de papyrus. La représentation était ensuite brutalisée ; crachat, piétinement, harponnement puis destruction par le feu: Communication Cauchemars Avant le Nouvel Empire, la pratique de l'oniromancie (l'interprétation des rêves) n'existe pas car les Égyptiens ne font pas le lien entre rêve et révélation divine. Durant les Ancien et Moyen Empires, il n'y a que les mauvais rêves, les cauchemars qui sont pris en compte. Le sommeil est un monde hostile, un lieu de rencontre avec les morts dangereux et les puissances maléfiques. Tous les moyens sont bons pour apaiser leur colère : offrandes, prières, talismans, formules magiques. Le sommeil n'est pas un concept qui a été divinisé, contrairement à l'Hypnos des Grecs anciens. La dangerosité du sommeil s'exprime à travers la divinité maléfique Seqed « Celui qui fait avoir la tête en bas » c'est-à-dire celui qui fait s'endormir pour toujours, une expression qui signifie l'annihilation éternelle, la mort définitive. Les Égyptiens ont rapproché le sommeil et la mort, cette dernière permettant de se réveiller dans le monde des dieux dans l'Occident des Bienheureux. Les euphémismes de la mort sont « fatigue », « lassitude », « être couché » ; Osiris le dieu assassiné est « Celui dont le cœur est las ». Les rêves sont donc avant tout liés au monde des morts. Dès l'Ancien Empire, les vivants envoûtés par des défunts vindicatifs déposent des Lettres aux Morts dans les tombeaux de leurs proches eux aussi décédés. Ces petits messages sont des demandes qui exhortent les ancêtres à être plus efficaces dans leurs actions protectrices : Même le fœtus (l'œuf en égyptien) peut être touché par les démons vu en rêve par la mère enceinte. Pour contrer ce danger, les guérisseurs égyptiens pouvaient élaborer des suppositoires magiques élaboré à partir de plumes de pigeons et de poils d'ânon enveloppés dans une bandelette enduite de foie de porc. Les paroles magiques évoquées durant l'élaboration du remède assimilent le fœtus au dieu-enfant Ihy protégé contre toutes les mauvaises divinités par les puissances résidant à Héliopolis. Songes royaux À partir du Nouvel Empire, les rêves deviennent un moyen de prémonition. Le songe reste comme une chose naturelle et non provoquée. Limpide, la vision ne nécessite généralement pas une interprétation par un devin spécialisé en oniromancie. La divinité se montre au roi dans un songe et lui promet soit la victoire sur des ennemis soit lui demande une action pieuse comme la construction d'un temple. Le premier pharaon à évoquer un songe est dans un texte retrouvé sur deux stèles, l'une à Karnak l'autre à Memphis. Durant l'an , au cours d'une campagne militaire au Proche-Orient, le roi s'endort durant un moment de repos : Le plus célèbre songe pharaonique est sans doute celui que a commémoré par la mise en place d'une stèle entre les pattes du sphinx de Gizeh. Il y évoque un prodige qui lui était arrivé alors qu’il était adolescent. Après une chevauchée dans la région de Memphis, il s'était assoupi à l’ombre du Dieu. Pendant son sommeil, Rê-Harmakhis, le Sphinx lui-même, lui apparut et lui demanda d'ôter le sable qui l'ensevelissait petit à petit : Jusqu'à la fin de l'Égypte antique, les pharaons ont fait connaître leurs songes. Mérenptah voit le dieu Ptah lui annoncer la victoire sur les Libyens, Tanoutamon se fait interpréter la vision de deux serpents annoncés comme la reconquête de tout le pays, rêve d'une statue, annonciatrice de la mise en place du culte de Sarapis. Oracles Au cours de nombreuses fêtes processionnelles, la statue du dieu sortait de son temple abritée dans un naos monté sur une barque sacrée. Le tout était fixé sur un brancard et porté sur les épaules par une vingtaine des prêtres ; trois à quatre rangées de six individus au temps de . Lors de ses sorties, la statue d'Amon se déplaçait ainsi de Karnak à Louxor ou de Karnak vers des chapelles de la nécropole. Du Nouvel Empire à la période romaine ces sorties furent l'occasion de pratiques oraculaires. Cet usage existait probablement déjà aux époques antérieures mais les preuves font actuellement encore défaut. Le dieu rendait sa justice et ses oracles par l'interprétation des mouvements de la barque sacrée suivant qu'elle faisait un mouvement de recul ou d'avancée. La question du requérant était nécessairement brève car la réponse divine était soit positive soit négative. Les oracles furent mis en pratique pour résoudre bon nombre de problèmes de la vie quotidienne ; dois-je me marier, partir en voyage, suis-je un voleur, vais-je guérir, etc. Plusieurs pharaons du Nouvel Empire ont eu recours aux services de l'oracle d'Amon ; c'est ainsi qu'Hatchepsout puis ont été confirmés dans leurs fonctions royales. n'a châtié une révolte en Nubie qu'après un passage devant le dieu et le général Horemheb n'a pu justifier son accession au trône qu'avec un passage devant l'oracle : Invocations Les époques ptolémaïque et romaine nous ont laissé plusieurs papyrus magiques rédigés en langue démotique et grecque, mais aussi en langue copte pour les plus récents. Ces documents livrent des pratiques magiques qui mêlent à la vieille magie pharaonique des usages empruntés à la Grèce et à la Perse. Ces compilations contiennent des recettes de plus en plus compliquées. Pour arriver à ses fins, le praticien est obligé d'invoquer les divinités égyptiennes mais aussi celles de Babylonie, de Grèce voire les prophètes et les anges issus de la tradition hébraïque comme Moïse, Gabriel ou Jésus (magie copte). Cette magie utilise aussi bon nombre d'onomatopées dépourvues de sens, sans doute des mots déformés issus des langues du Proche-Orient. Les recettes livrent néanmoins des allusions aux mythes égyptiens surtout ceux liés à Osiris, Isis, Horus. À travers ces textes, la magie apparaît comme un rituel complexe s'étalant parfois sur plusieurs jours car une purification corporelle est le plus souvent nécessaire. L'invocation permet au magicien de voir directement les divinités mais il peut aussi s'adjoindre d'un médium, généralement un jeune garçon. Une fois que le dieu ou le défunt invoqué apparaît au magicien, ce dernier peut lui demander de nombreuses choses ; un présage, un succès professionnel, une guérison miraculeuse, une rencontre amoureuse, etc. Les divinités peuvent apparaître de plusieurs manières ; tout dépend du rituel choisi. Le médium peut la voir corporellement ou plus modestement l'apercevoir dans la flamme d'une lampe à huile ou dans l'eau d'un bol. L'invocation par la flamme (ou lychnomancie) est sûrement une pratique qui fut très populaire car elle nous a été transmise par les Contes des mille et une nuits lorsque Aladin fait apparaître un génie en frottant une lampe à huile. Le dieu Anubis joue un grand rôle dans le cérémonial. Cette divinité funéraire sert de lien entre le monde des vivants et le monde surnaturel. Par son entremise, les divinités ou les défunts apparaissent aux yeux du médium : Pratiques magiques La magie est une pratique active qui vise à prendre en main son destin en faisant pression sur les divinités. En Égypte antique, le magicien est un prêtre attaché à un temple. C'est un lettré et un connaisseur des savoirs traditionnels conservés dans les archives des temples. Il dispose de nombreuses formules et de recettes pour détourner le mauvais œil et toute la cohorte de défunts hostiles qui sans répits harcèlent les vivants. Ce savoir institutionnel profite à tous. Tout individu en danger ou malade peut s'adresser au personnel du temple pour obtenir un secours, magie et médecine étant intimement imbriquées l'une dans l'autre. Les prêtres de Sekhmet et de Serket ont été considérés comme les plus grands guérisseurs des piqûres et morsures d'animaux venimeux. Dans les Textes des pyramides les serpents sont vus comme des êtres néfastes. Le pharaon Ounas est protégé contre leur venin par plusieurs formules magiques (chapitres 276 à 299) gravées sur les murs de l'antichambre de son caveau funéraire. Le reptile dangereux est vu comme un complice du plus néfaste ennemi des dieux à savoir le serpent Apophis. Du fait de la dangerosité de cet être mythique son nom est préventivement éludé : Au Moyen Empire, le mauvais œil est identifié à la puissance d'Apophis. Par son simple regard, le serpent maléfique est capable d'immobiliser la barque solaire au moment de son coucher. Tout l'équipage du navire est dans le trouble. Seul le dieu Seth est capable de se mesurer au monstre : Le serpent Apophis n'est pas le seul être vivant à lancer le mauvais œil. Tous les êtres vivants ont ce pouvoir de malfaisance. Tous les serpents bien sûr, mais aussi les morts en colère ou les voisins terrestres. De nombreuses formules magiques énumèrent les ennemis potentiels d'une manière générale : esprit (Akh) mâle, esprit femelle, mort, morte, adversaire mâle, adversaire femelle, dans le ciel et dans la terre. On craint aussi le regard malveillant des divinités si l'on a commis une faute envers elles, l'Oudjat c'est-à-dire l'« Œil d'Horus » est particulièrement redouté. Pour repousser le mauvais œil, le dieu Thot est plus particulièrement efficace. Dans les récits mythiques ses pouvoirs de guérisons se sont montrés très efficaces envers le jeune Horus. La lionne Sekhmet qui représente l'aspect destructeur de Rê le soleil est capable de propager les pire maladie. Mais, apaisée par de bonnes paroles, elle est aussi capable de les apaiser : Bibliographie Généralités Histoire Écriture hiéroglyphique Traductions Religion Notes et références Voir aussi Articles connexes Liste de divinités égyptiennes par ordre alphabétique Relations entre dieux égyptiens Liste de divinités égyptiennes par ville Liste de divinités égyptiennes par animal Liste de divinités égyptiennes par symbole Noms hiéroglyphiques des dieux égyptiens Thérianthropie Religion de l'Égypte antique Mythologie égyptienne Clergé de l'Égypte antique Liens externes Dictionnaire hiéroglyphique virtuel du Projet Rosette. Les dieux de l'Égypte antique (non mis à jour depuis 2001) Thotweb Égypte antique de Geb et Nout (dernière mise à jour juin 2013) Index égyptologique
866
https://fr.wikipedia.org/wiki/Dejima
Dejima
est une ancienne île artificielle située dans la baie de Nagasaki au Japon et englobée depuis par la ville elle-même. C'était le lieu où les Portugais (entre 1634 et 1641), puis les Néerlandais (de 1641 à 1853) commerçaient avec les Japonais. Dejima qui signifie « île extérieure», est parfois aussi écrit Deshima (shima signifie « île » en japonais et se modifie phonétiquement en -jima). Pendant cette période, les étrangers autres que les Néerlandais de la Compagnie néerlandaise des Indes orientales ( ou VOC) n'avaient pas le droit de commercer avec l'archipel nippon. Ces derniers n'avaient pas le droit de quitter l'île artificielle sur laquelle ils étaient installés. Historique Construite dès 1634 sous les ordres du shogun Iemitsu Tokugawa, afin de permettre aux Portugais d'y accoster pour décharger leurs navires, Dejima était auparavant isolée des terres sous la politique sakoku et a été peu à peu entourée de terrains gagnés sur la mer. Elle n’atteindra néanmoins qu'une taille de sur 75 et sera finalement reliée à la terre ferme par un pont, dont le franchissement était lui-même surveillé tant du côté japonais que du côté néerlandais (ces derniers ayant également installé une porte qui fermait l'accès de l’île). Chassés du Japon quelques années plus tard par la rébellion de Shimabara, les Portugais sont remplacés à Dejima par les Néerlandais jusqu'ici cantonné sur l'île d'Hirado, à environ au nord-ouest de Nagasaki. Après une chute significative du commerce au cours du (deux navires par an sont autorisés à accoster à Dejima), la VOC fait finalement faillite en 1799 et ses actifs sont cédés au gouvernement néerlandais. Durant la Révolution française et les guerres napoléoniennes, lorsque les Pays-Bas furent occupés, puis annexés par les Français, Dejima rompit ses liens avec la métropole. Ainsi, l'île restera le seul endroit au monde où le drapeau néerlandais continuera de flotter durant cette période sous l’ordre de Hendrik Doeff. À la suite de l'ouverture forcée par le comodore Perry en 1854, le Bakufu (le gouvernement des shoguns) y installe en 1855 le Centre d'entraînement naval de Nagasaki destiné à permettre aux Japonais d'assimiler les techniques navales occidentales. Le centre sera d'ailleurs équipé du premier navire à vapeur japonais, le Kankō Maru (offert par les Néerlandais). L'un des premiers amiraux nippons, Takeaki Enomoto, étudia dans ce centre de formation. Après avoir obtenu des autorités nippones l’autorisation de faire du commerce dans la ville même de Nagasaki, les Néerlandais fermeront le poste de Dejima en 1857. L’île sera peu à peu englobée dans la ville de Nagasaki, par la récupération de terrains supplémentaires gagnés sur la mer. Au nord, elle est désormais baignée par la rivière . Organisation Dejima était essentiellement constituée d’entrepôts et de maisons d'habitation pour les Néerlandais, mais aussi de logements de fonction pour les fonctionnaires nippons. Les marchands occidentaux étaient étroitement surveillés par des gardiens et autres veilleurs de nuit placés sous la responsabilité d'un superviseur, l'Otona. Un certain nombre de commerçants assistés de 150 Tsuji (interprètes) y résidaient et étaient tous rémunérés par la VOC. Le représentant officiel de la compagnie s'appelait Opperhoofd ou Kapitan. Cependant, le titre ne changea pas lorsque l'île tomba sous l'autorité de l'État néerlandais. Tout au long de cette période, le titulaire devait changer tous les ans, mais cela ne fut pas toujours le cas. Dejima était directement placée sous la supervision centrale d’Edo, représenté par un préfet appelé Nagasaki bugyō, qui était responsable de tous les contacts entre la VOC et toute personne se trouvant dans l'archipel japonais. Celui-ci inspectait également tout navire néerlandais qui arrivait à Dejima, et donc les voiles étaient saisies jusqu'à ce que le bâtiment ait décidé de partir. Les livres religieux (comme la Bible) et les armes étaient scellés et confisqués. De plus, aucun service religieux n’était toléré à Dejima. Activités commerciales Les Néerlandais commercialiseront principalement de la soie, puis plus tard du sucre (qui deviendra alors la première denrée). Des peaux de cerfs ou de requins seront également amenées du reste de l'Asie par les Occidentaux, qui feront aussi venir d'Europe des lainages et du verre (les Japonais leur fournissant essentiellement du cuivre et de l'argent. Ce commerce sera d'ailleurs très profitable pour la VOC qui réalisera de confortables profits à hauteur de 50 %, voire plus. Ainsi, la charge financière que Dejima représentait pour la compagnie se trouvait largement amortie. À cela s'ajoute à un système d'échanges commerciaux individuels organisé par le personnel de Dejima et les négociants néerlandais nommé Kanbang. Celui-ci était autorisé par le gouvernement japonais afin d'obtenir des livres et des instruments scientifiques, constituant ainsi une importante source de revenus pour les salariés. Plus de 10 000 ouvrages étrangers traitant de diverses questions scientifiques ont été vendus de cette manière, et deviendront pour les Japonais de la fin du et du début du , une source pour les « Études hollandaises », le rangaku. Reconstruction C'est en 1922 que l'on prit conscience de l'importance historique du lieu. Le travail de restauration de l'île débuta en 1953. Il existe actuellement un projet de restauration très avancé, qui comprend aussi bien la reconstruction des bâtiments que la reconstitution de l'île elle-même. À ce jour, le contour initial de l'île a été reconstitué, et les bâtiments ont été restaurés. Dejima est un des sites historiques majeurs de Nagasaki. Notes et références Voir aussi Bibliographie Blomhoff, J.C. (2000). The Court Journey to the Shogun of Japan: From a Private Account by Jan Cock Blomhoff. Amsterdam Blussé, L. et al., eds. (1995-2001) The Deshima [sic] Dagregisters: Their Original Tables of Content. Leyde. Blussé, L. et al., eds. (2004). The Deshima Diaries Marginalia 1740-1800. Tokyo. Boxer. C.R. (195). Jan Compagnie in Japan, 1600-1850: An Essay on the Cultural Aristic and Scientific Influence Exercised by the Hollanders in Japan from the Seventeenth to the Nineteenth Centuries. La Haye. Caron, F. (1671). A True Description of the Mighty Kingdoms of Japan and Siam. Londres. Doeff, H. (1633). Herinneringen uit Japan. Amsterdam. [Doeff, H. "Recollections of Japan" Leguin, F. (2002). Isaac Titsingh (1745-1812): een passie voor Japan, leven en werk van de grondlegger van de Europese Japanologie. Leyde. Nederland's Patriciaat, Vol. 13 (1923). La Haye. Screech, Timon. (2006). Secret Memoirs of the Shoguns: Isaac Titsingh and Japan, 1779-1822. London: RoutledgeCurzon. Siebold, P.F.v. (1897). Nippon. Wurtzbourg et Leipzig. Titsingh, I. (1820). Mémoires et Anecdotes sur la Dynastie régnante des Djogouns, Souverains du Japon. Paris: Nepveau. Titsingh, I. (1822). Illustrations of Japan; consisting of Private Memoirs and Anecdotes of the reigning dynasty of The Djogouns, or Sovereigns of Japan. Londres, Ackerman. Articles connexes Liste d'Occidentaux au Japon avant 1868 Secteur étranger de Nagasaki Engelbert Kaempfer Carl Peter Thunberg Philipp Franz von Siebold Les Mille Automnes de Jacob de Zoet Liens externes / Dejima sur le site de la ville de Nagasaki Une carte de Dejima Époque d'Edo Île artificielle au Japon Ancienne île Terre-plein Nagasaki
870
https://fr.wikipedia.org/wiki/Liste%20de%20divinit%C3%A9s%20%C3%A9gyptiennes%20par%20famille
Liste de divinités égyptiennes par famille
Les dieux et déesses égyptiens par famille. La grande ennéade d'Héliopolis Noun │ Atoum (ou Rê) ┌───────────┴───────┐ │ │ Shou───────┬──────Tefnout ┌────┴─────────┐ │ │ Nout───────┬────Geb ┌──────────┬───────┬─┴──────┬────────────┐ │ │ │ │ │ Osiris───┬──Isis Seth Nephtys Horus l'Ancien │ Horus (Il ne fait pas toujours partie de cette ennéade) L'ogdoade d'Hermopolis Noun ─ Naunet Kekou ─ Keket Amon ─ Amemet Heh ─ Hehet La triade d'Héliopolis Khépri ─ Rê ─ Atoum Culte de Bastet Bastet─┬─Atoum │ Miysis La triade de Memphis Ptah─┬─Sekhmet │ Néfertoum La triade d'Edfou Horus─┬─Hathor │ Harsomtous (Horus le jeune) La triade de Thèbes Amon─┬─Mout │ Khonsou La triade de Cynopolis Anubis─┬─Anupet │ Qébéhout La triade d'Éléphantine Khnoum─┬─Satis │ Anoukis La triade de Médamoud Râttaouy─┬─Montou │ Harparê La triade de Erment Iounyt ─ Montou ─ Rattaouy La grande famille d'Héliopolis (en plus de l'ennéade) Noun │ Rê (ou Atoum) ┌────────┴────────┐ │ │ Shou──────┬────Tefnout ┌──────┴──────┐ │ │ Geb─────┬────Nout ┌────────────┬──────┴───┬───────────┬─────────┐ │ │ │ │ │ Horus l'Ancien Isis───┬──Osiris──┬──Nephtys─────Seth │ │ Horus Anubis (ou fils de Rê) Index égyptologique
871
https://fr.wikipedia.org/wiki/Distribution%20Linux
Distribution Linux
Une distribution Linux, appelée aussi distribution GNU/Linux pour faire référence aux logiciels du projet GNU, est un ensemble cohérent de logiciels, la plupart étant des logiciels libres, assemblés autour du noyau Linux. Le terme « distribution » est calqué sur l’anglais software distribution qui signifie « collection de logiciels » en français. Il existe une très grande variété de distributions Linux, chacune ayant des objectifs et une philosophie particulière. Les éléments les différenciant principalement sont : la convivialité (facilité de mise en œuvre), l'intégration (taille du parc de logiciels validés distribués), la notoriété (communauté informative pour résoudre les problèmes), leur fréquence de mise à jour, leur gestion des paquets et le mainteneur de la distribution (généralement une entreprise ou une communauté). Leur point commun est le noyau Linux, et un certain nombre de commandes Unix. Les parties GNU et Linux d’un système d’exploitation sont indépendantes, on trouve aussi bien des systèmes avec Linux et sans GNU — comme Android — ou des systèmes GNU sans Linux — comme GNU/Hurd. Définition Les distributions rassemblent les composants d'un système dans un ensemble cohérent et stable dont l'installation, l'utilisation et la maintenance sont facilitées. Elles comprennent donc le plus souvent un logiciel d'installation et des outils de configuration. Il existe plusieurs centaines de distributions, chacune ayant ses particularités. Les distributions à usage spécifique automatisant et facilitant l'installation des composants nécessaires pour par exemple réaliser : pare-feu, routeur, grappe de calcul, édition multimédia… Les distributions pouvant être installées sur un grand nombre de matériels spécifiques (grâce aux supports de nombreuses architectures). Les distributions généralistes, dont les plus populaires sont : Debian, Gentoo, Mageia, Fedora, Slackware, OpenSUSE, ou encore Ubuntu permettant des usages variés. Les distributions orientées exclusivement vers l'entreprise avec un contrat de support annuel (à base de souscription par machine) par exemple Red Hat Entreprise Linux, Ubuntu Long Term Support et SUSE Linux Enterprise. La maintenance d'une distribution peut être assurée par une entreprise (cas de Red Hat Enterprise Linux, SUSE Linux Enterprise...) ou par une communauté (cas de Debian, Mageia, Gentoo, Fedora, Ubuntu, Slackware...). Certaines communautés peuvent aussi avoir comme mainteneur principal une entreprise (cas de Fedora dont Red Hat est le premier sponsor, Ubuntu par Canonical ou encore OpenSUSE par Novell). Leurs orientations particulières permettent des choix selon les besoins et les préférences de l'utilisateur. Certaines sont plus orientées vers les utilisateurs débutants (Ubuntu, Linux Mint, etc.), car plus simples à mettre en œuvre. Debian, en revanche, reste prisée pour les serveurs ou plutôt considérée comme une méta-distribution, c'est-à-dire pour servir de base à une nouvelle distribution. Diverses distributions en dérivent, comme Ubuntu, Knoppix, MEPIS… L'installation de Debian est devenue plus facile depuis la version 3.1 (Sarge), néanmoins des compétences en shell et une culture des projets libres restent nécessaires pour obtenir le GNU/Linux de ses rêves ; en revanche la mise à jour et la maintenance du système sont très aisées grâce aux outils Debian. La distribution Gentoo, destinée à des utilisateurs plus connaisseurs, à la recherche de mises à jour fréquentes, a pour particularité d'être compilée depuis le code source sur le poste même de l'usager, en tenant compte des nombreux paramètres locaux. Ceci en fait le système d'exploitation le plus optimisé pour chaque configuration individuelle. Certaines distributions sont commerciales, comme celles de Red Hat ou de SUSE, alors que d'autres sont l'ouvrage d'une fondation à but non lucratif comme Debian, Mageia et Gentoo. Les logiciels du projet GNU sont libres — ils utilisent tous la licence GPLv3 — Linux quant à lui est partiellement libre — sous licence|GPLv2 — car il contient aussi une quantité importante de code qui n’est pas libre — ce sont les BLOBs. Une majorité des logiciels contenus dans les dépôts des systèmes GNU/Linux sont libres, mais libre ne veut pas dire gratuit, même si les logiciels libres sont généralement distribués gratuitement. Ainsi, lorsque l'on achète une distribution GNU/Linux, le prix payé est celui du média, de la documentation incluse et du travail effectué pour assembler les logiciels en un tout cohérent. Toutefois, pour se conformer aux exigences des licences utilisées par ces logiciels, les entreprises qui éditent ces distributions acceptent de mettre à disposition les sources des logiciels sans frais supplémentaires. La multiplication des distributions GNU/Linux a pu dans le passé être vue comme un inconvénient, mais Linus Torvalds défend au contraire avec vigueur la multiplicité de distributions spécialisées chacune sur un créneau particulier, à côté des distributions orientées « grand public » comme openSUSE, Fedora, Mageia ou Ubuntu. Historique La première distribution apparue en 1992 était assemblée sur quelques dizaines de disquettes. En raison de la très forte croissance de GNU/Linux, une distribution actuelle peut occuper de quelques mégaoctets (pour être installée sur une clé USB par exemple) à plusieurs gigaoctets. Avant l'existence des distributions, les utilisateurs de GNU/Linux devaient composer eux-mêmes leur système en réunissant tous les éléments nécessaires. En 1992, Linux (version 0.96) est pleinement fonctionnel. C'est la naissance des premiers systèmes d’exploitation GNU/Linux : Yggdrasil Linux, , TAMU. Au milieu de l'année, Softlanding Linux System (SLS) est créé : Slackware, le plus ancien système GNU/Linux encore en activité aujourd’hui, est dérivé de cette distribution. Il est aussi le premier, longtemps avant les autres, à permettre un usage direct depuis le CD-ROM, sans installation préalable. Architecture logicielle d'une distribution Ce qui fait l'intérêt d'une distribution est l'exploitation du concept de couche d'abstraction matérielle. Comme on peut le voir sur le schéma les parties qui composent la distribution sont distinctes. On peut donc, par exemple, changer le noyau sans changer les logiciels et donc porter plus facilement la distribution sur une autre architecture matérielle. À la mi-2015, par exemple, la plupart des distributions sont livrées avec un noyau Linux 3.1x ou 3.2x, mais les utilisateurs qui le désirent peuvent installer en parallèle un noyau Linux 4.1 qui gère mieux l'économie d'énergie sur les batteries avec les processeurs récents. Plusieurs noyaux peuvent coexister (un seul étant évidemment choisi au boot), ce qui permet de revenir à l'ancien noyau en cas de souci. Différences entre distributions commerciales et non commerciales Une distribution commerciale est une distribution constituée par une société commerciale. Par « constituer une distribution » on entend « choisir et assembler les logiciels qui composent la distribution » (le noyau du système d'exploitation, un lecteur vidéo, un programme et les pilotes de connexion Wi-Fi, le programme d'installation de la distribution, etc.). Les distributions commerciales proposent généralement des versions gratuites, ce qui n'en fait pas des distributions non commerciales puisque l'objectif est de réaliser du profit par la vente de services liés à l'utilisation de la distribution (support, développement...) ou par la vente d'un code permettant d'activer une partie bridée de celle-ci. Ainsi, Ubuntu est une distribution commerciale car elle est constituée par la société commerciale, Canonical. Debian est en revanche une distribution non commerciale car elle est constituée par l'organisation à but non lucratif SPI. La distinction entre distributions non commerciales et commerciales est importante car les choix en matière de technologie ou de marketing ne sont pas fondés sur les mêmes critères selon qu'ils sont faits par des bénévoles organisés en démocratie directe, ou par le (ou les) propriétaire(s) d'une société commerciale. Principales distributions Distribution grand public Distributions orienté entreprise ou communauté. Les systèmes d’exploitations de cette liste sont ceux dont sont issus la plupart des autres systèmes GNU/Linux. Pour avoir toutes les distributions faisant l'objet d'un article : voir :Catégorie:Distribution Linux. Standardisation En raison de la variété des options du noyau à compiler, des logiciels nécessaires ou souhaitables pour le fonctionnement du système, et de caractéristiques propres à des besoins géographiques locaux, de nombreuses distributions différentes ont vu le jour. Par exemple Conectiva, était l'une des plus populaires en Amérique du Sud, et très peu connue en Europe ; Mandrake et Conectiva ont fusionné en 2005 créant ainsi la distribution Mandriva. La multiplicité des distributions et l'existence des différents formats de paquet est parfois perçue comme source de possibles incompatibilités. Un standard fut créé par Red Hat, nommé Linux Standard Base ou LSB. Cependant, peu de distributions suivent ce standard, car il est centré autour des paquets RPM inventé par Red Hat. De nouvelles versions sont régulièrement publiées afin d'incorporer les nouveaux développements. La plupart intègrent également des logiciels annexes, tels des suites bureautiques et des jeux vidéo. La complexité de l'offre ou des questions d'incompatibilité provisoire (par exemple Kuickshow a pendant quelque temps manifesté une incompatibilité avec KDE 3.2) font que certains choix du menu pointent parfois dans le vide, même à l'intérieur d'une distribution, argument qui est mis en avant par ceux qui préfèrent les systèmes de Microsoft. Les partisans de GNU/Linux font remarquer que cela est dû au développement plus rapide de GNU/Linux et que celui-ci ne fait que manifester ici le défaut de ses qualités. Certaines distributions se caractérisent par des options prédéfinies qui leur sont propres. Ainsi Slackware utilise-t-elle le système de fichiers ReiserFS là où la plupart des autres considèrent comme implicite l'usage d'ext3fs. OpenSuse, au contraire, installe par défaut le système le plus puissant, mais plus récent Btrfs, et les répertoires utilisateurs sous XFS, plus éprouvé. Dans un cas comme dans l'autre, on peut si on le désire choisir d'autre systèmes de fichiers, comme ext4, au moment de l'installation. Concernant le codage des caractères, les distributions récentes sont généralement pré-configurées pour utiliser UTF-8 en tant que locale. Un pas majeur vers la standardisation des différents systèmes GNU/Linux fut opéré lors de l’adoption massive de systemd. Cette standardisation fut l’occasion d’intenses disputes, la diversité de l’écosystème GNU/Linux étant aussi considéré comme une force. Critères de distinction des distributions Depuis l'instauration du concept de distribution, plusieurs questionnent la nécessité de centaines de distributions différentes, alors que le système de Microsoft, Windows et celui d'Apple ne se déclinent qu'en une voire deux versions. La réponse réside dans l'éventail de possibilités offertes par le grand choix logiciel permettent de créer de nombreuses distributions adaptées aux objectifs que se fixe l'utilisateur. Voici une liste (non exhaustive) des critères permettant de distinguer deux distributions. Des exemples s'appuient sur les distributions les plus célèbres. Attention : il ne s'agit pas ici de classer les distributions les plus célèbres selon le critère en question (ce qui risquerait d'amener le troll) mais d'illustrer chaque critère pour faciliter la compréhension du lecteur. Architecture matérielle supportée Une distribution peut ne supporter qu'une seule et unique architecture matérielle comme elle peut en supporter plusieurs. On peut penser a priori qu'une distribution spécialisée sur une architecture fonctionnera mieux qu'une distribution plus générique mais ce n'est pas toujours vrai. Exemple : Yellow Dog ne fonctionne que sur les machines à base de processeurs PowerPC (Macintosh avec processeur G3, G4 ou G5, PlayStation 3) alors que Debian fonctionne sur pas moins de onze architectures matérielles différentes. Système d’initialisation Première étape lors du démarrage d’un système d’exploitation, l’initialisation est majoritairement faite aujourd’hui par systemd. Certains systèmes GNU/Linux, tels que Devuan, au contraire mettent un point d’honneur à employer un autre système d’initialisation que systemd. Stabilité Certains préfèrent avoir un système très stable, qui ne plantera jamais et dont la cohérence est assurée, mais avec des logiciels d'une version un peu ancienne. D'autres utilisateurs aspirent à disposer de logiciels dans la toute dernière version, l'instabilité du système constituant la contrepartie de cette volonté d'actualisation constante. Ainsi, une distribution qui se veut stable met du temps à éditer des versions : par exemple, Debian, dont la stabilité est réputée, met deux ans pour chaque édition majeure, et jusqu'à trois pour Sarge (2005). Exemples Debian se décline en plusieurs versions : , , . La version « » est mise à jour en essayant de rester le plus stable possible, les mises à jour étant essentiellement des modifications liées à la sécurité. C'est la plus stable des distributions Linux. La version « » est destinée aux utilisateurs plus expérimentés et souhaitant un maximum de programmes ; cela peut se faire parfois au détriment de la stabilité. Il existe un compromis, « », qui permet l'accès à de très nombreux paquets provenant de la branche et expérimentale, mais ayant fait preuve d'une certaine stabilité. Cette version est la future version stable et elle est aussi stable que la plupart des autres distributions GNU/Linux. ArchLinux est un peu l'opposé de Debian en matière de politique de fonctionnement : en développement constant, il n'existe pas de « version » d'Arch Linux, étant donné que les mises à jour se font sans discontinuer. Elle souffre cependant de plus d'instabilité que la moyenne des distributions. Slackware est un système doté d'une grande stabilité, mais à réserver aux utilisateurs expérimentés, ainsi qu'aux personnes désireuses d'apprendre à gérer leur système en profondeur. C'est la distribution qui offre le plus de possibilités de configuration. Les documentations sont à la hauteur de ces dernières et leurs conseils doivent être suivis pour obtenir un système stable. Serveur ou station de travail Les distributions peuvent être destinées à faire fonctionner une machine serveur ou une machine de type bureau et cela influence le choix logiciel. Une distribution orientée bureau se doit d'inclure un environnement graphique (GNOME ou KDE) et un serveur graphique (XFree86 ou Xorg), tout le contraire d'une distribution serveur qui se passera très bien de ces logiciels. Debian fut originellement orientée serveur, mais depuis la version 5 sortie en février 2009, cette distribution a atteint un niveau de convivialité qui la rend de plus en plus attractive auprès du grand public, et particulièrement auprès de celles et ceux qui partagent et soutiennent la philosophie non commerciale de Debian. Ubuntu est à l'origine une distribution bureau mais il existe une version serveur avec des logiciels performants pour une distribution orientée serveur, sans bureau. Mageia est à l'origine orientée bureau. Toutefois, rien n'oblige l'installation de l'interface graphique : les outils de configuration Drakconf sont disponibles sous trois modes : graphique, graphique déporté sur un autre poste (donc sans serveur X utilisant des ressources sur le serveur) et mode texte via Ncurses. Tolérance aux contraintes imposées par les licences logicielles Chaque logiciel, étant doté d'une licence qu'il faut respecter, donne ou non une certaine liberté à l'utilisateur. Des distributions n'intègrent strictement que des logiciels libres. D'autres, au contraire, incluent des logiciels, des pilotes, ou des codecs propriétaires. Debian, de par son contrat social, s'est engagé à n'inclure que du logiciel strictement libre, mais permet explicitement l’utilisation de logiciels non libres. La Free Software Foundation tient une liste de distributions GNU/Linux libres (totalement). Distribution autonome ou amorçable Certaines distributions fonctionnent sans qu'on ait besoin de les installer. Elles sont appelées distributions « autonomes » ou « amorçables ». Le principe est de pouvoir amorcer l'ordinateur depuis un support de stockage : CD-ROM, DVD-ROM, clé USB… qui contient la distribution en lecture seule (à l'exception parfois des clés USB), donc sans installation sur le disque dur. Knoppix est la distribution autonome la plus utilisée (avec Kaella). Mageia, Fedora, Ubuntu, openSUSE et Debian, ainsi que d'autres distributions, proposent leurs versions autonomes. Grand public ou expert Les distributions peuvent se distinguer par le niveau de compétences nécessaire à l'utilisateur en matière d'administration système : Mageia, Ubuntu ou Debian (depuis la version 5) s'adressent au grand public qui n'a besoin d'aucune compétence particulière pour utiliser ces systèmes. Linux From Scratch s'adresse à un public plutôt expert en administration système, en effet il est nécessaire d'avoir installé et administré bien des systèmes en ligne de commande avant de se lancer dans une installation de LFS. Sélection et installation des logiciels Une des tâches centrales d'une distribution GNU/Linux, sans équivalent sur Microsoft Windows, consiste à centraliser dans un ou plusieurs dépôts centraux un (plus ou moins) grand nombre de logiciels tiers et à les empaqueter de manière que les utilisateurs de la distribution puissent les installer en 1 clic, sans CD-ROM via Internet, dans la plus grande légalité. Un système de gestion de paquets installé (et souvent spécifique à la distribution) permet la recherche, l'installation, la désinstallation et la mise à jour de ces logiciels. Il existe également un logiciel permettant de produire le paquet d'installation d'une ou plusieurs applications, Gobisoft, prenant en charge plus d'une douzaine de distributions (Debian, Fedora, OpenSuse, Mageia, Gentoo, CentOs, Mx-Linux, Mint, Solus, Ubuntu (Xubuntu, Lubuntu, Kubuntu), Uruk, Majaro, Slackware), cette méthode installe simplement un logiciel en utilisant les commandes de la version Linux destinataire. Sélection des logiciels installés par défaut Les distributions se distinguent également en fonction des logiciels disponibles d'origine, lesquels répondent aux attentes de publics différents. Cette sélection peut être généraliste ou spécialisée. Ainsi par exemple : Ubuntu, Mageia et Trisquel proposent une sélection de logiciels généraliste. AGNULA/Demudi et Ubuntu Studio sont des distributions destinées à la création multimédia. Ne sont donc inclus que des logiciels de mixage, sampling, encodage audio, montage, etc. Un souci particulier est accordé au fonctionnement réactif, s'approchant du temps réel : gestion des priorités système, interfaces graphiques légères et donc non pénalisantes, noyau à faible latence disponible (utile uniquement pour les travaux sur le son). GeeXboX permet de transformer (presque) n'importe quel ordinateur en véritable Media Center. IPCop est destinée à transformer un ordinateur en pare-feu. Ne sont intégrés que les logiciels servant à effectuer cette tâche. Ajouts personnalisés Les logiciels d'installation de paquets fournis avec chaque distribution permettent de la personnaliser, en prévenant en principe l'utilisateur des incompatibilités éventuelles. Ils fonctionnent sans problème pour les logiciels applicatifs, mais demandent un peu de doigté lorsqu'on installe quelque chose touchant l'interface graphique elle-même, en particulier : Le sélecteur d'environnement de bureau (ex: LightDM, GDM, KDM...) L'environnement de bureau lui-même (ex: GNOME, KDE, Xfce, LXDE, Cinnamon, Mate). Note : il est fortement conseillé dans un premier temps de créer un utilisateur distinct pour tester chaque environnement de bureau, ce qui ne pose aucun problème. On pourra ensuite si on est aventureux essayer d'en faire coexister plusieurs (en alternance) chez un utilisateur expérimental, à ses risques et périls. Le bureau de l'utilisateur, si celui-ci utilise plusieurs environnements de bureau en alternance. Le gestionnaire de fichiers (ex: Nautilus, PCMan File Manager, Thunar, Dolphin, Konqueror) Note : si l'on souhaite faire coexister plusieurs systèmes d'exploitation sur le même disque dur, le gestionnaire graphique de boot permet de le faire dans de bonnes conditions de confort. Dépôts de paquets Au-delà du choix des logiciels installés par défaut, les distributions gèrent un ensemble plus ou moins grand de dépôts de paquets, depuis lesquels l'utilisateur peut par la suite installer des logiciels. Debian (par extension Ubuntu) ou Mageia ont des dépôts particulièrement remplis, permettant ainsi à leurs utilisateurs d'installer les logiciels qu'ils souhaitent (ex: traitement de texte, montage vidéo, jeu vidéo, outils réseaux ou de programmation, ...) Formats des paquetages Plusieurs formats de paquets existent : tgz : archive tar compressée incluant des fichiers de contrôle, utilisé notamment par Slackware ou Archlinux (cf. infra). Un paquet tgz comporte juste chaque fichier et le nom du répertoire où il doit être placé : pas de gestion de l'existant (versions) ni des dépendances. deb : système de gestion de paquets créé par la communauté Debian pour Debian GNU/Linux (cf. infra) et utilisé par de très nombreuses distributions telles que Ubuntu ainsi que d'autres dérivées. rpm : système de gestion de paquets inventé par Red Hat et utilisé par Fedora, SuSE, Mageia et quelques autres. ebuild : système de Gentoo . fpm : paquets de Frugalware pisi : paquets de Pardus Binaire ou source Il est possible d'utiliser des distributions dites sources (par exemple, Gentoo ou Funtoo) dans lesquelles le système de paquets télécharge les sources du logiciel puis produit le logiciel désiré sur l'ordinateur de l'utilisateur en le compilant. L'un des intérêts avancés pour les utilisateurs d'une distribution source est que théoriquement, les programmes compilés sur la même machine que celle sur laquelle ils seront exécutés seront plus rapides - cette théorie n'est cependant pas appuyée de façon significative par le benchmarking. Le principal avantage de compiler toute une distribution depuis les sources est qu'il est possible de mélanger les branches stables et test. Ceci est possible car les programmes installés dépendent uniquement des programmes qui existaient déjà lors de la compilation. Il est ainsi possible d'avoir un système de base stable et d'installer la dernière version de son logiciel préféré sans avoir à passer tout le système en version de test. Un autre avantage de la distribution source est de permettre l'installation de GNU/Linux sur des plateformes matérielles pour lesquelles aucune distribution n'est disponible (en particulier pour des microprocesseurs autres que x86 ou PPC). D'un autre côté, les distributions dites binaires (par exemple, Mageia ou Ubuntu) permettent, comme Microsoft Windows ou Mac OS, d'installer directement des logiciels déjà compilés pour son ordinateur, ce qui a pour principal avantage un gain de temps lors de l'installation. Puissance de la machine Des distributions sont destinées à l'utilisation sur des appareils plus anciens, que l'on pourrait considérer comme obsolètes : c'est le cas de Damn Small Linux. Ces distributions s'efforcent de proposer une interface graphique la plus réactive possible, par exemple en proposant une sélection de logiciels légers tournant dans l'environnement graphique Xfce, par exemple HandyLinux qui intègre Chromium plus léger et réactif que Iceweasel. Zenwalk, bien que n'étant pas destinée à cette catégorie d'ordinateurs mais plutôt à des ordinateurs « récents », utilise d'office Xfce afin d'augmenter les performances. De même pour Ubuntu dont il existe une version officielle dans laquelle GNOME est remplacé par Xfce baptisée Xubuntu. Localisation et internationalisation La plupart des distributions sont issues de l'Europe et des États-Unis d'Amérique. Des distributions sont nées pour des besoins locaux, par exemple pour qu'une distribution existante puisse être utilisée avec un clavier d'ordinateur particulier ou un codage des caractères différent. Ces distributions se sont notamment répandues de façon importante dans les pays asiatiques. Notes et références Voir aussi Articles connexes Chrome OS Liste des distributions Linux Pile graphique Linux Pile audio Linux Astra Linux Liens externes http://distrowatch.com/ : Caractéristiques, comparatifs et actualités des distributions LWN : Liste de 561 distributions avec leur description http://www.quebecos.com : équivalent francophone de Distrowatch retraçant l'actualité des distributions linux et forum d'entre-aide. Distribution Linux Progiciel
873
https://fr.wikipedia.org/wiki/Liste%20des%20distributeurs%20de%20jeux%20vid%C3%A9o
Liste des distributeurs de jeux vidéo
Un distributeur de jeux vidéo est une entreprise, interne ou externe à un éditeur de jeux vidéo, qui assure la distribution d'un produit auprès des grossistes. Liste des distributeurs de jeux vidéo, triés par ordre alphabétique. Légende : Nom distributeur — Localisation # #34Wargames A AAA Games — États-Unis Activision — États-Unis Ageod — France Alsyd Multimedia — France Atari — France Amazon Games Studio—États Unis B Bandai — Japon Bethesda Softworks — États-Unis Bigben Interactive — France Blizzard Entertainment — États-Unis BMG Interactive — États-Unis Bohemia Interactive — Tchéquie Bounty — France Buka Entertainment — Russie C C2C Games — France Capcom — Japon Circle — France Codemasters — Royaume-Uni Cyberdome — Belgique D Data Becker — États-Unis DIES Distribution — Belgique DreamCatcher Interactive — Canada Distribusoft Inc — Canada E Eidos Interactive — États-Unis Electronic Arts — États-Unis Emtec Magnetics — France Engine Soft Entertainment — Taïwan E-Concept - France F Focus Home Interactive — France Fox Interactive — États-Unis Funsoft — États-Unis G Game Studios — États-Unis Gamesplanet — France Garena — Singapour GT Interactive — États-Unis Gameloft—France H Hasbro Interactive — États-Unis HD Interactive — Pays-Bas I Infogrames — France Innelec Multimedia — France Interplay — États-Unis Importel - Canada J Jellyfish Software — Royaume-Uni K Konami — Japon L Lego Media — États-Unis Looking Glass Studios — Royaume-Uni Lucasarts - Etats-unis M Mattel Interactive — États-Unis Melbourne House — Australie Mélisoft — France Metaboli — France MGM Interactive — États-Unis Micro Application — France Microfolie's — France Microids — France Microsoft — États-Unis Micromania - France États-Unis Midas Interactive Entertainment — Pays-Bas Midway Games — États-Unis Mindscape — États-Unis Monte Cristo Multimedia - France Montparnasse Multimedia — France N Navigo — Allemagne Nintendo — Japon Nexway Games — France Nobilis — France O Ocean — Royaume-Uni On Deck Interactive — États-Unis P PAN Interactive — Suède Panasonic Interactive Media — États-Unis Perfect Publishing — États-Unis Project 3 Interactive — Pays-Bas Pixitroc — France Plug In Digital — France Q R Ravensburger Interactive — Allemagne RealNetworks — États-Unis Replay France — France Rockstar Games — États-Unis S Sega — Japon, États-Unis Sierra On-Line — États-Unis Simon & Schuster Interactive — États-Unis Sodifa — France Softsel — États-Unis Sony — Japon SouthPeak Games — États-Unis Square Enix — Japon T Take-Two Interactive — États-Unis TDK Mediactive Inc. — États-Unis TDK Mediactive Europe - Allemagne TF1 Multimedia — France THQ — France Titus Interactive — France Topware Entertainment - Allemagne U Ubisoft — France U.S. Gold — États-Unis V Valusoft — États-Unis Virgin Interactive — France Vivendi Universal Games — Canada W X Y Z Zuxxez Entertainment — Allemagne Voir aussi Liste des développeurs de jeux vidéo Liste des éditeurs de jeux vidéo Distributeurs
878
https://fr.wikipedia.org/wiki/D%C3%A9cane
Décane
Le décane est un alcane linéaire de formule brute qui possède 136 isomères. Ces diverses molécules comportent toutes dix [en grec δέκα (déca), dix] atomes de carbone. Notes et références Alcane linéaire Isomère du décane
879
https://fr.wikipedia.org/wiki/DL
DL
DL peut faire référence à : un format d'enveloppe norme ISO de 220 par 110 mm, mondialement répandu et conçu pour contenir une feuille A4 pliée en 3 ou un document de 210 par 99 mm (format carton d'invitation souvent également nommé "format DL" par métonymie, bien que "1/3 A4" soit plus approprié selon la norme) ; Démocratie libérale, parti politique français, plus tard inclus dans l'Union pour un mouvement populaire (UMP) qui sera, lui-même, renommé Les Républicains (LR); Delta Air Lines, selon la liste des codes AITA des compagnies aériennes ; un devoir libre, dans le domaine scolaire ; un développement limité en mathématiques ; abréviation de DownLoad, mot anglais pour téléchargement (dans le sens descendant); abréviation de Dose Létale, indication de la létalité d'une substance ou d'un type donnée de radiation ou la radiorésistance ; Développeur logiciel, titre professionnel du ministère chargé de l'Emploi (France), créé en 2007 ; Directors Lounge, festival de cinéma et plate-forme pour arts cinématographique et multimédia basé à Berlin ; Le Dauphiné libéré, journal quotidien français ; Dordogne libre, journal quotidien français ; Deputy Lieutenant en Angleterre. Dl, digramme de l'alphabet latin abréviation de "Diaper Lover", appellation désignant un certain type de fétichisme des couche-culottes dL est un symbole, qui signifie : décilitre, unité de mesure de capacité.
880
https://fr.wikipedia.org/wiki/D%C3%A9mocratie%20lib%C3%A9rale
Démocratie libérale
La démocratie libérale, parfois appelée démocratie occidentale, est une idéologie politique et une forme de gouvernement dans laquelle la démocratie représentative fonctionne selon les principes du libéralisme, à savoir la protection des libertés de l'individu. Elle est caractérisée par des élections justes, libres et concurrentielles entre plusieurs partis politiques distincts, une séparation des pouvoirs dans différentes branches du gouvernement, la primauté du droit dans la vie quotidienne dans le cadre d'une société ouverte, et la protection égale des droits de l'Homme, des droits et libertés civils, et des libertés politiques pour tous les hommes. En pratique, les démocraties libérales sont souvent basées sur une constitution, formellement écrite ou non codifiée, afin de définir les pouvoirs du gouvernement et de consacrer le contrat social. Après une période d'expansion soutenue tout au long du , la démocratie libérale est devenue le système politique de la majorité des pays développés. Une démocratie libérale peut prendre diverses formes constitutionnelles. Elle peut reposer sur une république, comme en France, en Allemagne, en Inde, en Irlande, en Italie ou aux États-Unis, ou bien sur une monarchie constitutionnelle, comme au Japon, en Espagne, aux Pays-Bas, au Canada ou au Royaume-Uni. Le régime peut être présidentiel (Argentine, Brésil, Mexique, États-Unis), semi-présidentiel (France et Taïwan), ou parlementaire (Australie, Canada, Inde, Nouvelle-Zélande, Pologne, Pays-Bas ou Royaume-Uni). Les démocraties libérales ont d'ordinaire un suffrage universel, octroyant à tous les citoyens adultes le droit de vote, sans distinction de genre, de population ni de propriété. Cependant, certains pays considérés comme des démocraties libérales ont parfois opté dans l'Histoire pour un suffrage non universel, de ce fait restreignant, à l'exemple du suffrage censitaire en vigueur en France ou en Belgique, principalement au , sans évoquer le tardif droit de vote des femmes octroyé dans la première moitié du , avant quoi la moitié de la population n'avait le droit de participer aux scrutins. Le but des constitutions libérales-démocratiques est de définir le caractère démocratique de l'État. Ainsi, elles sont souvent vues comme étant faite pour limiter l'autorité des gouvernements. La démocratie libérale met l'accent sur l'indépendance de la justice et la séparation des pouvoirs, dont un système de « freins et de contrepoids » entre les branches du gouvernement constitue la garantie de la pérennité du caractère démocratique de l'organisation de l'État. Structure Les démocraties libérales reposent généralement sur le suffrage universel, c'est-à-dire l'octroi à tous les citoyens adultes du droit de vote, sans distinction de race, de sexe ou de ressources. Les décisions prises par les élections ne sont pas prises par l'ensemble des citoyens, mais par ceux ayant participé au scrutin. La constitution d'une démocratie libérale définit le caractère démocratique de l'État. Elle donne des limites à l'autorité du gouvernement. La démocratie libérale repose sur la séparation des pouvoirs : un pouvoir judiciaire indépendant et un système contrôle et de contrepoids entre les pouvoirs de l'État (législatif et exécutif). L'autorité gouvernementale ne s'exerce légitimement que conformément aux lois adoptées et mises en œuvre conformément au processus défini. De nombreuses démocraties utilisent le fédéralisme - une séparation verticale des pouvoirs - afin de prévenir les abus et d'accroître la participation du peuple, en fractionnant les pouvoirs, entre les gouvernements municipaux, provinciaux et nationaux. Droits et libertés Dans la pratique, les démocraties posent des limites sur certaines libertés. Il existe diverses limitations juridiques telles que le droit d'auteur et des lois contre la diffamation. Il peut y avoir des limites relatives à l'expression anti-démocratique, l'atteinte aux droits de l’homme, ou sur l'incitation au terrorisme. Aux États-Unis plus qu'en Europe, au cours de la guerre froide, de telles restrictions ont été appliquées aux communistes. De nos jours elles sont le plus souvent appliquées aux organisations perçues comme favorisant le terrorisme ou l'incitation à la haine et sont regroupés sous forme de lois sur le terrorisme dans le droit national. La justification classique de ces limites est qu'elles sont nécessaires pour garantir l'existence de la démocratie, ou l'existence des libertés elles-mêmes. Par exemple, permettre la liberté d'expression pour ceux qui préconisent l'assassinat de masse porte atteinte au droit à la vie et à la sécurité. Par là-même, les gouvernements considèrent les restrictions apportées aux discours négationnistes (et à tout discours de haine) comme conforme à l'idée de démocratie. Conditions Bien que ne faisant pas partie du système de gouvernement en tant que tel, un minimum de libertés individuelles et économiques, entrainant une importante classe moyenne ainsi qu'une société civile prospère, sont souvent vues comme nécessaire à l'avènement d'une démocratie libérale. Origine Les démocraties libérales tiennent leurs origines de l'Europe des lumières mais leur nom de démocratie n'est arrivé que plus tard après les révolutions, ces systèmes étaient appelés république et opposé à la démocratie antique. À cette époque, les États européens étaient, dans leurs vastes majorités, des monarchies où le pouvoir politique était détenu par des monarques ou par l'aristocratie. La possibilité d'un État démocratique n'avait pas été considérée comme une théorie politique sérieuse depuis l'Antiquité classique, et la croyance bien répandue était qu'une démocratie déboucherait invariablement sur une instabilité, un chaos politique du fait des caprices changeants de la population. Il était en plus admis que la démocratie était contraire à la nature humaine, les Hommes étant conçus comme inévitablement mauvais, violents et nécessitant ainsi un dirigeant fort afin d'empêcher leur pulsions destructrices. Nombreux étaient les monarques européens à affirmer tenir leur pouvoir de Dieu, et ainsi, questionner leur droit de régner était équivalent au blasphème. Aux États-Unis, le terme démocratie s'est substitué au terme république dans les années 1820, à la suite d'une élection où Andrew Jackson s'est revendiqué démocrate pour se démarquer des autres, et s'est fait élire. Les autres candidats ont par la suite repris ce terme. Un type de régime minoritaire dans le monde Selon le rapport de 2021 du projet V-Dem (pour Varieties of Democracy) conduit par une équipe de chercheurs hébergée à l’université de Göteborg, qui propose une distinction entre « démocraties libérales », « démocraties électorales », « autocraties électorales » et « autocraties fermées », seuls 14 % de la population mondiale, répartis dans une trentaine d’États, vivraient dans une démocratie authentiquement libérale. Notes et références Voir aussi Bibliographie Serge Berstein (direction), La démocratie libérale, 1999, PUF Karl Popper, La Société ouverte et ses ennemis, 1945, 2 tomes, et Pierre Manent, Histoire intellectuelle du libéralisme, Hachette, 1997, Francis-Paul Bénoit, La démocratie libérale, PUF, 1978, Philippe Nemo, Histoire des idées politiques, PUF, 1998, 2 vol. Francis Dupuis-Déri, Démocratie. Histoire politique d'un mot. Aux États-Unis et en France, Lux, 2013. Articles connexes Démocratie Démocratie représentative État de droit Illibéralisme Libéralisme politique Libéralisme Modernité Parlementarisme Société ouverte Concept lié au libéralisme Liberale
881
https://fr.wikipedia.org/wiki/Dennis%20Ritchie
Dennis Ritchie
Dennis MacAlistair Ritchie, né le à Bronxville dans l'État de New York et mort en octobre 2011 à Berkeley Heights dans le New Jersey, est un des pionniers de l'informatique moderne, inventeur du langage C et codéveloppeur de Unix. Il est parfois désigné par dmr, son adresse électronique aux Laboratoires Bell. Au début des années 1970, programmeur aux Laboratoires Bell, il travaille avec Ken Thompson au développement d'Unix. Le langage B de Thompson étant trop limité pour les besoins du nouveau système, Ritchie est amené à créer sur les mêmes bases le langage C. Par la suite, avec l'aide de Brian Kernighan, il promeut le langage et rédige notamment le livre de référence . Il reçoit conjointement avec Ken Thompson le prix Turing de l'ACM en 1983 pour leur travail sur le système Unix. Biographie Dennis Ritchie nait en 1941 à Bronxville dans l'État de New York. Son père, Alistair E. Ritchie, est un scientifique des Laboratoires Bell et connu pour le livre sur la théorie des commutation de circuits, dont il est co-auteur. Dennis Ritchie étudie la physique ainsi que les mathématiques appliquées à Harvard, y obtenant un doctorat. En 1967, il commence à travailler également aux Laboratoires Bell, où son père fait lui-même carrière. Un an plus tard, en 1968, il soutient sa thèse, nommée , à Harvard sous la supervision de Patrick C. Fischer. Cependant, disposant déjà d'un poste chez Bell Labs, Ritchie n'a jamais pris le temps de remettre sa thèse sous forme de volume relié à l'université de Harvard, créant ainsi une difficulté administrative qui empecha l'université de lui décerner officiellement son doctorat. Celle-ci a depuis été redécouverte auprès de la veuve de son directeur de thèse, et republiée en ligne. En 1978, Ritchie co-écrit avec Brian Kernighan , un livre sur le langage C. C'est l'une de ses contributions les plus célèbres, puisque le livre est encore aujourd'hui connu sous le nom de K&R, les initiales des deux auteurs. Ritchie travaille également dans les années suivantes avec Ken Thompson sur le système d'exploitation UNIX. Ritchie est notamment le contributeur principal du portage d'UNIX sur différentes machines et plateformes. En 1983, Ritchie et Thompson reçoivent le prix Turing pour leurs travaux sur la théorie d'un système d'exploitation générique et l'implémentation du modèle sur le système UNIX. Le prix de Ritchie est par ailleurs intitulé . En 1990, Ritchie et Thompson seront de nouveaux récompensés, par la médaille Richard W. Hamming de l'IEEE pour le système UNIX et le langage C. Le , Thompson et Ritchie reçoivent la National Medal of Technology and Innovation de 1998, par le président américain Bill Clinton, toujours pour l'invention d'UNIX et du langage C. Ces inventions ont, d'après le jury, . De santé précaire, après le traitement d'un cancer de la prostate et de problèmes cardiaques, il meurt à l'âge de à son domicile de Berkeley Heights dans l’État du New Jersey où, vivant seul, il est retrouvé le mercredi , inerte. La date de sa mort n'est pas connue avec certitude, mais pourrait se situer autour du , selon les sources inspirées par les proches. Son décès est occulté par celui de Steve Jobs, survenu quelques jours auparavant, bien que Mac OS et iOS se basent sur les travaux de Dennis Ritchie effectués sur UNIX. C et Unix Dennis Ritchie est connu comme étant le créateur du langage C, un développeur clé du système d'exploitation Unix, et le coauteur du livre , communément appelé K/R ou K&R (en référence aux deux auteurs : Kernighan et Ritchie). Son invention du langage C et sa participation au développement d'Unix au côté de Ken Thompson ont fait de lui un pionnier de l'informatique moderne. Le langage C reste au début du un des langages les plus utilisés, tant dans le développement d'applications que de systèmes d'exploitation. Unix a aussi eu une grande influence en établissant des concepts qui sont désormais totalement incorporés dans l'informatique moderne. Il déclare que le langage C et que , bien que son collègue des laboratoires Bell Bjarne Stroustrup, créateur du C++, réponde que . À la suite du succès d'Unix, Dennis continue ses recherches dans les systèmes d'exploitation et les langages de programmation, tout en contribuant à des projets tels que les systèmes d'exploitation Plan 9 et Inferno, et le langage de programmation Limbo. Il est corécipiendaire avec Ken Thompson du prix japonais de 2011. Publications — dit ou en abrégé « le K&R ».Parmi les traductions de cet ouvrage, en plus de vingt-cinq langues, se trouvent : . . Honneurs 1983 : prix Turing, de l'ACM 1990 : médaille Richard-Hamming, de l'IEEE 1998 : National Medal of Technology and Innovation, du président des États-Unis 2011 : prix japonais par The Japan Prize Foundation Notes et références Liens externes Page personnelle Cade Metz, « », Wired, 13 octobre 2011 Personnalité américaine en informatique Personnalité en langages de programmation Personnalité en compilation Personnalité en systèmes d'exploitation Lauréat du prix Turing Lauréat de la National Medal of Technology and Innovation Lauréat du prix japonais Étudiant de l'université Harvard Hacker Médaille Richard-Hamming Scientifique des laboratoires Bell Naissance en septembre 1941 Naissance à Bronxville Décès en octobre 2011 Décès à 70 ans Décès au New Jersey
882
https://fr.wikipedia.org/wiki/Daniel%20Gluckstein
Daniel Gluckstein
Daniel Gluckstein, né le à Paris, est un homme politique trotskiste français. Il est secrétaire national du Parti des travailleurs (PT) de 1991 à 2008. Il participe ensuite à la fondation du Parti ouvrier indépendant démocratique (POID), après avoir été l'un des quatre secrétaires nationaux du Parti ouvrier indépendant (POI) et coordinateur de l'Entente internationale des travailleurs et des peuples. Candidat du PT à l'élection présidentielle de 2002, il finit en dernière position du premier tour avec 0,47 % des voix. Biographie L'intérêt de Daniel Gluckstein pour son histoire familiale — l'un de ses ancêtres, juif d'Europe de l'Est, aurait participé en 1897 à la fondation de l'Union générale des travailleurs juifs de Lituanie, de Pologne et de Russie (Bund) — contribue, durant son adolescence, à le faire s'engager en politique. Il fait partie, à l'âge de 14 ans, des comités Viêt Nam, dans le contexte de l'opposition à la guerre du Viêt Nam. En 1968, il adhère à la Jeunesse communiste révolutionnaire (JCR), puis rejoint la Ligue communiste. Il utilise à l'époque le pseudonyme de Michaël ; en 1973, lors de la dissolution de la Ligue communiste et sa refondation sous le nom de Ligue communiste révolutionnaire, il adopte le nouveau pseudonyme de Seldjouk. Après des études d'histoire et de lettres, il enseigne ces matières en lycée professionnel. À la fin des années 1970, il participe à une tendance de la LCR, la « tendance léniniste-trotskiste » (ou TLT) animée par Christian Leucate, et qui regroupe plusieurs centaines de membres. En 1979, exclus de la LCR, les animateurs de la TLT partent avec environ 400 militants et fondent la Ligue communiste internationaliste (LCI) ; l'année suivante, ce mouvement fusionne avec l’Organisation communiste internationaliste (OCI), nom utilisé à l'époque par le courant lambertiste. Au départ réticent à la collaboration avec , Daniel Gluckstein finit par devenir proche de ce dernier, dont il fera avec le temps figure de . Il quitte à cette époque l'Éducation nationale pour devenir permanent salarié de l'organisation lambertiste. En 1991, il est élu secrétaire national du Parti des travailleurs (PT), lors de la fondation de cette nouvelle incarnation du parti lambertiste. Aux élections européennes de 1994, il est à la tête d'une liste pour l'Europe des travailleurs et de la démocratie, contre l'UE de Maastricht, qui obtient 0,43 % des voix. En 1997, il est candidat aux élections législatives à Montreuil (Seine-Saint-Denis). Il obtient 0,87 % des voix. L'année suivante, il initie avec 40 autres militants, dont Frédéric Mérat et des responsables de divers courants internes du Parti communiste français, dont Jean-Jacques Karman et Rémy Auchedé, et du Mouvement des citoyens de Jean-Pierre Chevènement le Comité national pour l'abrogation du traité de Maastricht. En 2002, il est candidat du Parti des travailleurs à l'élection présidentielle, et remporte au premier tour 0,47 % des suffrages, arrivant dernier parmi les seize candidats présents. Dès le , il appelle avec divers élus dont Gérard Schivardi à la victoire du « non » au référendum sur le traité constitutionnel de l'Union européenne par la création d'un comité ad hoc. En 2007, il est directeur de campagne de Gérard Schivardi, « candidat de maires », à l'élection présidentielle. En 2008, lors du congrès fondateur du Parti ouvrier indépendant (POI), dans lequel s'est auto-dissout le PT, il devient un des quatre secrétaires nationaux du nouveau parti, avec Claude Jenet, Gérard Schivardi et Jean Markun. En 2015, à l'approche du du POI, peu après la rencontre d'un millier de syndicalistes le 6 juin à Paris sous l'égide du journal Informations ouvrières, de fortes tensions se font sentir au sein du parti. Pour ne pas avoir respecté les décisions majoritaires de son courant (les deux tiers de la conférence des cadres, composée des délégués au précédent congrès), après avoir annoncé vouloir créer une tendance soutenue par plus de 700 membres du Courant communiste internationaliste et intitulée « Revenir à une politique de construction de parti », Gluckstein est suspendu ainsi que les autres membres de la direction nationale l'ayant soutenu. Un bureau national le démet, ainsi que Gérard Schivardi et Jean Markun, de leur mandat de secrétaire national. À noter que la création d'une tendance est tout à fait légale et légitime dans les textes de fondements du parti et de la Internationale et que cette dernière prône l'indépendance des syndicats par rapport aux partis politiques. À l'issue de deux congrès distincts se tenant les 21 et 22 novembre 2015, la tendance initiée par Daniel Gluckstein décide de se former en tant que Parti ouvrier indépendant démocratique afin de revenir à la création d'un vrai parti ouvrier, indépendant des appareils syndicaux. Vie privée Marié, il est le père de trois enfants. Publications , à propos de la grève de 1986 contre la réforme Devaquet Notes et références Voir aussi Articles connexes Courant lambertiste Parti communiste internationaliste (lambertiste) Pierre Lambert Trotskisme en France Informations ouvrières La Vérité Liens externes Entente internationale des travailleurs et des peuples Naissance en mars 1953 Naissance à Paris Personnalité liée à Montreuil (Seine-Saint-Denis) Trotskiste français Personnalité de la Ligue communiste révolutionnaire Personnalité du Parti ouvrier indépendant Candidat à une élection présidentielle en France (Cinquième République)
883
https://fr.wikipedia.org/wiki/David%20Lynch
David Lynch
David Lynch est un cinéaste, scénariste, photographe, musicien et peintre américain né le à Missoula (Montana). Il est l'auteur de 10 longs-métrages sortis entre 1977 et 2006, ainsi que d'une série télévisée notable, Twin Peaks, initialement sortie en 1990-91 et prolongée en 2017. Nommé aux Oscars du cinéma comme meilleur réalisateur pour Elephant Man (1980), Blue Velvet (1986) et Mulholland Drive (2001), il a reçu la Palme d'or au Festival de Cannes en 1990 pour Sailor et Lula et un Lion d'or d'honneur à la Mostra de Venise en 2006. Son style novateur et surréaliste, parfois qualifié de « lynchien », est devenu reconnaissable pour de nombreux spectateurs et critiques. Il se caractérise par son imagerie onirique et sa conception sonore méticuleuse. L'imagerie parfois violente de ses films lui confère la réputation de « déranger, d'offenser ou de mystifier » son public. David Lynch porte un regard sombre et halluciné sur la réalité humaine inquiétante qui se dissimule derrière le vernis social, au sein des petites bourgades américaines (dans Blue Velvet ou Twin Peaks) ou de Los Angeles (dans Lost Highway ou Mulholland Drive). Il donne par la suite de nouvelles orientations à sa carrière artistique, se faisant connaître comme peintre, photographe, musicien, designer ou vidéaste web. Depuis la création de sa Fondation David-Lynch en 2005, il s'engage dans la promotion de la méditation transcendantale pour aider les populations dites « à risque ». La critique de cinéma Pauline Kael le qualifie de « premier surréaliste populaire » ; en 2007, un panel de critiques réunis par The Guardian le place en tête d'une liste de 40 réalisateurs, tandis que le site AllMovie le définit comme « l'homme-orchestre du cinéma américain moderne ». Biographie Origine et enfance David Keith Lynch naît à Missoula, dans l'État du Montana, le . Son père, Donald Walton Lynch (1915–2007), est chercheur pour le Département de l'Agriculture des États-Unis (USDA), et sa mère, Edwina « Sunny » Lynch née Sundholm (1919–2004), est professeure d'anglais. Deux des arrière-grands-parents maternels de Lynch étaient des immigrants finno-suédois arrivés aux États-Unis au . Il reçoit une éducation presbytérienne. Les Lynch déménagent souvent au gré des mutations de Donald. Ainsi, ses parents partent s'installer à Sandpoint, dans l'Idaho, quand il a deux mois. Deux ans plus tard, après la naissance de son frère John, la famille part pour Spokane, Washington, où naît la sœur de Lynch, Martha. La famille part ensuite à Durham, en Caroline du Nord, à Boise, en Idaho et à Alexandria, en Virginie. Lynch s'adapte relativement facilement à cette vie itinérante, notant qu'il n'avait généralement aucun problème à se faire de nouveaux amis chaque fois qu'il entrait dans une nouvelle école. Lynch rejoint les Boy Scouts, où il atteint le grade d'Eagle Scout. C'est à ce titre qu'il est présent avec d'autres Boy Scouts à l'extérieur de la Maison Blanche lors de l'investiture du président John F. Kennedy, le jour du quinzième anniversaire de Lynch. Lynch s'intéresse à la peinture et au dessin dès son plus jeune âge, et commence à penser en faire son métier lorsqu'il vit en Virginie, où le père d'un de ses amis est peintre professionnel. Formation Au lycée Francis C. Hammond d'Alexandria, Lynch n'excelle pas sur le plan académique, montrant peu d'intérêt pour le travail scolaire mais est apprécié des autres lycéens. Après son départ, il décide d'étudier la peinture à l'université et commencé ses études à la , Washington, DC, avant de partir en 1964 pour la à Boston, où il partage sa chambre avec le musicien Peter Wolf. Il quitte l'école au bout de seulement un an : « Je n'ai pas DU TOUT été inspiré par cet endroit. » Il choisit de voyager à travers l'Europe pendant trois ans avec son ami : les deux souhaitent étudier auprès du peintre expressionniste autrichien Oskar Kokoschka, mais en arrivant à Salzbourg, ils constatent que celui-ci n'est pas disponible ; déçus, ils repartent pour les États-Unis après seulement deux semaines en Europe. Débuts à Philadelphie et courts métrages De retour aux États-Unis, il s'installe à Philadelphie et s'inscrit en 1965 à l'Académie des Beaux-Arts de Pennsylvanie. Il préfère cette université à sa précédente école de Boston : « À Philadelphie, il y avait de grands peintres, et tout le monde s'influençait mutuellement, c'était une belle époque ». Il a entamé une relation avec une camarade d'études, Peggy Reavey, qu'il épouse en 1967. L'année suivante, Peggy donne naissance à une fille, Jennifer. La famille déménage pour Fairmount, dans la banlieue de Philadelphie. Pour subvenir aux besoins de la famille, Lynch travaille dans l'impression de gravures. À l'Académie de Pennsylvanie, il conçoit l'idée de donner du mouvement à ses peintures et réalise son premier court-métrage, Six Figures Getting Sick (1967). Il passe le film en boucle à l'exposition annuelle de fin d'année de l'Académie, où il partage le premier prix. À la suite d'une commande d'un camarade de classe, il expérimente un mélange d'animation et de direct avec le court métrage de quatre minutes The Alphabet (1968). Ayant appris que l'American Film Institute accorde des subventions aux cinéastes qui pouvaient étayer leur candidature avec une œuvre antérieure et un scénario pour un nouveau projet, Lynch envoie une copie de The Alphabet avec un scénario écrit pour un nouveau court métrage qui serait presque entièrement filmé en direct, The Grandmother, pour lequel l'institut décide de lui accorder un financement. Les figurants sont des proches de Lynch, à son travail et à l'université, et les décors sa propre maison. The Grandmother dépeint un enfant délaissé qui « fait pousser » une grand-mère à partir d'une graine pour prendre soin de lui. Selon les critiques de cinéma Michelle Le Blanc et Colin Odell : « ce film est une véritable bizarrerie mais contient la plupart des thèmes et idées qui surgiront dans son œuvre ultérieure, et montre une remarquable maîtrise du média ». Révélation et consécration (années 1980) Étudiant en arts plastiques, David Lynch, initialement peintre, s'essaie très tôt au cinéma et se livre à diverses expérimentations qui aboutissent à Eraserhead en 1977, film-cauchemar, tourné en noir et blanc et totalement autoproduit. Après avoir vu le film, Mel Brooks décide de confier à Lynch la réalisation dElephant Man (1980), inspiré de la vie de Joseph Merrick. Le film, tourné également en noir et blanc, mêle réalisme et symbolisme et rend hommage au cinéma expressionniste. Il remporte le Grand Prix du Festival d'Avoriaz et le César du meilleur film étranger. Par ailleurs, il apporte la notoriété à son metteur en scène. Impressionnée par ce premier succès, Raffaella De Laurentiis convainc son père Dino d'engager Lynch comme réalisateur de la superproduction Dune (1984), adaptée de l'œuvre de Frank Herbert. Pour ce film de science-fiction, très coûteux et complexe, l'accueil critique et public est mitigé et le réalisateur renie ce film dont il n'a pas réussi à avoir le final cut. Lynch renoue avec le succès en 1986 grâce à Blue Velvet, Grand Prix du Festival d'Avoriaz, thriller à l'ambiance érotique et malsaine avec notamment Kyle MacLachlan, Dennis Hopper et Dean Stockwell. Il s'agit d'un projet écrit avant Dune, que Dino De Laurentiis s'était engagé contractuellement à financer et qui dispose d'un budget assez modeste de de dollars. Durant le tournage, Lynch noue une relation amoureuse qui dure quatre ans avec Isabella Rossellini, l'actrice principale. Son film suivant, Sailor et Lula (Wild at Heart, 1990), qui raconte l'histoire de deux amants en fuite interprétés par Nicolas Cage et Laura Dern, mêle conte, ultra-violence, road movie, polar, film d'aventures et comédie musicale et vaut au cinéaste la Palme d'or du Festival de Cannes. Série télévisée et collaborations européennes (années 1990-2000) En 1989, David Lynch crée, avec le scénariste Mark Frost, la série Twin Peaks. Diffusée de 1990 à 1991 sur ABC, la série deviendra rapidement culte en mêlant le fantastique absurde, le drame et le thriller sur fond d'un crime dans une ville mystérieuse. Même si elle est sélectionnée plusieurs fois aux Emmy Awards, la série sera déprogrammée au bout de deux saisons pour des audiences en baisse, laissant la série sur un cliffhanger. Durant les années 1990, Lynch se sent isolé en tant que créateur dans le système hollywoodien : il n'oublie pas combien la production de Dune a été difficile et il souffre de devoir toujours négocier très longuement son autonomie financière et artistique. Grâce à Pierre Edelman, il signe un contrat en France pour réaliser trois films, à partir de Twin Peaks: Fire Walk with Me. Il est mis en relation avec le producteur Alain Sarde et par la suite avec StudioCanal. Dès lors, ses films sont majoritairement financés par des maisons de production françaises et par sa propre société, Asymmetrical Productions.Une histoire vraie (The Straight Story, 1999), qui narre la traversée du territoire américain en tondeuse à gazon par un vieil homme, marque une rupture avec ses œuvres précédentes. Voulu épuré et sobre, le film, dont le scénario est coécrit par son épouse Mary Sweeney, est plus apaisé et presque optimiste. En 2000, David Lynch crée un studio, avec en projet, une école de cinéma, à Łódź et y réalise des photographies d'usines et de femmes qui sont exposées à Paris en 2004. En 2001 sort Mulholland Drive. Avec ce film qui revient à son esthétique et ses expérimentations habituelles, Lynch reçoit les louanges de la critique, le Prix de la mise en scène à Cannes et le César du meilleur film étranger. Lors de la production, il aurait poussé assez loin le : il aurait refusé de donner des informations à ses producteurs sur le film et la rumeur affirme qu'il leur aurait fait parvenir un scénario sous scellés, voué à être détruit après le tournage. Il aurait considéré à l'époque son producteur français Studiocanal, également chargé de la vente internationale de ses œuvres, comme . Le film est un succès, atteignant les de dollars de recettes. En 2002, David Lynch préside le jury du festival de Cannes qui attribue la Palme d'or au Pianiste de Roman Polanski.Inland Empire, sorti en France le , tourné entre Łódź en Pologne et les États-Unis, est une coproduction franco-polonaise et américaine. Lynch a poussé sa volonté d'indépendance au point de ne communiquer à ses producteurs ni le scénario, ni le budget réel, ni le plan de tournage. Le réalisateur s'isole totalement avec ses acteurs et son épouse et monteuse, Mary Sweeney. Lorsque StudioCanal découvre le film, la déception est grande. Inland Empire est considéré comme trop bizarre, incompréhensible et Le film, qui reçoit un accueil critique contrasté, ne rapporte que de dollars (cinq fois moins que Mulholland Drive, son film précédent). Très affecté par cet échec public, le réalisateur décide de s'écarter du cinéma. Depuis le , il publie sur son site internet une série d’interviews d’Américains moyens, croisés lors d’un voyage dans tous les États-Unis. Il produit ces courts métrages de trois à cinq minutes réalisés par son fils Austin Lynch. Retour télévisuel (années 2010) En 2011, il cherche à réaliser Ronnie Rocket, d'après un ancien scénario écrit après Eraserhead racontant l'enquête, dans les années 1950, sur l'enlèvement d'un nain rockeur dans une ville industrielle. Le projet, qui devait être produit par Pierre Edelman et Alain Sarde, n'a pas trouvé les financements nécessaires à sa réalisation. Son devis se serait élevé à plus de d'euros et le cinéaste aurait refusé de faire la moindre concession sur ses choix artistiques. Mais c'est la télévision qui lui permet de revenir à la réalisation. Il travaille dès 2015 à la suite, tant réclamée par les fans de la série culte Twin Peaks. Produite en 2016, elle est diffusée début 2017 sur Showtime. Les de la saison 3 seront tous réalisés par Lynch et écrits en collaboration avec Mark Frost. En , plusieurs médias font état d'une série en préparation, désignée sous le titre Wisteria, qui serait écrite et réalisée par David, en collaboration avec la productrice Sabrina S. Sutherland et diffusée sur Netflix, avec selon Production Weekly, un tournage en . Vie privée David Lynch a quatre enfants. Il est le père de la réalisatrice Jennifer Lynch née en 1968, dont la mère est la peintre Peggy Reavey. Il divorce lorsque sa fille est âgée de six ans. Son fils Austin Jack Lynch est né en 1982 de son union avec Mary Fisk. Il a été l'époux de sa monteuse et productrice Mary Sweeney. En 2009, il se marie pour la quatrième fois, avec l'actrice Emily Stofle, mère de son quatrième enfant. Analyse de l'œuvre Le travail de David Lynch, qui met monde quotidien et imaginaire sur le même plan, est rebelle à toute étiquette. Il développe, dans ses séries comme dans ses films, un univers surréaliste très personnel où se mêlent cinéma expérimental, cinéma de genre, arts graphiques et recherches novatrices, tant sur le plan dramaturgique que plastique (images hypnotiques, bande sonore inquiétante, goût du mystère, de la bizarrerie et de la difformité...). On note plusieurs références à la peinture (Jérôme Bosch, Edward Hopper, Francis Bacon, etc..). Si Elephant Man, Blue Velvet, Sailor et Lula et Une histoire vraie développent une histoire totalement ou globalement compréhensible, ses autres réalisations brisent les codes d'une narration cinématographique linéaire et conventionnelle. Les lois du film noir en particulier sont utilisées, détournées puis finalement détruites : c'est le cas dans Twin Peaks: Fire Walk with Me (1992), Lost Highway (1997) et Mulholland Drive (2001). Ces deux derniers films sont représentatifs de la manière dont le cinéaste abandonne son intrigue à mi-parcours et passe dans un contexte bouleversé où les acteurs semblent interpréter des rôles différents et où les décors occupent une fonction nouvelle. La lisibilité du récit est volontairement brouillée et une énigme irrésolue se dissémine dans un monde sophistiqué dans lequel le sens s'efface et la frontière entre réalité, cauchemar et hallucination disparaît. Par ailleurs, Lynch n'hésite pas à manipuler certains clichés cinématographiques de manière subversive : dans Blue Velvet, il transforme en cauchemar l'idéalisme des années 1950 et le modèle dominant des banlieues cossues de la classe moyenne blanche. La série Twin Peaks s'amuse, quant à elle, à aller du mélo à l'angoisse, en passant par la comédie. Son cinéma, silencieux et anxiogène, mêle la violence, le macabre et le grotesque à une forme de normalité sociale et cherche à retranscrire la réalité profonde des fantasmes, en passant d'un monde lumineux à un univers nocturne où surgissent des pulsions refoulées. Influences Selon David Lynch, son travail se rapproche à plusieurs égards de celui de cinéastes et réalisateurs européens et il évoque son admiration pour des cinéastes tels que Federico Fellini, Werner Herzog, Alfred Hitchcock, Roman Polanski, Jacques Tati, Stanley Kubrick et Billy Wilder. Boulevard du crépuscule de Wilder (1950) est l'un de ses films préférés, tout comme Lolita de Kubrick (1962), Les Vacances de monsieur Hulot de Tati (1953), Fenêtre sur cour d'Hitchcock (1954) et La Ballade de Bruno de Herzog (1977). Il cite également d'autres influences comme Le Carnaval des âmes de Herk Harvey (1962) et Deep End de Jerzy Skolimowski (1970). Mais l'œuvre de David Lynch puise aussi ses sources dans la peinture, dont celle d'Edward Hopper, de Francis Bacon et Henri Rousseau : Hopper pour le thème de la solitude, Bacon pour les déformations de la chair, et Rousseau pour le thème du mystère, ainsi que d'autres artistes comme Edward Kienholz, Lucian Freud et David Hockney. Parmi les œuvres littéraires qui l'ont marqué, David Lynch mentionne La métamorphose de Kafka, ainsi que d'autres ouvrages comptant parmi ses favoris : Crime et Châtiment de Dostoïevski, The Name Above the Title : An Autobiography de Frank Capra, The Art Spirit de Robert Henri, et Anynymous Photographs de . En ce qui concerne Kafka, David Lynch a un temps travaillé, dès les années 1980, sur une adaptation au cinéma de La métamorphose, sans que toutefois le projet aboutisse : « Une fois achevé le scénario d'une adaptation pour un long métrage, je me suis rendu compte que la beauté de Kafka est dans ses mots. Cette histoire est si emplie de mots qu'une fois le scénario fini, je me suis rendu compte qu'elle était meilleure sur le papier qu'elle ne pourrait jamais l'être sur pellicule ». Par ailleurs, l'œuvre de David Lynch exerce à son tour une influence sur le cinéma contemporain, Serge Kaganski estimant que . Lynch acteur En plus de ses talents variés derrière la caméra (compositeur, monteur, mixeur, décorateur, animateur, producteur, scénariste, cadreur, ingénieur du son, réalisateur), David Lynch est aussi acteur. Il se met lui-même en scène dans la série Mystères à Twin Peaks et le film homonyme, où il tient le rôle de l'agent Gordon Cole, dont la particularité est d'être malentendant. Il collabore également avec d'autres réalisateurs, comme (Zelly and Me, 1988), Michael Almereyda, en endossant le rôle d'un réceptionniste d'une morgue dans Nadja (1994) puis, récemment, dans , un documentaire réalisé en 2006 par . Il joue également dans Lucky de John Carroll Lynch, sorti en 2017. Acteurs récurrents On note aussi que David Lynch collabore à plusieurs reprises avec certains acteurs et professionnels du cinéma et du monde artistique. Il collabore fréquemment, entre autres, avec le compositeur Angelo Badalamenti, son ex-épouse la monteuse et productrice Mary Sweeney, et les acteurs Harry Dean Stanton, Jack Nance, Kyle MacLachlan, Naomi Watts, Isabella Rossellini, Grace Zabriskie, et Laura Dern. Musiciens dans les films de Lynch Lynch semble s'amuser à inclure dans ses castings des musiciens célèbres. Dans Dune, le chanteur Sting joue un rôle de méchant. Dans Sailor et Lula, le musicien John Lurie joue le rôle de Sparky. Dans Twin Peaks: Fire Walk with Me, c'est le chanteur Chris Isaak qui joue un des agents du F.B.I. Dans le même film, on peut voir David Bowie parmi l'équipe du FBI dirigée par le personnage de Lynch. Dans Lost Highway, Henry Rollins joue le rôle d'un gardien de prison et le réalisateur fait apparaître en guest Marilyn Manson et Twiggy Ramirez dans les rôles secondaires de deux pornstars. Dans Mulholland Drive, Angelo Badalamenti interprète Luigi Castigliane et il joue le pianiste dans Blue Velvet Autres activités Plus largement, outre la réalisation cinématographique, David Lynch explore depuis longtemps les arts plastiques dont la peinture et la lithographie, la photographie et la musique. Depuis l'échec commercial du film Inland Empire, David Lynch a multiplié les activités dans des champs artistiques divers, poussé d'une part par une volonté d'expérimentation, et de l'autre pour assurer ses revenus financiers à la suite du ralentissement de son activité de cinéaste et au coût de sa fondation pour la méditation transcendantale. Arts graphiques Lynch a publié de 1983 à 1992 The Angriest Dog in the World, une bande dessinée hebdomadaire au format comic strip dont seules les bulles de dialogue changent d'un épisode à l'autre, les cases restant identiques. David Lynch n'a jamais totalement abandonné la peinture et le dessin qu'il avait étudiés plus jeune. C'est pendant le montage du film que le directeur général de la Fondation Cartier pour l'art contemporain demande à voir ses travaux. Enthousiasmé, il met en œuvre une exposition à Paris. En a lieu l'exposition « The Air Is on Fire », qui regroupe photos, œuvres plastiques et sonores du réalisateur. Au vernissage de l'exposition, le , David Lynch donne devant un auditoire restreint un concert d'une trentaine de minutes avec Marek Zebrowski. Les deux hommes exécutent une improvisation aux synthétiseurs, d'après des écrits de Lynch lus entre les morceaux, et rassemblés sous le nom de Thoughts. C'est à Paris également que Lynch conçoit une grande partie de son œuvre graphique. Lors de son exposition à la fondation Cartier, il découvre, à proximité, l'ancien atelier Mourlot, rue du Montparnasse, devenu Idem Paris (qui abrite les éditions Item), et où il a élu domicile pour réaliser et imprimer ses lithographies, montages photo, etc. Il écrit à ce propos : En 2012, il réalise un court métrage en vidéo noir et blanc intitulé Idem Paris, montrant le tirage de ses lithographies sur les presses de l'atelier. Sa production graphique a notamment fait l'objet d'une exposition au musée du dessin et de l'estampe originale de Gravelines. En 2012, Lynch a exposé ses lithographies et ses courts métrages au FRAC Auvergne (Clermont-Ferrand). Cette exposition a donné lieu à la publication d'un livre et à l'acquisition d'un dessin et de six estampes par la collection du FRAC. En 2013, le centre de la gravure à La Louvière présente « Circle of Dreams - Estampes et courts métrages », un ensemble de lithographies et de courts métrages livrant une parcelle de l’univers du cinéaste américain, fait de rêves et d’angoisses. Il semble que, par son travail graphique, David Lynch ait l'impression de pouvoir renouveler son processus créatif, comme s'il sentait qu'il était arrivé à une limite avec son œuvre cinématographique. Il peut dans son atelier créer avec une pression moindre que celle qui existe lorsqu'il fait un film. Si ses expositions voyagent dans le monde et si ses œuvres se vendent, Lynch semble néanmoins ne pas être encore totalement reconnu dans le milieu de l'art : selon Patrick Steffen, rédacteur en chef de la revue spécialisée Flash Art à Los Angeles, interrogé par Les Inrockuptibles, la curiosité pour ses travaux vient avant tout de sa notoriété en tant que cinéaste. Il est rarement cité dans les revues d'art contemporain et ses peintures n'auraient pas David Lynch a réalisé également des lithographies en hommage au cinéaste italien Federico Fellini. Musique Parmi ses passions, David Lynch compte aussi la musique, à laquelle il s'est souvent essayé, par exemple sur l'album Dark Night of the Soul, de Danger Mouse et Sparklehorse. Outre la musique de sa série Twin Peaks, écrite par Angelo Badalamenti mais à laquelle il participe, il réalise en 2001 l'album , un album blues/rock industriel écrit et interprété avec John Neff. Deux des morceaux de l'album, Mountains Falling et Go Get Some, apparaissent dans son film Mullholland Drive. Tous les instruments sont joués par le duo, et Lynch est non seulement co-interprète, co-producteur et co-créateur des chansons, mais assure aussi le mixage et le design de l'album. En 2010, il prend un tournant plus prononcé en sortant, sous son propre nom, deux titres à tonalité electro, sur un label indépendant, intitulés Good Day Today et I Know. Il lance même un grand concours ouvert aux cinéastes amateurs pour réaliser leur propre clip des titres, avec à la clé une récompense de sterling pour les gagnants ; le concours est remporté par Arnold de Parscau, étudiant rennais. Lynch crée aussi un nouveau site pour rassembler les meilleurs artistes émergents afin de soutenir les œuvres de sa fondation. Il sort en 2011 son premier album solo, Crazy Clown Time, et, en 2013, annonce la sortie de son nouvel album musical, de tonalité blues, The Big Dream. Le , le titre I'm Waiting Here, interprété par David Lynch et la chanteuse Lykke Li, est diffusé sur Internet. Publicité David Lynch réalise, depuis le début des années 1990, une dizaine de spots publicitaires, entre autres pour PlayStation, Calvin Klein, Nissan, Barilla, ou encore Lady Dior avec Marion Cotillard dans les années 2010. Design David Lynch a travaillé ces dernières années sur des projets très différents : il a réalisé une installation exposée en vitrine pour les Galeries Lafayette en 2009 intitulée Machines, Abstraction and Women, a dessiné une bouteille de champagne pour Dom Pérignon et conçu le design intérieur d'une boîte de nuit parisienne, le Silencio, 142 rue Montmartre. Il semble qu'il s'implique fortement dans ce genre de projets. Son entourage déclare qu'il ne s'y engage que s'il a et qu'il a l'assurance de jouir d'une liberté de création totale. Chaîne YouTube Le , il crée sa chaîne YouTube intitulée David Lynch's Theater, sur laquelle il publie sa première vidéo le , celle-ci étant le début d'une série de weather reports sans interruption. En plus des weather reports quotidiens, Lynch y publie également des courts métrages comme Fire (Pozar) ou Rabbits, des présentations de son travail dans une série intitulée What Is David Working on Today?, des conseils de bricolage et de couture, des interviews où il répond aux questions de ses fans, ainsi que, à partir de la période de pandémie de Covid-19 en 2020, un tirage au sort de numéro, Today's Number is.... Engagements divers Méditation transcendantale David Lynch apprend la technique de méditation transcendantale en , et la pratique régulièrement depuis. Il évoque dans son livre, Catching the Big Fish, l'impact de cette technique sur son processus créatif. En 2005, il crée la « Fondation David Lynch pour la paix mondiale et une éducation fondée sur la conscience » pour procurer des bourses de financement aux lycéens, étudiants et autres populations dites « à risque », intéressés par l'apprentissage de la technique de Méditation Transcendantale et pour financer la recherche sur la technique et ses effets sur l'apprentissage. Il assiste à la crémation de Maharishi Mahesh Yogi en Inde en 2008. En 2009, il se rend une nouvelle fois en Inde pour effectuer des interviews de personnes ayant côtoyé Maharishi Mahesh Yogi dans le but de réaliser un documentaire biographique. Le , à l'occasion du cinquantième anniversaire de la première venue en France de Maharishi Mahesh Yogi, le cinéaste donne une conférence de presse à Lille pour parler des bénéfices que l'on pourrait attendre de la Méditation transcendantale pour lutter contre la violence à l'école, une démarche qu'il souhaiterait expérimenter en France dans une dizaine d'établissements scolaires de banlieue. David Lynch a aussi donné une série de conférences en faveur de la Méditation transcendantale dont des séquences ont été filmées et réunies par la Fondation David Lynch dans un documentaire de 2012, Meditation, Creativity, Peace. Le jeune réalisateur du documentaire de 2010 David et les yogis volants (titre original : David wants to fly), David Sieveking, porte un regard critique sur Lynch autant que sur les rajas, responsables nationaux du mouvement de Méditation transcendantale. Attentats du 11 septembre 2001 Dans un entretien diffusé le dans l'émission Wereldgasten sur la chaîne de télévision hollandaise VPRO, puis dans l'émission de radio d'Alex Jones aux États-Unis, David Lynch affiche sa perplexité quant à l'explication gouvernementale des attentats du 11 septembre 2001 sans lui préférer pour autant d'autres théories : Élections présidentielles Il annonce, le , son soutien au candidat démocrate Bernie Sanders pour l'élection présidentielle américaine de 2016, via un message posté sur Twitter. Distinctions Cette section récapitule les principales récompenses et nominations obtenues par David Lynch. Pour une liste plus complète, consulter IMDb. Récompenses Festival international du film fantastique d'Avoriaz 1978 : Antenne d'or pour Eraserhead Festival international du film fantastique d'Avoriaz 1981 : Grand Prix pour Elephant Man César du cinéma 1982 : César du meilleur film étranger pour Elephant Man Prix du Syndicat Français de la Critique de Cinéma 1982 : meilleur film étranger pour Elephant Man Festival international du film de Catalogne 1986 : meilleur film pour Blue Velvet Festival international du film fantastique d'Avoriaz 1987 : Grand Prix pour Blue Velvet Saturn Awards 1993 : Life Career Award Festival de Cannes 1990 : Palme d'or pour Sailor et Lula Prix du cinéma européen 1999 : Meilleur film non-européen pour Une histoire vraie Festival de Cannes 2001 : Prix de la mise en scène pour Mulholland Drive César du cinéma 2002 : César du meilleur film étranger pour Mulholland Drive Festival international du film de Stockholm 2003 : Prix spécial pour l'ensemble de sa carrière Mostra de Venise 2006 : Lion d'or d'honneur pour l'ensemble de sa carrière Oscars 2020 : Oscar d'honneur pour l'ensemble de sa carrière Nominations et sélections Oscars 1981 : meilleur réalisateur et meilleur scénario adapté pour Elephant Man Golden Globes 1981 : meilleur réalisateur pour Elephant Man BAFTA Awards 1981 : meilleur réalisateur et meilleur scénario pour Elephant Man Directors Guild of America Awards 1981 : meilleur réalisateur de film pour Elephant Man Writers Guild of America Awards 1981 : meilleur scénario adapté pour Elephant Man Prix Hugo 1985 : meilleur film pour Dune Oscars 1987 : meilleur réalisateur pour Blue Velvet Golden Globes 1987 : meilleur scénario pour Blue Velvet Independent Spirit Awards 1987 : meilleur réalisateur et meilleur scénario pour Blue Velvet Writers Guild of America Awards 1987 : meilleur scénario original pour Blue Velvet Primetime Emmy Awards 1990 : meilleure série, meilleure réalisation et meilleur scénario pour une série télévisée dramatique pour Twin Peaks Ruban d'argent 1991 : meilleur réalisateur de film étranger pour Sailor et Lula Festival de Cannes 1992 : Palme d'or pour Twin Peaks: Fire Walk with Me Saturn Awards 1993 : meilleur scénario pour Twin Peaks: Fire Walk with Me Festival de Cannes 1999 : Palme d'or pour Une histoire vraie Independent Spirit Awards 2000 : meilleur réalisateur pour Une histoire vraie Festival de Cannes 2001 : Palme d'or pour Mulholland Drive Oscars 2002 : meilleur réalisateur pour Mulholland Drive Golden Globes 2002 : meilleur réalisateur et meilleur scénario pour Mulholland Drive Saturn Awards 2002 : meilleur réalisateur pour Mulholland Drive Prix Edgar-Allan-Poe 2002 : meilleur film pour Mulholland Drive Ruban d'argent 2002 : meilleur réalisateur de film étranger pour Mulholland Drive Décorations , en 2002 ; , en 2007. Filmographie Longs métrages 1977 : Eraserhead (Labyrinth man pour sa sortie en France) 1980 : Elephant Man (The Elephant Man) 1984 : Dune 1986 : Blue Velvet 1990 : Sailor et Lula (Wild at Heart) 1992 : Twin Peaks: Fire Walk with Me 1997 : Lost Highway 1999 : Une histoire vraie (The Straight Story) 2001 : Mulholland Drive 2006 : Inland Empire Courts métrages 1967 : Six Figures Getting Sick (animation) 1968 : The Alphabet (animation) 1970 : The Grandmother (moyen métrage) 1973 : The Amputee (court-métrage de 4 min en 1/2" vidéo noir et blanc) 1988 : Les Français vus par les Français - segment The Cowboy and the Frenchman (court-métrage de 22 min en couleurs) 1990 : Industrial Symphony No. 1: The Dream of the Broken Hearted (en collaboration avec Angelo Badalamenti) 1995 : Lumière et Compagnie - segment Lumière, (Premonition following an Evil Deed) 2007 : Out Yonder – Neighbor Boy 2002 : Darkened Room 2002 : Industrial Soundscape 2004 :Bug Crawls 2007 : Steps 2007 : Boat 2007 : Chacun son cinéma - segment Absurda 2007 : Ballerina 2007 : Out Yonder: Chicken 2010 : Lady Blue Shanghai 2011 : I Touch A Red Button Man (sur une bande son d'Interpol) 2011 : The 3 Rs (film d'ouverture du Festival international du film de Vienne) 2012 : Idem Paris, court métrage documentaire sur la lithographie 2015 : Fire (Pozar). 2017 : Qu'a fait Jack ? (What Did Jack Do?) 2017 : David Lynch's Comic-Con Message (vidéo promotionnelle pour la saison 3 de Twin Peaks) 2018 : Ant Head 2020 : The Story of a Small Bug 2020 : The Adventures of Alan R. 2020 : I Have a Radio Compilation 2014 : , compilation de scènes inédites. Séries 1990-1991 : Twin Peaks (saisons 1 et 2 sur ABC d' à ) 1990 : American Chronicles 1992 : On the Air 1993 : Hotel Room (épisodes Blackout et Tricks) 2002 : Rabbits (disponible sur sa chaîne YouTube) 2002 : Dumbland (8 épisodes) - dessin animé 2017 : Twin Peaks: The Return (saison 3) 2018 : Boris Bunny (1 épisode) - animé Contributions 2010 : 2012: Time For Change, documentaire de João Amorim Dans The Cleveland Show, série créée par Seth MacFarlane, David Lynch prête sa voix au barman Gus, personnage lui ressemblant étrangement. 2012 : Intervention en tant qu'ami dans le film documentaire Harry Dean Stanton : Partly Fiction de Sophie Huber 2013 : participation pour 3 épisodes de la saison 3 de Louie, série du comédien Louis C.K. 2017 : Interprète le rôle de Howard dans Lucky, film de John Carroll Lynch. Clips 1995 : Longing 〜setsubou no yoru〜 de X Japan 2009 : Shot in the Back of the Head de Moby 2013 : Came Back Haunted de Nine Inch Nails Discographie Albums 2001 : en duo avec John Neff. Label : Solitude Records 2011 : Crazy Clown Time 2013 : Singles 2007 : Ghost of Love 2010 : Good Day Today Albums en collaboration avec d'autres artistes 1998 : Lux Vivens (Living Light): The Music Of Hildegard Von Bingen en duo avec Jocelyn Montgomery. Label : Mammoth Records / PolyGram Music 2008 : (avec Marek Żebrowski) 2012 : avec Angelo Badalamenti Bandes-son avec d'autres artistes Eraserhead: Original Soundtrack avec Alan Splet, 1982 David Lynch's Mulholland Drive: Music from the Motion Picture avec Angelo Badalamenti, 2001 , 2007 David Lynch's Inland Empire: Soundtrack, 17 pistes, divers artistes, 2007 , avec Angelo Badalamenti, 2007 The Twin Peaks Archive, avec Angelo Badalamenti, 2011 Autres projets musicaux 1982 : Eraserhead en duo avec Alan Splet. Label : Alternative Tentacles / I.R.S. 1990 : Industrial Symphony No. 1: The Dream of the Broken Hearted en duo avec Angelo Badalamenti 2003 : en duo avec John Neff. Label : Solitude Records 2007 : , Fondation Cartier pour l'art contemporain. Label : Strange World Music 2009 : Dark Night of the Soul : illustration photographique et participation vocale à certains titres (Star eyes et Dark night of the soul) de l'album réalisé en collaboration par Danger Mouse et Mark Linkous de Sparklehorse 2011 : This Train (avec Chrysta Bell) Publications et références De David Lynch . David Lynch, Works on paper, publié à la suite de l'exposition « David Lynch, The Air is on Fire » à la fondation Cartier de , Steidl, 2011 David Lynch et Kristine McKenna, L'Espace du rêve [« Room to Dream »], trad. de Carole Delporte et Johan Frederik Hel Guedj, Paris, Éditions JC Lattès, 2018, 600 p. Sur David Lynch Essais, études francophones « David Lynch », Les Inrockuptibles, hors-série sous la direction de Christian Fevret, trimestre 2004 Le Purgatoire des sens : "Lost Highway", de David Lynch, Guy Astic, Rouge profond, 2004 Twin Peaks, les laboratoires de David Lynch, Guy Astic, Rouge profond, 2005 « Violence et psychopathologie dans l'œuvre cinématographique de David Lynch », thèse d'exercice d'Anne Sabatier (médecine), Dijon, 2005 Mulholland Drive, de David Lynch (Dirt Walk With Me), Hervé Aubron, Yellow Now, 2006 David Lynch, collection Maîtres du cinéma, de Thierry Jousse, Cahiers du cinéma, 2007 David Lynch. Un cinéma du maléfique, Enrique Seknadje, Camion Noir, 2010 David Lynch : image, matière et temps, Éric Dufour, Paris, Vrin, , 2008 David Lynch - Man Waking From Dream, sous la direction de Jean-Charles Vergne, textes français/anglais de J.-C. Vergne, Mathieu Potte-Bonneville, Pierre Zaoui, 180 p., 150 reproductions couleur ; publié à l'occasion de l'exposition de David Lynch au FRAC Auvergne, Clermont-Ferrand, trimestre 2012 « La musique et les textures sonores comme éléments du récit filmique dans l'œuvre de David Lynch, d'''Eraserhead (1977) à Inland Empire (2006) », Emmanuelle Bobée, thèse de musicologie sous la direction de Pierre-Albert Castanet et de Gilles Mouëllic, université de Rouen, 2015 David Lynch, Michelle Le Blanc, Colin Odell, 2000, Harpenden, Hertfordshire: Pocket Essentials . Films 1989 : David Lynch: Don't Look at Me, documentaire de la série Cinéastes de notre temps réalisé par Guy Girard 2007 : Le Son de David Lynch, documentaire de Elio Lucantonio et Michaël Souhaité, avec David Lynch, Angelo Badalamenti et Michel Chion 2010 : Lynch (One), documentaire de Jason Scheunemann (aka Blackandwhite) tourné sur deux ans à l'occasion du tournage dInland Empire 2013 : La Vie rêvée de David L., long métrage français, réalisé par Paul Lê et Julien Pichard 2016 : David Lynch : The Art Life, documentaire américain de Jon Nguyen, Rick Barnes et Olivia Neergaard-Holm Notes et références Voir aussi Article connexe Fondation David-Lynch Liens externes Site officiel de David Lynch Article analysant la « peur » chez Lynch, Implications philosophiques'' Olivier Varlet, « David Lynch. L’étrange voyage », Jeune Cinéma n° 270, septembre- Chaîne YouTube officielle de David Lynch Bases de données et notices : Réalisateur américain Réalisateur lauréat de la Palme d'or Prix de la mise en scène au Festival de Cannes Présidence du jury du Festival de Cannes Officier de la Légion d'honneur Étudiant du conservatoire de l'American Film Institute Critique de la version officielle sur les attentats du 11 septembre 2001 Personnalité américaine née d'un parent finlandais Naissance en janvier 1946 Naissance à Missoula
885
https://fr.wikipedia.org/wiki/Dublin
Dublin
Dublin ( ; en anglais local : ; en irlandais : ou ) est la plus grande ville de l'île d'Irlande et de l'État d'Irlande, dont elle est la capitale (Belfast étant la capitale de l'Irlande du Nord). La ville est située sur la côte orientale de l'île et au centre du comté de Dublin. Dublin est la plus grande ville d'Irlande en importance et en nombre d’habitants depuis le haut Moyen Âge. Elle est aujourd’hui classée à la soixante-sixième place dans l’index des places financières mondiales et a un des plus forts taux de développement parmi les capitales européennes. Dublin est le centre historique, politique, artistique, culturel, économique et industriel de l’Irlande. La population de la commune de Dublin est de au recensement de 2016. Au même recensement, le comté de Dublin compte tandis que la région du Grand Dublin abrite . Toponymie Le nom de « Dublin » est généralement considéré comme provenant du gaélique originel Dubh Linn (« l'étang noir ») qui signifie maintenant « baie de la fumée », le nom d'un bassin d'un affluent de la Liffey, près duquel s'est érigée la première place forte des Vikings irlandais, ou Gall Gàidheal. Des doutes existent cependant à ce propos. En effet, la première référence à l'existence de la ville se trouve dans les écrits de Ptolémée aux environs de 140. Elle est alors désignée sous le nom de Eblana. La proximité de ce nom avec le nom actuel (b, l et n en commun) fait donc douter sur le lien entre Dublin et Dubh Linn, mais on ne sait pas si ces deux origines sont liées. Le nom Dubh Linn se retrouve également en islandais : djúp lind (mare profonde), en gallois : Dulyn (du noir, et llyn lac, étang) et en breton : Dulenn (du noir, et lenn étang, mare, lac). Le nom gaélique contemporain (« La ville du gué des haies de roseaux ») fait référence au hameau qui se trouvait près du site de fondation de Dublin. Géographie Site La ville est située à peu près au milieu de la côte est de l'Irlande, le long d'une baie, à l'embouchure de la Liffey et au centre de la région du Grand Dublin. Au sud de la ville s'étendent les montagnes de Wicklow. Climat Son climat est typiquement océanique. On peut le comparer au climat de Vancouver. Les hivers sont doux (environ ) et les étés frais (environ ). Les précipitations, d'un total de , sont bien réparties tout au long de l'année. Histoire Origines Selon Ptolémée, Eblana existait dès l'an 140. Le village celtique Áth Cliath (le gué de la haie) est en fait antérieur à la fondation de Dublin en tant que « Dubh Linn » par les Vikings au . En l'an 837, Thorgis y revient pour la deuxième fois, accompagné cette fois d'une flotte de cent-vingt bateaux viking. Soixante d'entre eux remontent la rivière Boyne, les soixante autres la rivière Liffey. Selon les annales de l'époque, cette formidable force militaire se rassemble sous son autorité. Inconnu dans son propre pays, tous les récits relatifs à ses conquêtes se trouvent en Irlande et dans les îles britanniques. À leur arrivée à Dublin, ses hommes s'emparent de cette communauté de pêcheurs et agriculteurs et érigent un solide fort selon les méthodes de construction scandinaves, sur la colline où se trouve l'actuel château de Dublin. Les noms modernes de Dublin font référence à cette double origine : le hameau originel pour le nom gaélique, et le village viking pour la version anglaise. Le roi Brian Boru, surnommé Boroimhe, Brian Mac Cenneidigh, né en l'an 941 dans le Thomond en Irlande, fut inhumé à Dublin en l'an 1014, à l'âge de . Il a tenté une unification de l'Irlande ; il est décédé à la bataille de Clontarf le , dans sa tente, un vendredi saint. L'occupation anglaise Après l'invasion de l'Irlande par les Anglo-Normands (1170/1171), Dublin a remplacé la colline de Tara comme capitale de l'Irlande, le pouvoir s'installant au château de Dublin jusqu'à l'indépendance. Un évêché y fut érigé en 1018 ; en 1213 les Anglais, qui s'en étaient rendus maîtres, y élevèrent un château, fortifié au . À partir du , la ville s'est développée rapidement, croissance qui sera rationalisée cinquante ans plus tard par le percement de boulevards, sous la Wide Streets Commission créée en 1757. En 1700, la population dépasse , ce qui en fait la deuxième ville de l'empire britannique, alors réduit aux îles et aux colonies d'Amérique du Nord et des Antilles. Après leur victoire à la bataille de la Boyne en 1690, les troupes protestantes de Guillaume d'Orange, parmi lesquelles français, ont installé nombre de leurs hommes à Dublin, pour se démarquer des protestants controversés qui avaient colonisé l'Ulster et le Munster depuis un siècle. Les 239 huguenots de Dublin ont une sépulture collective, Huguenot House dans la petite rue de Mansion Row près du parc de St Stephen's Green, créé en 1693 dans le nouveau Dublin, où sont gravés les noms de 239 d'entre eux, répertoriés par ordre alphabétique. Leur domination politique et culturelle est facilitée par l'exil pour la France de jacobites au moment du Traité de Limerick, parmi lesquels on compte l'essentiel de la noblesse catholique irlandaise, dont une large partie avait déjà été expropriée, dans les régions de Munster (centre-ouest) et l'Ulster depuis un siècle. Londres ne prétend pas transformer en propriétaires terriens cette nouvelle vague de protestants, qui ont connu la vie aux Pays-Bas, et préfère les voir réunis à Dublin pour contrer d'éventuels débarquements jacobites, au départ du port français de La Hougue. Depuis le début de l'occupation anglaise au , la ville a joué le rôle de capitale de l'île irlandaise, sous toutes les formes qu'a pu prendre l'autorité politique : la Seigneurie d'Irlande (1171-1541) ; le Royaume d'Irlande (1541-1800) ; l'île en tant que membre du Royaume-Uni (1801-1922) ; la République irlandaise (1919-1922). Capitale de l'Irlande indépendante L'Insurrection de Pâques en 1916 place la capitale dans l'instabilité, et la guerre anglo-irlandaise, tandis que la guerre civile irlandaise a laissé la ville en ruines, beaucoup de ses plus beaux bâtiments ayant été détruits. L'État d'Irlande a reconstruit une grande partie des bâtiments de la ville, mais sans prendre de réelle initiative pour moderniser la ville ; le parlement a été déplacé dans la Leinster House. À partir de 1922, à la suite de la partition de l'Irlande, Dublin est la capitale de l'État libre d'Irlande (1922–1937) puis de la République d'Irlande. Après la Seconde Guerre mondiale (connue comme « » en référence à l'état d'urgence décrété de 1939 à 1946), Dublin était une capitale vieillotte, le renouvellement de la ville était lent. En juin 1969, Dublin accueille avec chaleur l'ancien président de la République française, Charles de Gaulle, qui a commencé son séjour en Irlande le 10 mai à Sneem, dans le comté d'York. Le mardi 17 juin, il arrive à Dublin en fin de matinée, venant de Killarney, dans le Kerry. Le président de la République d'Irlande, Eamon de Valera, l'invite à un dîner intime. Le 18 juin, le général de Gaulle visite le Musée National irlandais à Dublin et ensuite le monastère de Glendalough. Il est invité par l'ambassadeur de France à déjeuner à la résidence de France. Le soir, un diner officiel est offert par le président De Valera, en présence de l'ensemble du gouvernement irlandais. Le 19 juin à 11 h, au palais présidentiel, il reçoit les membres du clan Mac Cartan ; en effet, son arrière grand-mère maternelle était une Mac Cartan. Un déjeuner est offert ensuite par le Toiseach (Premier Ministre), au château de Dublin. Le Général porte un toast « à l'Irlande toute entière ». Vers 16 h, il quitte Dublin par avion du GLAM et atterrit en fin d'après-midi sur la base aérienne 113 de Saint-Dizier où son chauffeur l'attend pour le ramener à la Boisserie, à Colombey les Deux Églises. Dublin fut plusieurs fois touchée par des attentats en lien avec le conflit nord-irlandais, comme ceux de 1974. À partir des années 1990 et la période du tigre celtique, la ville a connu de nombreuses transformations, notamment par la création de nouveaux quartiers, bâtiments et infrastructures, dans le centre mais aussi en périphérie, ainsi que par l'arrivée de nouvelles populations constituées de jeunes actifs originaires d'Europe et d'Asie. Les infrastructures ont été bouleversées, avec l'avènement du DART (train de banlieue de type RER) et du LUAS (tramway), qui ont permis à la ville de disposer d'un système de transports urbains digne d'une ville européenne moderne. La création de deux lignes de métro est également projetée à l'horizon 2025. Ainsi, Dublin, qui avait un aspect plutôt provincial jusque dans les années 1990, a beaucoup changé, du fait d'une frénésie immobilière et urbanistique. Économie Industries Dublin est le centre industriel de l'Irlande, avec notamment de nombreuses activités dans le port de Dublin. De nombreuses multinationales pharmaceutiques se sont implantées à Dublin et dans sa banlieue, comme Pfizer. L'usine Guinness, située dans Dublin même, porte de St James, est un des premiers entrepôts ayant servi à la fabrication de la Guinness, désormais convertis en un gigantesque musée consacré à l’histoire de la marque. Secteur tertiaire Le secteur tertiaire s'est fortement développé depuis l'époque du Tigre celtique dans les années 1990, notamment dans le domaine des nouvelles technologies de l'information et de la communication. La ville abrite les sièges européens ou les principaux centres opérationnels de Google, Facebook, Amazon, eBay, PayPal, Yahoo!, Twitter, Accenture, Xerox, Provectio et Salesforce.com. À l'ouest de Dublin, Leixlip accueille Intel et Hewlett-Packard. Le centre opérationnel de Microsoft pour l'Europe, le Moyen-Orient et l'Afrique est situé dans la zone d'activités de Sandyford, au sud de Dublin. Un important centre d'affaires, l'International Financial Services Centre, a été construit dans le quartier de North Wall. Dublin a également vue la création d'un pôle de compétence par l'installation de nombreuses entreprises multinationales de haute technologie (informatique principalement), attirées par une fiscalité très favorable et l'amélioration des infrastructures grâce aux aides européennes consécutives à l'entrée de l'Irlande dans l'Union européenne. Culture Littérature, théâtre et arts La ville de Dublin a une formidable histoire littéraire, ayant produit de très grandes figures de la littérature comme les Prix Nobel William Butler Yeats, George Bernard Shaw et Samuel Beckett ou les auteurs Oscar Wilde, Jonathan Swift et même le créateur de Dracula, Bram Stoker. Dublin est aussi célèbre comme étant le lieu d’action des plus grandes œuvres de James Joyce. Dubliners est un recueil de nouvelles à propos d’évènements et de résidents de la ville au tout début du . Son œuvre la plus célèbre, Ulysse se déroule aussi à Dublin et fourmille de détails décrivant la ville. En hommage à cette œuvre fondamentale, le Bloomsday (référence à Léopold Bloom, protagoniste de l'œuvre) est célébré chaque année le 16 juin et est l'occasion de voir les Irlandais défiler et déambuler sur les traces de Bloom. D’autres écrivains dublinois sont aussi célébrés, comme John Millington Synge, Seán O'Casey, Brendan Behan, et plus récemment Maeve Binchy et Roddy Doyle. Les plus grandes bibliothèques d’Irlande se trouvent à Dublin, la Bibliothèque nationale d'Irlande ou la Bibliothèque Chester Beatty. La littérature et la poésie jouent un rôle fondamental dans la vie de la ville et de manière générale en Irlande. Ainsi, un musée (le Dublin Writers Museum) regroupe des manuscrits et des objets originaux ayant appartenu à de nombreux écrivains, de Swift à Seamus Heaney. Il existe de nombreux théâtres à Dublin. Ceux-ci ont formé quelques acteurs mondialement célèbres comme Noel Purcell, Brendan Gleeson, Stephen Rea, Colin Farrell, Colm Meaney et Gabriel Byrne. Les théâtres les plus connus sont l’Abbey Theatre, le Gate Theatre, le Gaiety Theatre et l’Olympia. L’ a été fondé en 1904 par un groupe d’écrivains dont Yeats, dans le but de promouvoir les talents littéraires des auteurs irlandais. Il a permis de faire découvrir les œuvres d’auteurs comme Shaw, Synge, O'Casey, et en même temps de servir de tremplin au réveil national et politique du début du . Le Gate Theatre a été fondé en 1928 pour promouvoir les œuvres européennes et américaines d’avant-garde. Le est quant à lui spécialisé dans les productions musicales: opéras, comédies musicales, ballets. Le plus grand théâtre est le Mahony Hall. Dublin est aussi le point central de l’art Irlandais. On y trouve les musées les plus importants du pays. Le Livre de Kells est conservé au sein de la bibliothèque de Trinity College. La Chester Beatty Library possède de très nombreux manuscrits, dessins et autres livres rares dont les plus anciens documents remontent à 2700 ans Les œuvres artistiques des artistes Irlandais peuvent être contemplées dans de très nombreux musées situés à Dublin et dans les galeries d’art du centre-ville. Les principaux musées sont la Galerie nationale d'Irlande, le musée irlandais d'art moderne, la Hugh Lane Municipal Gallery et le musée national d'Irlande répartis en trois sites, l’archéologie dans Kildare Street, les arts décoratifs et l’histoire dans les Collins Barracks et l’histoire naturelle dans Merrion Street. Il existe également de nombreuses galeries commerciales (privées) dont l'entrée est toujours gratuite. L'une est d'ailleurs tenue par un Français : la galerie Olivier Cornet, en haut du Parnell Square (3 Great Denmark Street). Expositions 1865 - Exposition internationale d'arts et métiers (International Exhibition of Arts and Manufactures) 1874 - Exposition internationale d'arts et métiers Loisirs Il existe une vie nocturne très dynamique à Dublin. La ville est une des plus jeunes d’Europe avec près de 50 % de la population âgée de moins de . De plus Dublin a été élue en 2007 et 2009 ville la plus amicale d’Europe. Comme le reste de l’Irlande, Dublin est parsemée de pubs. Temple Bar, quartier situé sur la rive sud de la Liffey, est le lieu d’attraction d’une foule venue de toute la ville et de très nombreux touristes venus prendre les pubs d’assaut. Ce quartier a été développé en quartier culturel avec des galeries d’art, le centre national du cinéma (Irish Film Institute), des studios de photographie. De très nombreuses animations y sont organisées. Les rues autour de St Stephen's Green comptent de très nombreuses boîtes de nuit. Dublin a accueilli le Fleadh Cheoil en juin 1972. La ville a accueilli le concours Eurovision de la chanson à six reprises : en 1971,1981,1988,1994,1995 et 1997, c'est la ville qui a accueilli le concours le plus de fois. Les concerts sont très populaires. Depuis les petits groupes de musique traditionnelle jusqu’au hard rock toutes les tendances musicales se retrouvent dans les différents pubs. De nombreux artistes ont fait leurs premiers pas à Dublin, au premier rang desquels U2, The Dubliners, The Boomtown Rats, Thin Lizzy, Sinéad O'Connor et The Cranberries ou encore Shook Up! La ville compte aussi un des parcs zoologiques les plus anciens du monde, le Zoo de Dublin, situé dans Phoenix Park, administré par la Société de Zoologie d'Irlande. Communications Radio Telefís Éireann (RTE) est la chaîne nationale de radio et télévision ; son siège se trouve à Dublin où sont également installés ses principaux studios. Fair City est un feuilleton produit par la chaîne dont l'action se déroule dans une banlieue fictive, Carraigstown. TV3, la seule chaîne privée nationale, est aussi basée à Dublin, et importe la plupart de ses programmes des télévisions britanniques et américaines, cherchant à atteindre un public jeune. Les principaux bureaux des services postaux, téléphoniques (fixes et mobiles) sont également implantés à Dublin, tout comme de nombreuses stations de radio et la plupart des quotidiens nationaux. Société Northside & Southside Il existe traditionnellement une opposition entre le nord et le sud de la ville, avec la ligne de démarcation formée par la Liffey. Le Northside est plus pauvre et ouvrier, tandis que le Southside est considéré comme plus aisé, occupé par les classes moyennes et supérieures. Cette division se retrouve dans les codes postaux attribués aux quartiers, le nord ayant des numéros impairs tandis que les numéros pairs sont attribués aux quartiers sud. Cette division date d'il y a des siècles, sans doute à l'époque où le comte de Kildare a construit sa résidence au sud, à l'époque peu développé, et a été rapidement suivi par ses pairs ; quand on lui demandait pourquoi il allait s'installer au sud, il répondait « Où je vais me suit la mode ». En opposition, bien que le sud soit plus aisé, la résidence officielle du président d'Irlande (Áras an Uachtaráin) se trouve au nord (mais avec le code postal 8, normalement du sud). La résidence de l'archevêque catholique de Dublin et de son homologue anglican jusqu'en 1920 sont elles aussi situées dans le Northside, ainsi que l'une des banlieues les plus riches de Dublin, la colline de Howth. Il existe également de nombreuses banlieues ouvrières dans le sud, comme Palmerstown, Crumlin et Ballyfermot. Dublin 4 Les classes moyennes de Dublin sont souvent appelées Dublin 4, en référence au code postal de l'un des quartiers les plus riches de Dublin, dans lequel se trouvent les studios de la radio nationale, Radio Telefís Éireann, ainsi que bon nombre d'écoles et de lycées réputés, une université et les ambassades. Le campus moderne de l'University College of Dublin se trouve à la limite entre Dublin 4 et Dublin 14. En fait, le terme Dublin 4 ou son abréviation D4 peut s'appliquer à n'importe quel Dublinois de classe moyenne, aussi bien du Northside que du Southside, ou plus souvent à une attitude que l'on peut trouver partout ailleurs en Irlande. De nombreux politiciens et politologues vivent à Dublin 4, et ce quartier prend traditionnellement des positions très libérales lors des référendums sur des sujets tels que l'avortement ou le divorce. Dublin 4 est également associé à un certain accent (pas vraiment spécifique à ce quartier), que certains apprécient et d'autres abhorrent. Sport Pratiquement toutes les fédérations sportives irlandaises ont leur quartier général à Dublin. La capitale irlandaise est en 2010 la « Capitale européenne du sport ». Avec ses assises, Croke Park est la quatrième plus grande enceinte sportive d’Europe. Ce stade accueille traditionnellement les sports gaéliques que sont le hurling et le football gaélique. Il accueille aussi des matchs internationaux de rugby, et des concerts comme ceux de U2 ou de Robbie Williams. Le stade de Lansdowne Road, appartenant conjointement aux fédérations de rugby et de football reçoit les matchs des équipes nationales de ces deux sports. Nommé Aviva Stadium, il atteint une capacité d’accueil de . Ce nouveau stade a accueilli en 2011 la finale de la Ligue Europa. Le Donnybrook Rugby Ground est le terrain traditionnel de l'équipe de Leinster Rugby ; à cause de son manque de place, le club déménage en 2007 à la RDS Arena. Dublin compte six équipes professionnelles de football : Shamrock Rovers, Bohemian FC, Shelbourne FC, St. Patrick's Athletic, UC Dublin. Il y a également plusieurs champs de course dans l'agglomération de Dublin, dont Shelbourne Park (course de lévriers) et Leopardstown (courses hippiques). Enfin, on trouve également de nombreux autres stades, destinés au basket-ball, au handball gaélique, au hockey sur gazon ou à l'athlétisme. Monuments et lieux d'intérêt Dans la ville se trouve une importante architecture géorgienne, et des lieux ayant gardé le souvenir de l'histoire littéraire irlandaise (Jonathan Swift, Oscar Wilde, George Bernard Shaw, William Butler Yeats, James Joyce, Samuel Beckett…) Parmi les sites à visiter, les plus intéressants sont : Trinity College, université fondée en 1592 par Élisabeth d'Angleterre et qui abrite le Livre de Kells, manuscrit enluminé datant d'environ 800, ce qui en fait l'un des livres les plus anciens au monde la Banque d'Irlande, bâtiment qui abritait à l'origine le Parlement irlandais la Cathédrale Christ Church, dont certaines parties remontent à la construction danoise d'origine la Cathédrale Saint-Patrick la Pro-cathédrale Sainte-Marie de Dublin, cathédrale catholique de Dublin la Poste centrale de Dublin (GPO, General Post Office), site de la proclamation de la République d'Irlande en 1916 pendant le Soulèvement de Pâques le Château de Dublin, anciennement centre du pouvoir britannique en Irlande le Musée des écrivains de Dublin le Musée national d'Irlande ; la Galerie nationale d'Irlande le Ha'penny Bridge, qui doit son nom au péage (un demi-penny) dont devaient s'acquitter les usagers la Prison de Kilmainham, transformée en musée de l'histoire du nationalisme irlandais O'Connell Street, une des principales avenues de Dublin Il y a aussi de nombreuses places et squares recelant des trésors de l'architecture géorgienne : St Stephen's Green, Merrion Square, Ely Place, Fitzwilliam Square… Le quartier le plus richement doté en restaurants est celui de Temple Bar, ancien, intéressant et en pleine renaissance. Cependant, les autorités dublinoises essaient de réduire le nombre d'enterrements de vie de jeune fille ou de garçon (les Stag nights), qui envahissent ce quartier chaque semaine. Pour apprécier un autre aspect de la ville, on peut visiter le paisible village de Sutton. Éducation Dublin est le principal centre d'enseignement supérieur en Irlande. La ville est dotée de trois universités. L’université de Dublin (protestante à l'origine) est la plus ancienne, fondée au . Son unique faculté, Trinity College, a été créée par un édit royal sous le règne d'Élisabeth d'Angleterre. L’université Nationale d'Irlande a son siège à Dublin, tout comme la direction de l’University College Dublin, une faculté autonome depuis 1997, son principal organisme. Un autre de ses départements, l’université Nationale d'Irlande de Maynooth, est basé à environ de Dublin. Dublin City University est l'université la plus récente créée en Irlande. Elle est spécialisée dans le commerce, l’ingénierie et les sciences industrielles, et dispose d'importants centres de recherche. Le Collège Royal des Chirurgiens d'Irlande est une école médicale indépendante basée à Stephen's Green, dans le centre. Dublin Institute of Technology, l’institut de technologie de Dublin, est une école d’ingénieurs moderne, la plus grande structure d'enseignement supérieur du pays qui ne soit pas une université ; ses spécialités sont les matières technologiques, mais il dispense également un remarquable enseignement artistique. Il va bientôt s'implanter sur le campus de Grangegorman. Il y a aussi de plus petits instituts de technologie à Blanchardstown et Tallaght. Le National College of Art and Design (École nationale d'art et de design) et l'institut de Dún Laoghaire pour les Arts, le Design et la Technologie mènent des actions de recherche et d'expérimentation dans les domaines des arts, du design et des technologies de l'information. Il existe également de nombreuses écoles spécialisées dans la ville, dont certaines structures privées. Logement Les loyers réclamés aux locataires sont très élevés. En 2019, ils se situent entre en moyenne pour un logement avec une chambre. Les prix ont augmenté en moyenne de 70 % entre 2012 et 2020, faisant de Dublin la capitale européenne la plus onéreuse pour le montant des loyers. Transports Port de Dublin Le port est le plus important du pays Transport aérien L'Aéroport international de Dublin est le principal aéroport du pays. Transport ferroviaire Heuston Station et Connolly Station sont les deux gares principales de la ville, la première desservant le Sud et l'Ouest du pays tandis que la seconde relie Dublin à Sligo, Rosslare et Belfast. Réseau routier Dublin est également le centre du réseau routier irlandais. L'autoroute M50, une sorte de périphérique encerclant Dublin du Nord au Sud en passant par l'Ouest, relie tous les axes nationaux partant de la capitale. Un péage est perçu pour le passage du West Link, un pont autoroutier enjambant la Liffey au niveau du village de Lucan. Bien que sa construction ait débuté dans les années 1980, en 2005 tous les travaux ne sont pas terminés. Une action en justice à propos de la préservation du site médiéval de Carrickmines Castle a retardé la dernière tranche. Actuellement, la M50 compte , mais on commence à réfléchir au passage à . L'autorité routière nationale envisage également d'augmenter la capacité des parties les plus fréquentées de l'autoroute en aménageant des échangeurs plus efficaces. Afin de boucler le périphérique, un contournement « Est » est envisagé. La première partie du projet est en cours de construction, il s'agit du tunnel du port de Dublin. L'ouverture à la circulation de ce tronçon, qui devrait accueillir principalement des poids lourds, est prévue pour 2006. Après cette mise en service, le conseil municipal de Dublin espère pouvoir interdire le passage des camions à travers la ville. La suite du projet implique un autre tunnel reliant le port au Sud de la ville, mais les plans de cette partie n'ont pas encore été établis. La capitale est aussi entourée par ce que le conseil municipal a appelé les orbitales intérieure et extérieure. L'orbitale intérieure encercle le cœur de la ville géorgienne, de St Stephen's Green à Mountjoy Square et du King's Inns à la cathédrale Saint-Patrick. L'orbitale extérieure contourne la ville le long du cercle naturellement formé par les deux canaux de Dublin : le grand canal d'Irlande et le canal royal d'Irlande, ainsi que South Circular Road et North Circular Road. Transports publics Les transports publics dublinois s'appuient sur différents réseaux gérés en majorité par la Bus Átha Cliath (Bus de Dublin), : le Dublin Area Rapid Transit ou DART, un train express desservant la région de Dublin sur un axe nord-sud, principalement sur la côte. C'est la seule voie de chemin de fer électrifiée du pays. deux lignes de tram nommé Luas : la ligne verte en service depuis juin 2004, qui dessert le sud de Dublin et de son comté, et depuis 2017 se prolonge au nord jusqu'à Broombridge ; la ligne rouge inaugurée en septembre de cette même année, reliant les gares principales de Heuston et Connolly à la banlieue jusqu'à Tallaght.Un projet est lancé afin de relier ces deux lignes, mais les modalités et le parcours sont encore en discussion. près de 200 lignes régulières le jour (désignées par leurs numéros, parfois suivi d'une lettre) et 24 « Nitelink », des bus de nuit qui circulent sept nuits sur sept, désignés par un numéro suivi de « N ». Il n'y a qu'un conducteur à bord (pas de contrôleur) et le prix du trajet, fonction du nombre d'arrêts de bus entre le départ et l'arrivée doit être payé exactement au conducteur à la montée, sans rendu de monnaie. Il existe également des forfaits prépayés que l'on composte à la montée du bus. Le tarif des bus de nuit est un forfait indépendant de la distance parcourue. Un projet de métro reliant l'aéroport de Dublin au centre-ville est la prochaine étape du développement des transports publics. En 2019, l'autorité organisatrice dévoile le tracé sélectionné sur l'axe nord-sud avec un passage par l'aéroport. Le calendrier prévoit un début des travaux en 2021 pour une ouverture en 2027. Les trains de banlieue desservent aussi l'ouest de l'agglomération, et notamment Kildare et Maynooth. Administrations Pouvoirs municipaux Dublin est gérée par le Conseil de la Ville de Dublin (Dublin City Council, qui s'appelait précédemment Dublin Corporation), qui est présidé par le Lord-maire de Dublin (équivalent du Maire), qui est élu annuellement et réside à Mansion House, devenue La résidence du Maire en 1715. Le conseil de Dublin est basé sur deux sites : le principal se trouve au Dublin City Hall, l'ancien Royal Exchange, qui avait été construit à cette fin dans les années 1850. Une grande part de l'administration est cependant logée dans les bâtiments des Civic Offices, très controversés car construits sur ce qui était l'un des sites archéologiques Vikings les mieux préservés au monde. La décision de raser ce site pour le Conseil de Dublin a provoqué l'une des plus grandes contestations de l'histoire récente en Irlande, avec des milliers de personnes manifestant pour arrêter les travaux. La destruction de ce site, et la construction de ce qu'on appelle maintenant « Les Bunkers » en référence à leur laideur, est considérée comme le pire désastre subi par le patrimoine irlandais depuis l'Indépendance. Même le Conseil de l'époque a fini par admettre sa honte, et seuls 2 des initialement prévus ont été réalisés. À la place des deux autres, un troisième bâtiment dessiné par l'atelier de Scott Tallon Walker a été achevé en 1994. Ce bâtiment, situé face à la rivière, est moins massif que les précédents. Les réunions du Conseil se déroulent au City Hall, sur Dame Street, l'un des plus beaux bâtiments de la ville construit par Thomas Cooley. Région de Dublin Depuis des siècles, la ville a été administrée par le Conseil de Dublin. Aujourd'hui, la région de Dublin, précédemment connue comme le comté de Dublin, compte plus d'un million d'habitants répartis sur . En 1994, le comté de Dublin (hors la ville) a été divisé en trois, chaque nouvelle entité recevant les statuts d'un comté à part entière et l'administration équivalente ; il s'agit de : Dun Laoghaire-Rathdown ; Fingal ; Sud-Dublin. Il existe aujourd’hui une autorité régionale : la '', au sein de laquelle les différentes administrations de chacune des entités de la région de Dublin (la ville et les trois comtés périphériques) coordonnent leurs politiques. Gouvernement national Le Parlement national de la République d'Irlande (appelé Oireachtas Éireann) est composé de la présidence et de deux chambres : Dáil Éireann (« Assemblée d'Irlande ») et Seanad Éireann (« Sénat d'Irlande »), les trois pouvoirs étant basés à Dublin. La résidence du président d'Irlande s'appelle Áras an Uachtaráin, ancienne résidence du gouverneur général de l'État libre d'Irlande, situé dans Phoenix Park, le plus grand parc de la ville. Quant aux deux chambres, elles se réunissent à Leinster House, un ancien palais ducal au Sud de la ville. Ce bâtiment est le siège du Parlement depuis la création de l'État Libre d'Irlande, le Le gouvernement irlandais, quant à lui, occupe un grand bâtiment conçu par Aston Webb, l'architecte qui avait créé la façade du palais de Buckingham. Ce bâtiment, aujourd’hui appelé Government Buildings, avait été construit pour être le Collège royal scientifique, il fut le dernier bâtiment construit sous l'administration britannique en Irlande. Étant donnée sa proximité avec Leinster House, le bâtiment a été choisi pour accueillir temporairement certains ministères en 1921 après l'indépendance. Finalement, aussi bien Government Buildings que Leinster House (elle aussi prévue pour accueillir temporairement le parlement) sont devenues les sièges permanents, respectivement, du gouvernement et du Parlement. Jusqu'en 1990, le gouvernement a partagé le bâtiment avec l'école d'ingénieurs de l'University College of Dublin (université) mais la construction de nouveaux bâtiments sur le campus de UCD à Belfield a permis au gouvernement de prendre possession de l'intégralité des locaux et de les réaménager à son usage. Jumelages La ville de Dublin est jumelée avec : et Pittsburgh (États-Unis) Personnalités Notes et références Notes Références Voir aussi Bibliographie H.B. Clarke – Irish Historic Towns Atlas – 11: Dublin part 1, to 1610 – Royal Irish Academy – Dublin 2002 Richard Ellmann, Four Dubliners: Wilde, Yeats, Joyce, and Beckett (1987) Laurent Grison, « Le "Grand Dublin" déséquilibre l’Irlande », in Alternatives économiques, , juillet 2002. Pierre Joannon, Il était une fois Dublin, Perrin, 2013. Articles connexes Aéroport international de Dublin Tramway de Dublin Wood Quay Liens externes Site de la mairie de Dublin Site du tourisme à Dublin Ville-étape du Tour de France en Irlande (pays) Toponyme indiquant un gué en Irlande
886
https://fr.wikipedia.org/wiki/D.%20H.%20Lawrence
D. H. Lawrence
David Herbert Lawrence, plus connu comme D. H. Lawrence, ( à Eastwood au Royaume-Uni - à Vence en France) est un écrivain britannique. Auteur de nouvelles, romans, poèmes, pièces de théâtre, essais, livres de voyage, traductions et lettres, il est célèbre notamment pour son roman L’Amant de lady Chatterley. Biographie Jeunesse et formation Fils de Arthur John Lawrence, un mineur, et de Lydia Beardsall, David Herbert Richards Lawrence voit le jour à Eastwood, dans le Nottinghamshire, le 11 septembre 1885. Après l'école primaire, il poursuit sa scolarité à la Nottingham High School de 1898 à 1901. De 1902 à 1906, Lawrence enseigne dans le primaire, dans une école d'Eastwood. En 1908, il obtient son certificat d'aptitude au professorat à l'université de Nottingham. Durant ses premières années professionnelles, il écrit ses premiers poèmes et quelques nouvelles. En 1908, il s'installe près de Londres, pour enseigner à Croydon. Ses écrits sont remarqués par Ford Madox Ford puis par Edward Garnett, deux critiques littéraires à la fois écrivains et éditeurs. Après une sévère pneumonie en 1911, Lawrence décide de se consacrer pleinement à la littérature. De retour à Nottingham en 1912, il rencontre la baronne Frieda von Richthofen, l'épouse d'un de ses anciens professeurs. De six ans son aînée, Frieda l'initie aux plaisirs charnels, alors qu'il lui fait découvrir la poésie. Il l'épouse deux ans plus tard, après un périple riche en péripéties, en Allemagne et en Italie. Maturité et voyages Juste après la guerre, en 1919, Lawrence quitte l'Angleterre et mène une vie d'errance. Il voyage ainsi en Australie, en Italie, à Ceylan, aux États-Unis, au Mexique et dans le Sud de la France. La première étape de son voyage le mène en Italie, dans la région des Abruzzes, puis à Capri et à Taormina en Sicile. Depuis la Sicile, il rayonne en Sardaigne, à Malte, dans le nord de l'Italie, en Autriche et dans le sud de l'Allemagne. Profitant de ses voyages pour expérimenter de nouvelles sensations, Lawrence continue à écrire régulièrement. Pendant cette période, il écrit notamment Women in Love (Femmes amoureuses), et The Lost Girl (La Fille perdue). Répondant en 1922, à l’invitation d'une riche Américaine, le couple s’embarque pour les États-Unis. Après une escale à Ceylan, puis une autre en Australie, qui inspire l'auteur pour ses romans Kangaroo et Jack dans la brousse, ils font escale en Nouvelle-Zélande, et enfin à Tahiti. En septembre 1922, ils débarquent en Amérique, où ils demeurent jusqu’en 1925. En mai 1923, Lawrence et Frieda s’installent au Mexique, près de Guadalajara, où l’auteur s’intéresse à la civilisation amérindienne. Il écrit alors Le Serpent à plumes. À l’automne, le couple regagne l’Europe, visite Paris et Baden-Baden. L'année suivante, ils repartent pour New York, en compagnie d’une jeune anglaise, Dorothy Brett. En 1925, l'auteur écrit St Mawr (L’Étalon). Apprenant qu’il est condamné par la tuberculose, Lawrence regagne l’Europe à l’automne. Le couple mène dès lors une vie errante, en Angleterre, Allemagne, France, Espagne, Suisse et surtout Italie. En 1926, Lawrence publie The Plumed Serpent. Il effectue son dernier séjour en Angleterre. À Florence, les époux Lawrence se lient d’amitié avec Aldous Huxley et son épouse. L’Amant de lady Chatterley Lawrence a écrit son dernier roman plusieurs fois. Trois versions en seront finalement publiées : The First Lady Chatterley, Penguin, 1973. version, écrite d'octobre à décembre 1926 ; publiée en 1944 par Dial Press à New York ; saisie, puis autorisée après procès ; John Thomas and Lady Jane, Penguin, 1973. version, écrite trois fois (!), de décembre 1926 à février 1927 ; publiée en 1972 par Heinemann ; Lady Chatterley's Lover, Penguin, 1990. version, écrite de novembre 1927 à janvier 1928 ; imprimée à compte d'auteur à Florence en mars et publiée en juin, l'éditeur londonien de Lawrence, Secker, ayant refusé de prendre ce risque. Lawrence était gravement malade, atteint d'une tuberculose pulmonaire, incurable à l'époque. Il l'apprend de son médecin en 1925. Il souffre d'hémoptysie en et écrit alors très vite la version puis la publie . Le livre fait scandale, il est saisi pour « obscénité » fin par les autorités britanniques et américaines. Une édition est publiée en à Paris. Il faudra attendre 1959 à New York (Grove Press) et 1960 à Londres (Penguin) pour que paraisse dans ces pays une version non expurgée du texte, les deux fois après procès . Il faut citer la dédicace des éditions Penguin : En France, le livre est traduit par F. Roger-Cornaz en 1932 et publié par Gallimard. En 1929, Lawrence publie Pansies (Pensées), un recueil de poèmes qui est confisqué par la justice. Ses peintures saisies à Londres Une exposition de ses peintures provoque un scandale à Londres, et ses tableaux sont saisis par la police. Il écrit alors Pornographie et obscénité. Pour son honneur et la défense de son œuvre, il publie À Propos of Lady Chatterley’s Lover (Défense de Lady Chatterley) en 1930. Rattrapé par la maladie, Lawrence s’éteint le 2 mars 1930, à Vence, où il séjourne en compagnie de son épouse Frieda et des Huxley. Publications de son œuvre Lawrence est reconnu comme l'un des plus grands auteurs et romanciers britanniques, mais également comme l'un des meilleurs auteurs de récits de voyage. En 1921, il écrit Sardaigne et Méditerranée, un récit du mode de vie des Méditerranéens. Livres et recueils Sont ici indiqués les romans, recueils de nouvelles,de poèmes, pièces de théâtres, essais et autres ouvrages selon leur date de parution. Romans Le Paon blanc (The White Peacock), 1911. La Mort de Siegmund (The Trespasser), 1912. Amants et Fils (Sons and Lovers), 1913. L'Arc-en-ciel (The Rainbow), 1915. Femmes amoureuses (Women in Love), 1920. La Fille perdue (The Lost Girl), 1920. Prix James Tait Black de la fiction 1920. La Verge d'Aaron (Aaron's Rod), 1922. Kangourou (Kangaroo), 1923. Jack dans la brousse (The Boy in the Bush), 1924. Le Serpent à plumes (The Plumed Serpent), 1926. Lady Chatterley et l'Homme des bois (John Thomas and Lady Jane), 1927 (publié en 1972) L'Amant de lady Chatterley (Lady Chatterley's Lover), 1928. L'Homme qui était mort (The Escaped Cock, puis Than Man Who Died), 1929, édition française en 1933 traduit par Jacqueline Dalsace et Pierre Drieu la Rochelle, Paris, Gallimard, Nrf. Nouvelles L'Officier prussien et autres nouvelles (The Prussian Officer and Other Stories), nouvelles, 1914. Chère, ô chère Angleterre (England, My England and Other Stories), nouvelles, 1922. The Fox, roman court, 1922. L'Homme et la Poupée ( The Captain's Doll), roman court, 1923. The Ladybird, roman court, 1923. L'Étalon (St Mawr and other stories), nouvelles, 1925. La Femme qui s'enfuit (The Woman who Rode Away and other stories), nouvelles, 1928. The Collected Poems of D. H. Lawrence, poésie, 1928. Étreintes aux champs et autres nouvelles, (Love Among the Haystacks and other stories), nouvelles, 1930. La Vierge et le Gitan (The Virgin and the Gipsy and Other Stories), nouvelles, 1930. Contient L'Homme qui aimait les îles (The Man Who Loved Islands).L'homme qui aimait les îles, traduction de Catherine Delavallade, L'Arbre Vengeur, 2021 Poésie Love Poems and others, poésie, 1913. Amores, poésie, 1916. Look! We have come through!, poésie, 1917. New Poems, poésie, 1918. Bay: a book of poems, poésie, 1919. Tortoises, poésie, 1921. Birds, Beasts and Flowers, poésie, 1923. Pansies, poésie, 1929. Nettles, poésie, 1930. Apocalypse, essai, 1931. Last Poems, poésie, 1932. Fire and other poems, poésie, 1940. The White Horse, poésie, 1964. Pièces de théâtre The Daughter-in-Law, théâtre, 1912. The Widowing of Mrs Holroyd, théâtre, 1914. Touch and Go, théâtre, 1920. David, théâtre, 1926. The Fight for Barbara, théâtre, 1933. A Collier's Friday Night, théâtre, 1934. The Married Man, théâtre, 1940. The Merry-Go-Round, théâtre, 1941. Autres oeuvres Pornographie et Obscénité, essai, 1930. Initialement publié en 1929. Croquis étrusques (Sketches of Etruscan Places and other Italian essays), récits de voyage, 1932. Study of Thomas Hardy and other essays, critique littéraire, 1914. Etudes sur Thomas Hardy (Study of Thomas Hardy), essai, 1914. Crépuscule sur l'Italie (Twilight in Italy and Other Essays), récits de voyage, 1916. Sardaigne et Méditerranée (Sea and Sardinia), récit de voyage, 1921. Psychanalyse et Inconscient (Psychoanalysis and the Unconscious), essai, 1921. Movements in European History, manuel d'histoire, 1921. Publié sous le pseudonyme Lawrence H. Davison. Fantaisie de l'inconscient (Fantasia of the Unconscious), essai, 1922. Studies in Classic American Literature, critique littéraire, 1923. Reflections on the Death of a Porcupine and other essays, essai, 1925. Matinées mexicaines (Mornings in Mexico and Other Essays), récits de voyage, 1927. A Propos of Lady Chatterley's Lover, essai, 1929. Traductions Léon Chestov, All Things are Possible, 1920 [1905]. Ivan Bounine, The Gentleman from San Francisco, 1922 [1915]. Traduction avec du Monsieur de San Francisco. Giovanni Verga, Mastro-Don Gesualdo, 1923 [1888]. Giovanni Verga, Little Novels of Sicily, 1925. Giovanni Verga, Cavalleria Rusticana and other stories, 1928. Anton Francesco Grazzini, The Story of Doctor Manente, 1929 [1549]. Compilations posthumes Sont indiquées les principales compilations en langue anglaise et française. Phoenix: The Posthumous Papers of D. H. Lawrence, essais et articles, The Viking Press, 1936. The Complete Poems of D. H. Lawrence, poésie, The Viking Press, 1964. Première édition intégrale de la poésie de Lawrence. The Complete Plays of D. H. Lawrence, théâtre, The Viking Press, 1965. Première édition intégrale du théâtre de Lawrence. Phoenix II: Uncollected, Unpublished and Other Prose Works by D. H. Lawrence, essais et articles, Viking Press, 1968. Éros et les Chiens, essais, C. Bourgois, 1969. Sélection de textes issus de Phoenix et Phoenix II. Corps social, essais, C. Bourgois, 1974. Sélection de textes issus de Phoenix et Phoenix II. L'Amour, le Sexe, les Hommes et les Femmes, essais, Éditions du Rocher, 2003. Sélection d'essais. Introductions and Reviews, critique littéraire, Cambridge University Press, 2004. Première édition intégrale des préfaces et critiques de Lawrence. Late Essays and Articles, essais et articles, Cambridge University Press, 2004. Première éditions des essais et articles de Lawrence non publiés de son vivant. De la rébellion à la réaction, essais, Éditions du Rocher, 2004. Sélection de textes issus de Phoenix. Poèmes, poésie, L'Âge d'homme, 2007. Première édition intégrale en français de la poésie de Lawrence. Adaptations cinématographiques 1949 : The Rocking Horse Winner d'Anthony Pelissier 1955 : L'Amant de Lady Chatterley de Marc Allégret 1961 : Amants et Fils (Sons and Lovers) de Jack Cardiff 1967 : Le Renard (The Fox) de Mark Rydell 1969 : Love () de Ken Russell 1970 : La Vierge et le Gitan () de Christopher Miles 1981 : L'Amant de Lady Chatterley (Lady Chatterley's Lover) de Just Jaeckin 1985 : Priest of Love de Christopher Miles (film biographique) 1989 : () de Ken Russell 2006 : Lady Chatterley de Pascale Ferran Études de l'œuvre Ginette Katz Roy, Myriam Librach (dir.), Cahier Lawrence, éditions de l'Herne, Cahiers de l'Herne, n° 56, Paris, 1988, 398 p. () Anaïs Nin, D.H. Lawrence : une étude non professionnelle, 1932 Henry Miller, Le Monde de D.H. Lawrence : Une appréciation passionnée, Buchet/Chastel, 1986 Jean-Paul Pichardie, D.H. Lawrence : la tentation utopique, université de Rouen, 1988 Anthony Burgess, D.H. Lawrence ou le Feu au cœur, Grasset, 1990 Frédéric Monneyron, Bisexualité et littérature. Autour de D. H. Lawrence et Virginia Woolf, L'Harmattan, 1998 Simon Leys, L'Ange et le Cachalot, Seuil, 1998 : un chapitre sur le roman Kangourou de D. H. Lawrence et sur son séjour en Australie (page 93 à 116) Catherine Millet, Aimer Lawrence'', Flammarion, 2017 Notes et références Liens externes Écrivain dont l'œuvre est dans le domaine public Écrivain britannique du XXe siècle Romancier britannique du XXe siècle Nouvelliste britannique du XXe siècle Écrivain du courant réaliste Imagisme Étudiant de l'université de Nottingham Naissance en septembre 1885 Naissance dans le Nottinghamshire Décès en mars 1930 Décès à Vence Décès à 44 ans
887
https://fr.wikipedia.org/wiki/Densitom%C3%A8tre
Densitomètre
Un densitomètre est un instrument permettant de mesurer la densité optique (le noircissement) de matériaux photographiques transparents (films négatifs ou inversibles) ou opaques (papier). Le principe du densitomètre de transmission repose sur une mesure optique de deux plages lumineuses, dont l'une est fixe et l'autre variable. Dans les anciens systèmes manuels (comme le système Volomat), un opérateur actionnait un levier jusqu'à ce que les deux zones aient acquis la même intensité. En utilisant comme source fixe le faisceau de l'agrandisseur après passage au travers d'une zone de forte densité du négatif, et en connaissant l'intensité de la lampe d'agrandisseur, on arrive par lecture d'un abaque à déterminer la densité maximale du négatif. Aujourd'hui, l'opérateur est remplacé par une cellule. On se passe dans ce cas des deux sources lumineuses et on se contente de la source de référence. Cette dernière peut être intégrée au densitomètre ou faire l'objet d'un dispositif spécial, par exemple une table lumineuse. Le signal électrique généré par la cellule exposée à la lumière, après amplification, est mesuré par un milliampèremètre gradué en densité. Certains densitomètres sont associés à une table traçante qui dessine automatiquement la courbe caractéristique. Le densitomètre permet l'étalonnage de divers instruments optiques, tels les scanners, les systèmes d'agrandissement ou tout autre système d'acquisition optique. Il est indispensable pour suivre la qualité des traitements dans un laboratoire photographique ; dans ce cas, on l'utilise pour lire un sensitogramme. Le densitomètre par réflexion est également utilisé en imprimerie pour mesurer et contrôler la densité des encres couleur. On distingue des densitomètres noir et blanc et couleur ; certains densitomètres combinent un mode par réflexion et un mode par transmission. Schéma d'un densitomètre manuel et à cellule photoélectrique Sensitométrie
888
https://fr.wikipedia.org/wiki/Divertissement
Divertissement
Un divertissement est une activité qui permet aux êtres humains d'occuper leur temps libre en s'amusant et de se détourner ainsi de leurs préoccupations. Les divertissements forment l'essentiel de la famille plus large des loisirs : par exemple, une conversation, amicale et plutôt inattendue, entre anciens collaborateurs sera un loisir notable dans l'entreprise sans être un divertissement. Le divertissement a été étudié par différents philosophes, en particulier Blaise Pascal. Depuis l'ère de la société de consommation et des loisirs, il est devenu un secteur d'activité économique florissant notamment concernant les parcs de loisirs et de divertissement ainsi que les médias. Étymologie Le terme divertissement est d'origine latine, il est apparu en Europe à la fin du . Il désignait alors l'action financière consistant à détourner à son propre profit, ou distraire, une part de l'héritage. Par la suite, on a repris le terme pour l'appliquer à l'action de détourner l'essentiel en général et, par extension, à ce qui détourne quelqu'un de l'essentiel. Progressivement, il s'est associé à l'idée de plaisir et plus tard de loisirs. Approche de Blaise Pascal En 1662, le philosophe français Blaise Pascal élabore une approche philosophique du divertissement qui sera publiée en 1670 dans les Pensées. Il y développe l'idée selon laquelle il est nécessaire à l'être humain de se distraire et donc essentiel pour lui de se détourner de l'essentiel. Le divertissement est une façon pour lui de se détourner de ce qu'il est vraiment, à savoir un être misérable et mortel. Parce que le fait d'être inactif le confronte à l'ennui, dans lequel il découvre sa propre vacuité et le néant qui l'habite, l'être humain préfère se divertir de sa condition, en s'adonnant à toutes sortes d'activités (des plus hautes aux plus basses, Pascal les rassemble toutes sous le même concept). Le divertissement est donc indissociable de la condition humaine : c'est parce que l'être humain est un être fini et essentiellement incomplet, que le divertissement s'impose à lui. C'est une façon de ne pas affronter sa propre vérité, notamment sa mortalité : (Les Pensées, Laf. 133). Selon Blaise Pascal, tout le monde est en proie au divertissement, aussi bien le roi que le courtisan, le soldat que le laboureur, puisque tous sont des êtres humains. Pour cette raison, Pascal ne le condamne pas moralement, et reconnaît même son efficacité : (Les Pensées, Laf. 101). Ainsi, ce sont les « demi-savants » qui condamnent et méprisent le divertissement chez le peuple. Celui qui connaît la condition humaine, au contraire, ne peut que reconnaître que le divertissement est une façon efficace de ne pas passer sa vie à se morfondre sur soi, et son essentielle vacuité. Pour autant, il y a encore un niveau supérieur de considération : c'est celui du philosophe chrétien pour qui la seule façon véritable d'affronter la vérité de son être consiste non pas à choisir le divertissement, mais à reconnaître la toute-puissance de Dieu. Pour le chrétien qu'est Pascal, l'expérience de l'ennui et la méditation sur la condition humaine doit amener finalement l'être humain à la connaissance et l'adoration de Dieu. Divertissement en présentiel et divertissement médiatisé Divertissement, entertainment, comédie musicale (Susie Morgenstern, Be happy ! Mes plus belles comédies musicales ; éditions Didier Jeunesse, 2018, p. 5.). Divertissements à l'heure du covid-19 Avec le développement de la pandémie covid-19 ce sont tous les divertissements en présentiel qui sont menacés. Mario d'Angelo définit cette catégorie par opposition aux divertissements médiatisés. Les pratiques qui se situent dans le champ du divertissement en présentiel sont: la fréquentation des spectacles et événements culturels et sportifs, les voyages et évasions touristiques, les visites de sites historiques, parcs à thème, musées… mais aussi les pratiques collectives en amateurs (arts, culture, sport) ou encore la fréquentation des lieux conviviaux (restaurants, discothèques...). . Cependant, depuis longtemps le divertissement présentiel (sauf les voyages/séjours touristiques) a cédé du terrain face au divertissement médiatisé. Plus exactement, la forme présentielle a été relativisée dans l’ensemble des divertissements qui n’a cessé de croître conjointement au temps libre. La pandémie de covid-19 marque une nouvelle étape dans cette évolution. Liste de divertissements Quelques exemples d'activités qui permettent de se divertir : Art plastique Cinéma Cirque Danse Fête Internet Jeu Lecture Musique Parc de loisirs Photographie Radio Télévision Théâtre Tourisme Sport Elles prennent des formes différentes selon les lieux et les époques. Elles marquent plus ou moins les civilisations. L'une des plus anciennes est la danse et l'une des plus modernes est l'accès à des centres d'intérêt multiples via internet. Les arts plastiques, la musique, la fête et le sport passent à travers les âges et les cultures. Critiques Guy Debord, dans la Société du spectacle, critique une société dominée par la marchandise. Il relie information, publicité et divertissements. Articles connexes Attention Consumérisme Culture populaire Culture de masse Divertimento (musique) Jeux Loisirs Spectacle Notes et références Concept de philosophie morale Bien-être Catégorie esthétique
890
https://fr.wikipedia.org/wiki/D%27Ieteren
D'Ieteren
D’Ieteren, fondé en 1805, est un groupe belge actif dans la distribution automobile et la réparation et le remplacement de vitres automobiles. Activités D’Ieteren Auto distribue en Belgique les véhicules des marques Volkswagen, Audi, SEAT, Škoda, Bentley, Lamborghini, Bugatti, Porsche et Yamaha. Il est le premier distributeur de voitures en Belgique avec une part de marché de plus de 22 % et 1,2 million de véhicules en circulation fin 2015. Le chiffre d'affaires et le résultat opérationnel ont atteint respectivement 2,9 milliards d'euros et 60 millions d'euros en 2015. Belron (détenu à 54,85 %) est le leader mondial de la réparation et du remplacement de vitrage de véhicules à travers plus de dix marques principales, dont Carglass, Safelite Autoglass et Autoglass. Environ 2 400 points de service et 10 000 unités mobiles dans 32 pays sont à la disposition de ses clients. Le chiffre d'affaires et le résultat opérationnel ont atteint respectivement 3,2 milliards d'euros et 174 millions d'euros en 2015. Moleskine (détenu à plus de 95 %) est une marque qui regroupe une famille d'objets tels que le carnet Moleskine et des accessoires d’écriture, de voyage et de lecture. Le chiffre d’affaires et le résultat opérationnel ont atteint respectivement 128 millions d’euros et 35 millions d’euros en 2015. D'Ieteren fait partie de l'indice boursier Belgian All Shares (BAS). Jusqu'en mars 2016, l'action faisait partie du BEL 20. Principaux actionnaires Au 28 février 2020: Histoire Fondée à Bruxelles au début du sous le Premier Empire, par un artisan carrossier, Joseph-Jean D'Ieteren, dont le père, Jean-Gaspard Dieteren (1753-1795), qui avait épousé une fille de bourgeois, était déjà maître charron en cette ville et avait été reçu lui-même à la bourgeoisie de Bruxelles le 10 septembre 1794, la compagnie s'est ensuite développée en même temps que l'automobile et l'automobilisme, passant de réalisations artisanales à des productions plus industrielles. Au début du , l'entreprise, qui fabriquait à l’origine des carrosseries, voit son activité se transformer lorsqu'elle se tourne vers l’importation (1931) et l’assemblage (1935) de voitures et de camions Studebaker. Après la Seconde Guerre mondiale, D’Ieteren obtient les droits d’importation et de montage de la marque Volkswagen (1948) et de Porsche (1950). En 1956, D’Ieteren se lance dans la location de véhicules. Cette activité débouchera sur un partenariat avec Avis en 1958. D’Ieteren deviendra même en 1989 l’actionnaire principal d’Avis, avant de revendre sa participation dans Avis Europe au Avis Budget Group en 2011. D’Ieteren obtient par la suite le droit d’importer d’autres marques affiliées au Groupe Volkswagen : Audi (1974), Seat (1984), Skoda (1992), Bentley Motors (2000) et Lamborghini (2001). L’activité d’importation de deux-roues motorisés commence avec une partie de la production de Yamaha en 1975. En 1999, D’Ieteren devient actionnaire majoritaire du groupe de réparation et du remplacement de vitrage automobile Belron, auquel appartiennent Carglass et Autoglass. Sa participation s'élève en 2016 à 94,85 %, puis à 54,85% en 2018. Fin septembre 2016, le groupe D'Ieteren acquiert une participation de 41 % dans Moleskine, une entreprise italienne cotée ayant son siège à Milan. Après avoir lancé une offre publique obligatoire sur le restant des actions de l'entreprise, D'Ieteren franchit le seuil de participation de 95 %, ce qui lui donne le droit de lancer une procédure de squeeze out afin d'obtenir le contrôle total de Moleskine. Son intention est alors de retirer la cotation de Moleskine de la Bourse de Milan. Il existe un musée consacré à l’évolution de la compagnie et à l’automobilisme : la D’Ieteren Gallery, située au numéro 50 de la rue du Mail, à Ixelles (en Région de Bruxelles Capitale). Bibliographie Rommelaere Catherine, Oleffe Michel, Kupelian Jacques & Yvette, D’Ieteren. 1805-2005. 200 ans d’histoire, Bruxelles, 2005, Ed. : Racine & sa D’Ieteren nv, Bruxelles Notes et références Équipementier automobile Entreprise du secteur des transports ayant son siège en Belgique Entreprise ayant son siège à Bruxelles Ancienne famille belge I Famille belge Bourgeoisie bruxelloise
893
https://fr.wikipedia.org/wiki/David%20McNeil
David McNeil
David McNeil est un auteur-compositeur-interprète, parolier, romancier et auteur de littérature d'enfance et de jeunesse né le dans le Bronx à New York (États-Unis), résident depuis 1949 en France, en Belgique, au Royaume-Uni et à Monaco, Américain naturalisé britannique en 1966. Biographie David Mc Neil naît le dans le Bronx à New York (États-Unis). Il est le fils de l'artiste Marc Chagall et de Virginia McNeil. Après la mort de Bella, la première femme du peintre, en 1944, sa fille Ida, chez laquelle il vit depuis un an, se met en quête d'une gouvernante pour son père. Virginia, fille du diplomate britannique , consul général de New York, alors mariée à John McNeil, peintre et scénographe écossais, et mère d'une fille de cinq ans, Jean, accepte cet emploi à la condition de regagner son domicile le soir. Anglaise née à Paris en 1915, elle est parfaitement bilingue, a appris les beaux-arts à Paris et à Chicago, et a besoin de travailler pour retrouver son indépendance. Marc Chagall et Virginia McNeil tombent amoureux. David naît alors que sa mère n'est pas divorcée. Il porte de ce fait le nom du mari de sa mère. Les frais de clinique du Bronx dans laquelle il voit le jour sont cependant pris en charge par Chagall qui envisageait de l'adopter après le divorce de Virginia. L'enfant est prénommé David en mémoire du frère de Marc Chagall et circoncis le 29 juin lors d'une cérémonie présidée par . Ses parents s'installent à dans le Comté d'Ulster (État de New York) jusqu'au retour en France en 1949. En France, David McNeil passe ses premières années avec ses parents et sa sœur Jean entre Orgeval près de Paris et la maison des Collines à Vence dans le Midi. En 1952, sa mère rompt avec Marc Chagall, se remarie avec le photographe belge , son premier mari John McNeil ayant finalement accepté le divorce, et part vivre en Belgique avec ses deux enfants. Marc Chagall se remarie avec Valentina Vava Brodsky. Lorsque Virginia doit s'occuper de son mari gravement malade, David revient vivre auprès de son père mais après leur mariage . David est placé jusqu'à l'âge de seize ans en pensionnat au collège Montcel à Jouy-en-Josas. Il repart en Belgique où il est inscrit au lycée français de Bruxelles. Ensuite, il vit un temps chez sa sœur Jean à Londres. À vingt ans, alors qu'il est appelé par l'administration américaine pour partir au Viêt Nam, il obtient la nationalité britannique. En 1967, il épouse Leslie Ben Said dont la mère est juive marocaine et le père belge. Ils ont un fils, Dylan, en 1968. Pendant ses années de pensionnat, il découvre, à quinze ans, le jazz et le New Orleans en écoutant Louis Armstrong dans l'émission Pour ceux qui aiment le jazz de Frank Ténot sur Europe 1. Il s'essaye à la trompette sur un instrument offert par un ami de son père. Sa mère puis sa sœur lui font découvrir Duke Ellington et Miles Davis. Sûr de ne jamais parvenir à une telle perfection il arrête définitivement la trompette. Autour des années 1963, il découvre la musique folk avec Bob Dylan et Donovan, et la guitare avec Derroll Adams dont il devient le road manager. Il adopte le picking, influencé par Bert Jansch du groupe Pentangle et le brit blues. Vient ensuite, à la fin des années 1960, l'influence d'auteurs comme Claude Nougaro et Serge Gainsbourg. Trois disques 45 tours sont gravés par Philips avec des chansons qu'il a écrites en anglais et qu'il interprète : Space Plane et Don't Let Your Chance Go By puis Indigo et The Machine, en 1968, dans un style de rock psychédélique, puis, en 1969 : Linda et My Love, dans un style de musique beat. Le premier est également gravé par au Royaume-Uni et la partition, portant en incipit : (J'étais là debout, ivre comme je peux l'être, prêt à tomber), est publiée par la maison d'édition musicale . Il écrit et interprète en 1972 les chansons de son premier album, Group Captain Crash, produit par la maison de disques de Pierre Barouh, Saravah, dans lequel se trouve Hollywood, la chanson qu'Yves Montand chantera dix ans plus tard lors de son Olympia 81 puis en 1982, traduite en anglais par David McNeil, au Metropolitan Opera de New York, en faisant un succès mondial. Vers 1970, David McNeil fait partie du milieu du cinéma underground belge. Il compose pour La tête froide de Patrick Hella, est l'assistant d'Henri Storck sur Les fêtes de Belgique et réalise plusieurs brûlots dont Week-end en 1968, What Happened to Eva Braun? en 1971 et Les aventures de Bernadette Soubirous en 1973. L'aventure Saravah se poursuit jusqu'en 1976 avec la production par Pierre Barouh de deux autres albums, L'Assassinat en 1973, J'ai déjà fait mon arche, j'attends les animaux en 1975 pour la sortie en France et en 1976 pour le Canada, complétés par trois 45 tours, Group Captain Crash et Hollywood en 1972, Honolulu Lulu et Papa jouait du rock n'roll puis Tous les bars de Babylone et Suzy Blériot en 1976. Durant cette période, David McNeil est accompagné par des musiciens comme Jacques Higelin, Jack Treese, Jean-Charles Capon, Jean-Louis Mahjun, Roland Romanelli, Bill Keith, Jean-Louis Rassinfosse, Yves Simon, Steve Lacy, Naná Vasconcelos ou Larry Martin. David McNeil a longtemps voulu que le grand public ignore qu'il était le fils de Marc Chagall, ayant fait un procès au journaliste Paul Wermus pour l'avoir révélé dans Le Figaro Magazine. Il déclare en 2014 au micro de Frédéric Zeitoun pour l'émission Télématin sur France 2, à propos de la reprise d'Hollywood par Yves Montand : Rien n'a en effet davantage ému David McNeil que d'apprendre, de la bouche de Bill Wyman, l'ancien bassiste des Rolling Stones, voisin de Chagall à Vence, que le peintre suivait son fils de loin. André Verdet qui écrivait un livre sur le peintre lui avait présenté Bill Wyman mais s'ils ont effectivement sympathisé, Chagall ne semblait cependant pas s'intéresser à la musique en dehors d'Igor Stravinsky bien que son œuvre foisonne de violonistes. Après avoir décrit son enfance avec son père dans son livre Quelques pas dans les pas d'un ange, David McNeil publie en 2006 Tangage et roulis aux éditions Gallimard. 28, boulevard des Capucines, sorti également chez Gallimard en 2012, est un livre de souvenirs, évoquant son enfance et les rencontres de sa vie d'artiste : Yves Montand, Laurent Voulzy, Robert Charlebois, etc. Dans Un Vautour au pied du lit, il raconte son cancer à l'œsophage. Discographie Albums vinyles David Mc Neil (1972) Group Captain Crash - Au temps où les abbés - Chuck Berry strikes again - La lamentable histoire de Simon Wiesenthal - Isabelle - Beverly Collines - Hollywood - Dans la ville d'Anvers - Cynthia, sa tour et le satyre centaure - La fée - Acapulco Gold - Louise - Deux mille deux cents cigarettes. Paroles et musiques de David McNeil. Pierre Barouh joue du piano, Jacques Higelin de l'accordéon, Jack Treese du banjo. L'Assassinat (1974) L'Assassinat - Marcellin, pain et vin - Morning - Le bateau-mouche - Show-biz blues - Chanson pour Lady Jane - Chanson pour Lenny Bruce - Lasso Lucy - Le massacre du printemps - Comme à la TV - Le chevalier tastevin - Hollywood (chanté en Anglais par Jack Treese). Paroles et musiques de David McNeil. J'ai déjà fait mon arche (1975)J'ai déjà fait mon arche (j'attends les animaux) - Rue Simon Bolivar - Honolulu Lulu - Le professeur a dit - The Campbells are coming (yoho !) - Apocalypso-rock - Maxie, Madge et parfois Dicky Wagner - Annapurna -Papa jouait du rock and roll. Paroles et musiques de David McNeil. Funky-Punky (1978)Funky-punky - Au bar du Styx - Magicien - La grande dame de la chanson française - Chanson pour Duke - Lady Wurlitzer - Les photos de Doisneau - Danse - De Benson en P.4 - Vieil homme au cœur tatoué. Paroles et musiques de David McNeil, sauf Les photos de Doisneau (McNeil/Jack Treese). Laurent Voulzy participe aux chœurs, et il signe les arrangements de Danse. Roule Baba Cool (1979)Roule baba cool - Si loin de Sarah, de Marianne... - Lapointe à Pitre (fantaisie antillaise) - Ma guitare et moi - Mon Dieu protège tes clowns - Ceux qui en vivent, ceux qui en meurent - Si j'avais été Pâris - 40, rue Monsieur le Prince - Les frères O'Leary - La fille au pull-over. Paroles et musiques de David McNeil. Rucksack-Alpenstock (1980)Rucksack-Alpenstock - Boulevard Sébastopol - Cigale - Wimbledon - Côte ouest - Le temps que Pat Garrett descende Billy le Kid - Couleurs - Tourcoing-Dacca-Tourcoing - Paris-Bruxelles - Deux mentholées, trois mandolines - Bye bye Bob Dylan - Nathalie S.Paroles et musiques de David McNeil. Albums CD D'Hollywood à Babylone (compilation, 1990) Dix ans de Saravah (compilation, 1990) Seul dans ton coin (1991)Tiramisu - Pull-overs - Tropical tramp - La vendeuse de la papeterie - Passantes de Passy - Seul dans ton coin - New York City - Petite sœur - Gitane - Élise - Calembours-Carambars - Toutes ces choses. Paroles et musiques de David McNeil, sauf Petite sœur (McNeil/Alain Souchon), Passantes de Passy (McNeil/Jean-Claude Petit), Toutes ces choses (McNeil/Jean-Pierre Auffredo), Les Années Saravah (compilation, 1994) Les Années RCA - Intégrale 1978-1982 (double compilation, 1995) Titres inédits figurant sur cette compilation : Don't let your chance go by (1968) - Space Plane (1968) - Indigo (1968) - The Machine (1968) - Linda (1969 - My Love (1969) - Blue jeans (1977) - Dis-moi pourquoi (1977) - Les prophètes et les manitous (1977). On trouve aussi des titres parus hors-albums : Tout le monde peut jouer du rock'n'roll (1981) - Chanteur trente ans, allure élancée (1981) - Prière de laisser mon cœur dans l'état où vous l'avez trouvé en y entrant... (1982) - L'amour est enfant de bohème (1982) - Monte-Carlo (à Crosby, Stills, Nash & Young) (1981) - L'enfer est dans le sac (1984). Live à l'Olympia (1997)Rue Simon Bolivar - Dans la ville d'Anvers - Au bar du Styx - J'ai déjà fait mon arche (avec Maxime Le Forestier) - Les photos de Doisneau - Papa jouait du rock and roll - Vous souvenez-vous Louisa (avec Robert Charlebois) - Vieil homme au cœur tatoué - Pull-over - Tourcoing-Dacca-Tourcoing (avec Laurent Voulzy) - Couleurs - Fable - Tiramisu - Le bateau-mouche (avec Renaud) - Lasso Lucy - Passantes de Passy - Wimbledon (avec Julien Clerc) - Gitane - New York City (avec Toots Thielemans) - Seul dans ton coin (avec Alain Souchon) - Hollywood (avec tous les artistes). Paroles et musiques de David McNeil, sauf Les photos de Doisneau (McNeil/Jack Treese). Un lézard en septembre (2014)Les amours impossibles - Washington Square - Trente ans CFA, en duo avec Alain Souchon et la participation de Françoise Hardy - Jim et Jules, en duo avec Robert Charlebois et la participation de Carla Bruni - Doux bouton d'or - Imbroglios - Un lézard en septembre - Vous souvenez-vous Louisa ? - Tapis volant - Lady Pannonica - Sous ton matelas - Sur douze mesures d'un même blues. Paroles et musiques de David McNeil sauf Washington Square, musique de David McNeil, Remi Lacroix et Jeremy Mathot et Imbroglios, musique de Robert Charlebois. Singles Quand la lettre est jolie (McNeil/McNeil-Laurent Voulzy) par David McNeil et les chanteurs masqués (hors commerce, 1996) Les chanteurs masqués sont : Robert Charlebois, Julien Clerc, Maxime Le Forestier, Renaud, Alain Souchon et Laurent Voulzy. Interprètes Ses chansons sont interprétées par Yves Montand (Hollywood, Couleurs, Nostalgie d'Angie...), Alain Souchon (Casablanca, J'veux du cuir, Normandie Lusitania, Parachute doré), Julien Clerc (Mélissa, Hélène, Les Aventures à l'eau''...) mais aussi Jacques Dutronc, Sacha Distel, Robert Charlebois, Renaud ou encore Laurent Voulzy. Sauf indication, toutes les chansons citées sont écrites, pour les paroles, par David McNeil seul. Un titre suivi d'un astérisque indique une chanson adaptée par David McNeil, le titre de la chanson originale est alors précisé entre parenthèses. Publications Romans et récits Livres pour la jeunesse Filmographie Notes et références Liens externes Auteur-compositeur-interprète britannique Auteur-compositeur-interprète francophone Chanteur britannique du XXe siècle Chanteur britannique du XXIe siècle Chanteur francophone Parolier britannique Auteur britannique de littérature d'enfance et de jeunesse Romancier britannique du XXe siècle Romancier britannique du XXIe siècle Écrivain britannique francophone Naissance en juin 1946 Naissance dans le Bronx Élève du lycée français de Bruxelles
894
https://fr.wikipedia.org/wiki/Dark%20City
Dark City
, ou Cité obscure au Québec, est un film de science-fiction australo-américain co-écrit, co-produit et réalisé par Alex Proyas, sorti en 1998. Malgré des critiques globalement positives, le film est un échec commercial. Synopsis Présentation générale John Murdoch se réveille amnésique dans un hôtel. En cherchant à en savoir plus sur lui-même, il découvre qu'il est suspecté d'être un tueur en série. Il est notamment poursuivi par l'inspecteur Bumstead. Dans sa quête pour retrouver la mémoire, Murdoch fait la connaissance du docteur Schreber, qui semble en savoir beaucoup sur lui-même. De plus, Murdoch découvre des créatures douées de pouvoirs surnaturels effrayants et aux sombres desseins. Synopsis détaillé Un homme se réveille dans son bain, une goutte de sang perle sur son front. Il ne se souvient de rien, il met des vêtements neufs déposés dans sa chambre d'hôtel quand il reçoit un appel téléphonique anonyme. On le prévient qu'« ils » arrivent et qu'il ne doit jamais « les » laisser l'attraper. Au moment où il prend la fuite, il aperçoit le corps d'une femme sur le sol. Il est poursuivi à la fois par un détective qui enquête sur les meurtres qu'il aurait prétendument commis et par d'étranges hommes pâles et chauves, tous habillés de la même façon. Ensuite, il apprend que son nom est John Murdoch et qu'il a une compagne, nommée Emma. Il est recherché par l'inspecteur de police Frank Bumstead. Ce dernier l'accuse d'être un tueur en série. John découvre ensuite qu'il est un mutant psychokinétique qui a la capacité de modifier les environnements. Il fait ensuite face à d'étranges hommes en noir, chauves et à la peau très pâle. Alors que ces hommes étranges cherchent à l'assassiner, John réussit à s'en débarrasser et fuit. John Murdoch explore ensuite la ville - Dark City- , toujours sombre. Personne ne semble se rendre compte qu'il y fait toujours nuit. À minuit, tous les citoyens dorment, sauf John Murdoch et ces mystérieux hommes pâles et chauves. Ces derniers ont eux aussi le pouvoir de modifier les environnements, la mémoire des gens et leurs identités. John Murdoch fait ensuite des découvertes sur son passé : il apprend qu'il est originaire de la ville de Shell Beach. Mais personne ne semble se rappeler comment se rendre dans cette région. De leur côtés, les hommes pâles et chauves injectent les souvenirs de John Murdoch sur l'un des leurs, M. Main, afin de mieux le connaître et ainsi le localiser. John Murdoch est capturé par l'inspecteur Frank Bumstead, qui semble être convaincu de l'innocence de ce dernier. Il sait que des choses anormales ont lieu dans cette ville. Ils rencontrent ensuite le Daniel Schreber, qui leur explique que ces hommes pâles et chauves sont en réalité des extraterrestres. Schreber précise qu'ils utilisent les humains comme cobayes d'expériences. Le docteur ajoute que John Murdoch est un anomalie réveillée par inadvertance. En cassant un mur avec des masses, Murdoch et Bumstead découvrent un passage vers l'espace. Les aliens surgissent alors et M. Main se sert d'Emma comme bouclier humain. Après une lutte entre l'inspecteur Frank Bumstead et l'un des aliens, ceux-ci sont aspirés dans l'espace. On découvre alors que la ville est sur une station spatiale entourée d'un champ de force. Les aliens emmènent John Murdoch dans le souterrain de la ville et obligent le Daniel Schreber à lui injecter leur mémoire collective car ils pensent que John Murdoch est le point culminant de leurs expériences. Schreber trahit finalement les aliens en injectant un remède à la place des faux souvenirs. Cela déclenche le retour de souvenirs de John Murdoch. Il se réveille et parvient à se délivrer grâce à ses propres pouvoirs psychiques. Il affronte et parvient à vaincre les aliens et leur leader M. Livre. Le Daniel Schreber apprend ensuite à John Murdoch qu'Emma a été réimprimée et ne peut pas être restaurée. John Murdoch utilise alors ses pouvoirs, amplifiés par la machine extraterrestre, pour créer un environnement rappelant Shell Beach. M. Main, mourant, retrouve ensuite John Murdoch à Shell Beach. Il l'informe qu'ils ont cherché en vain au mauvais endroit pour comprendre l'Humanité. Murdoch fait alors pivoter la station spatiale vers une étoile dont elle avait été détournée. La ville est touchée par la lumière du soleil, pour la première fois. John ouvre ensuite une porte menant hors de la ville et sort pour admirer le lever du soleil. Sur une jetée, il retrouve la femme qu'il connaissait sous le nom d'Emma. Elle dit alors se nommer Anna. Murdoch se présente à nouveau à elle. Ils marchent ensemble jusqu'à Shell Beach. Fiche technique Titre original et français : Titre québécois : Cité obscure Réalisation : Alex Proyas Scénario : Lem Dobbs, David S. Goyer et Alex Proyas Musique : Trevor Jones Décors : George Liddle et Patrick Tatopoulos Costumes : Liz Keogh Photographie : Dariusz Wolski Montage : Dov Hoenig Production : Andrew Mason et Alex Proyas Sociétés de production : Mystery Clock Cinema ; New Line Cinema (coproduction) Société de distribution : New Line Cinema Budget : Pays de production : , Langue originale : anglais Format : couleur - 2,35:1 - DTS / Dolby Digital / SDDS - 35 mm Genre : science-fiction, néo-noir Durée : 95 minutes, 111 minutes (version director's cut 2008) Dates de sortie : États-Unis : France : Canada : (sortie en DVD) Suisse : Australie : Public : interdit aux moins de 12 ans Distribution Rufus Sewell (VF : Jean-Philippe Puymartin ; VQ : Daniel Picard) : John Murdoch William Hurt (VF : Féodor Atkine ; VQ : Jean-Marie Moncelet) : l'inspecteur Frank Bumstead Kiefer Sutherland (VF : Emmanuel Jacomy ; VQ : Pierre Auger) : Daniel P. Schreber Jennifer Connelly (VF : Brigitte Berges ; VQ : Christine Bellier) : Emma Murdoch / Anna Richard O'Brien (VF : François Dunoyer ; VQ : Hubert Gagnon) : M. Main (Mr. Hand en ) Ian Richardson (VF : Jean Négroni ; VQ : Yves Massicotte) : M. Livre (Mr. Book en ) Bruce Spence (VF : Gilles Tamiz ; VQ : Sylvain Hétu) : M. Mur (Mr. Wall en ) Colin Friels (VF : Hervé Bellon ; VQ : Luis de Cespedes) : le détective Eddie Walenski John Bluthal (VF : Raoul Delfosse) : Karl Harris Mitchell Butel : l'officier Husselbeck Melissa George : May Frank Gallacher : l'inspecteur Stromboli Ritchie Singer : le gérant de l'hôtel Justin Monjo : le chauffeur de taxi Nicholas Bell : M. Pluie Production Genèse et développement Alex Proyas a eu l'idée du film lors du tournage de . Il écrit une première ébauche de scénario. Lem Dobbs retravaille considérablement son travail et organise le script. Enfin, David S. Goyer est engagé pour finaliser le scénario et ajouter des scènes d'action pour avoir un budget plus conséquent. Alex Proyas cite plusieurs films des années 1940-1950 comme influences majeures (notamment Le Faucon maltais), mais également d'autres œuvres comme Metropolis (1927), la série La Quatrième Dimension (1959-1964) et le film d'animation Akira (1988) Distribution des rôles Kiefer Sutherland, grand fan de William Hurt, aurait immédiatement accepté le rôle lorsqu'il apprit que celui-ci faisait partie de la distribution. marque les débuts sur grand écran de Melissa George. Tournage Le tournage débute le et se déroule à Los Angeles et Sydney (notamment aux Fox Studios Australia). Certains décors du film seront revendus et réutilisés pour l'équipe de Matrix (1999) : notamment pour la scène d'introduction où Trinity échappe aux agents en sautant d'immeuble en immeuble. Musique Accueil ' reçoit un accueil globalement favorable dans la presse. Sur l'agrégateur américain Rotten Tomatoes, il récolte 76% d'opinions favorables pour 85 critiques et une note moyenne de . Le consensus du site est le suivant : . Sur Metacritic, il obtient une note moyenne de pour 23 critiques. Le célèbre critique américain Roger Ebert le qualifie comme le meilleur film sorti en 1998. Malgré cela, le film est un échec commercial, rapportant environ au box-office mondial, dont en Amérique du Nord, pour un budget de . En France, il a réalisé . Distinctions Source : Internet Movie Database Récompenses Festival du film fantastique d'Amsterdam 1998 : meilleur film Saturn Awards 1999 : meilleur film de science-fiction Prix Bram Stoker 1999 : meilleur scénario Festival international du film fantastique de Bruxelles : prix du public Nominations Saturn Awards 1999 : meilleure réalisation, meilleur scénario, meilleurs costumes, meilleur maquillage, meilleurs effets visuels Prix Hugo 1999 : meilleur film Saturn Awards 2009 : meilleure édition spéciale DVD pour la version 'director's cut Version director's cut Une version director's cut sort en DVD et Blu-ray en 2008. Elle contient 15 minutes de scènes inédites mais aussi la suppression de la voix hors champ dans la scène d'ouverture. En effet le réalisateur estimait que son personnage y dévoilait beaucoup trop d'informations sur le contenu de l'intrigue. Cela lui avait été imposé par le studio Commentaires La scène finale sur la jetée avec Jennifer Connelly a été reproduite quasiment à l'identique dans Requiem for a Dream (film dans lequel elle a joué également) et dans House of Sand and Fog. Le nom du personnage incarné par Kiefer Sutherland, Daniel P. Schreber, est un clin d’œil à Daniel Paul Schreber, un juriste allemand notamment connu pour son ouvrage Mémoires d’un névropathe. Notes et références Annexes Bibliographie Delphine Fellay, Stéphanie Ginalski et Valérie Niederoest, « Dark City : parcours entre architecture, urbanisme et science-fiction », dans Gianni Haver et Patrick J. Gyger (dir.), De beaux lendemains ? Histoire, société et politique dans la science-fiction, Lausanne, Antipodes, 2009, p. 173-183 Articles connexes Station spatiale au cinéma Liste de films de tueurs en série Liens externes Film australien sorti en 1998 Film américain sorti en 1998 Film de science-fiction australien Film de science-fiction américain Film australien à narration non linéaire Film américain à narration non linéaire Film mettant en scène un extraterrestre Film mettant en scène un tueur en série Film de science-fiction dystopique Réalité virtuelle dans la fiction Film de New Line Cinema Film tourné aux Fox Studios Australia 1998 en science-fiction
896
https://fr.wikipedia.org/wiki/Dungeon%20Siege
Dungeon Siege
Dungeon Siege est un jeu vidéo d'action/aventure (et plus précisément, un hack and slash) de fantasy, développé par Chris Taylor chez Gas Powered Games et édité par Microsoft. Système de jeu Le joueur doit sauver le royaume d'Ehb des forces du Mal. Pour cela, il commande un personnage principal qui débute en tant que fermier jusqu'à devenir un héros. Pendant la progression dans le jeu, le personnage principal peut être rejoint par d'autres aventuriers, au nombre maximal de 8, que le joueur dirige également. Il peut aussi se munir d'une mule pour transporter plus d'objets, qui se défend. Chaque personnage peut se spécialiser entre combat au corps à corps, combat à distance, magie de guerre ou magie naturelle. La spécialisation au combat au corps à corps augmente la force ; le combat à distance, la dextérité ; et les deux magies, l'intelligence. Il n'y a qu'un seul écran de chargement au début de la partie. Une fois commencé, il n'y a plus besoin de patienter entre chaque niveau, puisqu'ici le monde est continu. Le royaume d'Ehb Il s'agit du royaume servant de décors au premier opus de Dungeon Siege. Ce royaume a été colonisé longtemps avant le début du jeu par les descendants des habitants de la péninsule qui fuyaient la guerre déclenchée contre les forces des ténèbres, cependant il est évoqué quelques fois dans le jeu original et bien plus dans son extension que la vraie origine des colons d'Ehb est un rapport avec « un peuple des étoiles» . Le scénario aurait donc un rapport important à la science-fiction, malheureusement exclu... Cachés derrière les hautes montagnes qui bordent le royaume, les habitants se croient en sûreté. L'avenir leur donnera tort et propulsera un simple fermier et ses compagnons au rang de héros après qu'ils auront traversé tout Ehb. Les héros de Dungeon Siege sont appelés les Carnorouen, il s'agit de puissant guerrier doué de la flamme de Karo un pouvoir divin conféré par un ancien dieu du savoir. Histoire Pendant le jeu, le joueur traverse différents lieux : la forêt occidentale : Le joueur se voit confier la tâche d'aller trouver un certain Gyorn. Cette phase se traduit surtout par un immense tutoriel. On évolue ici dans une forêt tout le long d'un chemin ponctué d'une ferme dévastée ou deux, puis une forêt sauvage remplie de monstres. la crypte du Sang-Sacré : Vous pouvez ajouter un personnage que vous secourez, Ulora. la ville de Stonebridge ; la croix de Wesrin ; la mine des nains de Glitterdelve ; la ville de Glacern ; les cavernes des glaces ; la forêt noire ; le marais oriental ; l'usine des gobelins ; les ruines du temple ; la forteresse de Kroth ; les falaises de feu et le gouffre du dragon ; le château d'Ehb. Multijoueurs Le monde multijoueurs est la péninsule utréenne. Le royaume d'Ehb peut aussi être joué en multijoueurs. On a le choix en multijoueurs entre la connexion au réseau local, la connexion via IP (internet). Microsoft a annoncé la fermeture du serveur ZoneMatch en 2007. Suites et extensions Gas Powered Games a mis en téléchargement libre deux "bonus packs" : Yesterhaven et Return to Arhok. L'extension Dungeon Siege: Legends of Aranna est sortie en décembre 2003. Le deuxième opus Dungeon Siege II: Battle for Aranna est sorti début septembre 2005 en France ainsi qu'une extension pour ce jeu Dungeon Siege II: Broken World. Dungeon Siege 3 est sorti le 17 juin 2011. Notes et références Voir aussi Liens externes Site officiel Action-RPG Jeu vidéo sorti en 2002 Jeu Windows Jeu Mac Jeu vidéo développé aux États-Unis Dungeon Siege Jeu Microsoft Game Studios Jeu Gas Powered Games
897
https://fr.wikipedia.org/wiki/Liste%20des%20dirigeants%20de%20l%27Union%20sovi%C3%A9tique
Liste des dirigeants de l'Union soviétique
Les dirigeants de l'Union soviétique sont les différents hommes qui ont dirigé la République socialiste fédérative soviétique de Russie puis l'Union des républiques socialistes soviétiques de 1917 à 1991. L'organisation de l'URSS fait coexister deux ordres institutionnels différents : celui de l'État et celui du Parti communiste de l'Union soviétique (PCUS), qui « noyaute » le premier. L'État possède un chef de l'État et un chef du gouvernement, mais la réalité du pouvoir est assurée par l'homme qui dirige le PCUS. L'histoire a d'ailleurs retenu les noms de ces derniers et non ceux des dirigeants constitutionnels du pays. Le dirigeant du PCUS pouvait par ailleurs cumuler ce poste avec celui de chef de l'État ou de chef du gouvernement, sans que le cumul ne soit ni systématique, ni constant. Selon les époques, les dirigeants du Parti sont appelés « secrétaires généraux » ou « premiers secrétaires ». Les dirigeants de l'État sont en général deux : le président du Parlement soviétique, qui est selon les différentes constitutions, le chef de l'État, et le dirigeant des ministres soviétiques, qui est lui le chef du gouvernement. Dirigeants de l'État soviétique Chefs de l'État Liste des chefs de gouvernement de l'Union soviétique Dirigeants du Parti communiste de l'Union soviétique Cette dernière liste est beaucoup plus raccourcie que les précédentes. Elle présente les seuls véritables dirigeants effectifs de l'Union soviétique qui sont les dirigeants du Parti communiste de l'Union soviétique (PCUS). Vladimir Ilitch Oulianov (Lénine) ( - ) : dirigeant de fait des bolcheviks tout en étant chef du gouvernement. Joseph Vissarionovitch Djougachvili (Staline) ( - ) : Secrétaire général du Comité central du Parti communiste (ou bolchévique) de toute l'Union puis Secrétaire général du Parti communiste de l'Union soviétique. Nikita Khrouchtchev ( - ) : Premier Secrétaire du Comité central du Parti communiste de l'Union soviétique. Léonid Brejnev ( - ) : d'abord Premier Secrétaire du Comité central du Parti communiste de l'Union soviétique puis Secrétaire général du Parti communiste de l'Union soviétique. Iouri Andropov ( - ) : Secrétaire général du Comité central du Parti communiste de l'Union soviétique. Konstantin Tchernenko ( - ) : Secrétaire général du Comité central du Parti communiste de l'Union soviétique. Mikhaïl Gorbatchev ( - ) : Secrétaire général du Comité central du Parti communiste de l'Union soviétique. Vladimir Ivachko ( - ) : il assure l'intérim après la démission de Mikhaïl Gorbatchev du secrétariat général jusqu'à la suspension du PCUS par le Soviet suprême. Notes et références Voir aussi Articles connexes Constitutions soviétiques de 1918, de 1923, de 1936 et de 1977 Politburo du Comité central du Parti communiste de l'Union soviétique Présidents du Præsidium du Soviet suprême de la RSFS de Russie, de la RSS d'Ukraine, de la RSS de Biélorussie, de la RSS d'Ouzbékistan Union sovietique Union sovietique
898
https://fr.wikipedia.org/wiki/Douglas%20MacArthur
Douglas MacArthur
Douglas MacArthur, né le à Little Rock en Arkansas et mort le à Washington, DC, est un général américain et field marshal philippin. Il fut le chef d'état-major de l'armée américaine durant les années 1930 et joua un rôle prépondérant sur le théâtre Pacifique de la Seconde Guerre mondiale. Il reçut la Medal of Honor pour son service durant la campagne des Philippines. Il fait partie des cinq personnes ayant atteint le grade de général de l'Armée dans l'armée américaine et le seul à avoir été field marshall de l'armée des Philippines. Douglas MacArthur est né dans une famille militaire de l'Arkansas. Son père, qui finit sa carrière comme major général, avait combattu durant la guerre de Sécession. Suivant la trace paternelle, Douglas étudia au Texas Military Institute dont il sortit major et à l'académie militaire de West Point où il fut également premier de promotion en 1903. Au cours de l'intervention américaine à Veracruz durant la révolution mexicaine, il mena une mission de reconnaissance pour laquelle il fut proposé pour la Medal of Honor. En 1917, il passa du grade de major à celui de colonel et devint le chef d'état-major de la d'infanterie. Il combattit sur le front de l'Ouest de la Première Guerre mondiale où il atteignit le grade de brigadier-général, fut à nouveau proposé pour la Medal of Honor et reçut deux Distinguished Service Cross et sept Silver Star. De 1919 à 1922, MacArthur fut le superintendant de l'Académie militaire de West Point où il lança plusieurs réformes. En 1924, il fut déployé aux Philippines où il participa au règlement d'une mutinerie de l'armée philippine. En 1925, il devint le plus jeune major-général de l'armée des États-Unis. Il participa au jugement en cour martiale du brigadier-général Billy Mitchell et fut président du Comité olympique américain lors des Jeux olympiques d'été de 1928 à Amsterdam. En 1930, il devint le chef d'état-major de l'armée américaine, puis fut impliqué dans l'expulsion des protestataires de la Bonus Army à Washington en 1932 et dans l'organisation du Civilian Conservation Corps. Il quitta l'armée américaine en 1937 pour devenir conseiller militaire auprès du Commonwealth des Philippines. À l'été 1941, MacArthur fut rappelé en service actif en tant que commandant de l'USAFFE. Les Philippines furent envahies par les Japonais en et les forces américaines durent se replier à Bataan, où elles résistèrent jusqu'en . En , MacArthur, sa famille et son état-major quittèrent l'île de Corregidor à bord de PT boats et rallièrent l'Australie où il devint le commandant suprême des forces alliées dans le Pacifique sud-ouest. Il reçut la Medal of Honor pour sa défense des Philippines. Après plus de deux ans de combats dans le Pacifique, il réalisa sa promesse de revenir aux Philippines. Il accepta formellement la reddition japonaise le et il supervisa l'occupation du Japon de 1945 à 1951. En tant que dirigeant effectif du Japon, il organisa de profonds changements économiques, politiques et sociaux. Par la suite, l'Américain mena les forces des Nations unies durant la guerre de Corée de 1950 jusqu'au lorsqu'il fut relevé de son commandement par le président Harry S. Truman. Il devint ensuite président du comité de direction de l'entreprise Remington Rand. Jeunesse Douglas MacArthur est né le dans la caserne de Little Rock dans l'Arkansas. Il était le fils du capitaine Arthur MacArthur, Jr. qui avait reçu la Medal of Honor pour ses actions dans l'armée de l'Union durant la bataille de Missionary Ridge lors de la guerre de Sécession et de Mary Pinkney Hardy MacArthur (surnommée « Pinky »). Douglas MacArthur était le petit-fils du juriste et politicien Arthur MacArthur, Sr., un immigrant écossais qui était arrivé aux États-Unis en 1828. Pinky était issue d'une importante famille de Norfolk en Virginie. Deux de ses frères avaient combattu dans l'armée confédérée durant la guerre de Sécession et ils refusèrent d'assister à son mariage. Arthur et Pinky avaient trois fils : Arthur III né le , Malcolm né le et Douglas qui était le cadet. Douglas vécut au gré des affectations de son père dans l'Ouest américain. Les conditions de vie étaient difficiles et Malcolm mourut de la rougeole en 1883. Dans ses mémoires, Reminiscences, MacArthur écrivit alors que son père était en affectation au fort Selden au Nouveau-Mexique. La période sur la Frontière se termina en lorsque la famille MacArthur déménagea à Washington, DC où Douglas étudia à la Force Public School. Son père fut affecté à San Antonio au Texas en septembre 1893. Douglas étudia à la West Texas Military Academy où il reçut une médaille d'or pour sa . Il participa également à l'équipe de tennis de l'école, joua au poste de quart-arrière dans l'équipe de football américain et au poste d'arrêt-court dans celle de baseball. Il sortit major de sa promotion avec une moyenne annuelle de 97,33 sur 100. Le père et le grand-père de MacArthur tentèrent en vain d'obtenir une nomination présidentielle à l'Académie militaire de West Point pour Douglas, initialement auprès du président Grover Cleveland puis auprès de William McKinley. Après ces deux refus, il passa un examen pour être proposé par le congressiste Theobald Otjen et obtint la note de 99,3/100. Il écrivit plus tard : MacArthur entra à West Point le et sa mère s'installa dans une suite du surplombant le terrain de l'académie. Le bizutage était alors courant à West Point et MacArthur et son camarade Ulysses S. Grant III furent victimes des cadets du sud en tant que fils de généraux du nord dont les mères vivaient à Craney's. Lorsque le cadet Oscar Booz quitta West Point après avoir été bizuté et mourut ensuite de la tuberculose, une commission d'enquête du Congrès fut mise en place. MacArthur se présenta devant un comité spécial du Congrès en 1901 où il témoigna contre les cadets impliqués dans le bizutage mais minimisa son propre bizutage même si les autres cadets avaient donné l'ensemble des faits au comité. Le Congrès décida d'interdire les actes de même si le bizutage se poursuivit. MacArthur fut un caporal de la Compagnie B sa seconde année, un premier sergent de la Compagnie A sa troisième année et premier capitaine sa dernière année. Toujours à West Point, il joua joueur de champ extérieur pour l'équipe de baseball. Au niveau académique, il obtint des possibles, soit une note de 98,14/100, le troisième meilleur score de l'histoire de l'académie ; il arriva en tête de sa promotion de le . À l'époque, il était d'usage que les meilleurs cadets entrent dans le Corps des ingénieurs de l'armée des États-Unis et MacArthur devint sous-lieutenant dans cette branche. Officier subalterne MacArthur passa sa permission après-diplôme avec ses parents à Fort Mason en Californie où son père, maintenant major-général, servait en tant que commandant du département du Pacifique. Il rejoignit ensuite le du génie qui partait pour les Philippines en . MacArthur fut envoyé à Iloilo où il supervisa la construction d'un quai à Camp Jossman. Il conduisit des études à Tacloban, Calbayog et à Cebu. En , alors qu'il travaillait à Guimaras, il fut attaqué par deux brigands philippins ; il les tua tous deux avec son pistolet. Il devint premier-lieutenant à Manille en . En , sa mission fut stoppée lorsqu'il contracta la malaria et une infection fongique alors qu'il réalisait une étude à Bataan. Il rentra à San Francisco où il fut assigné à la . En , il devint l'ingénieur en chef de la division du Pacifique. En octobre 1905, MacArthur reçut l'ordre de se rendre à Tokyo pour être nommé aide-de-camp de son père. Ils inspectèrent les bases militaires japonaises de Nagasaki, Kobe et Kyoto puis se rendirent en Inde via Shanghai, Hong Kong, Java et Singapour avant d'arriver à Calcutta en . En Inde, ils visitèrent Madras, Tuticorin, Quetta, Karachi, la Frontière-du-Nord-Ouest et la passe de Khyber. Ils se rendirent ensuite en Chine via Bangkok et Saïgon et visitèrent Canton, Tsingtao, Pékin, Tientsin, Hankow et Shanghai avant de revenir au Japon en . Le mois suivant, ils retournèrent aux États-Unis où Arthur MacArthur reprit ses activités à Fort Mason avec Douglas restant son aide. En , Douglas reçut l'ordre de se présenter devant le du génie à Fort Lesley J. McNair près de Washington et s'engager dans l'école du génie. Alors qu'il s'y trouvait, il fut également à la demande du président Theodore Roosevelt. En , MacArthur fut envoyé au district du génie de Milwaukee où ses parents se trouvaient à présent. En , il fut affecté à Fort Leavenworth dans le Kansas où il reçut son premier commandement à la tête du du génie. Il devint officier-adjoint du bataillon en 1909 puis officier ingénieur de Fort Leavenworth en 1910. MacArthur fut promu capitaine en et fut nommé à la tête du Département du génie militaire et de la Field Engineer School. Il participa à des exercices à San Antonio au Texas en 1911 et servit au Panama en et . La mort soudaine de leur père, alors lieutenant-général, le poussa Douglas et son frère Arthur à se rendre à Milwaukee pour s'occuper de leur mère dont la santé s'était dégradée. MacArthur sollicita un transfert à Washington pour que sa mère soit à proximité de l'hôpital Johns-Hopkins. Le chef d'état-major de l'armée, le major-général Leonard Wood étudia la question avec le secrétaire à la Guerre Henry L. Stimson, qui organisa la mutation de MacArthur au bureau du chef d'état-major de l'armée en 1912. Expédition de Veracruz Le , le président Woodrow Wilson ordonna l'occupation de Veracruz au Mexique pour empêcher une livraison d'armes dans le cadre de la révolution mexicaine. Un état-major fut envoyé sur place avec MacArthur qui arriva le . Il réalisa que les besoins logistiques pour une avancée depuis Veracruz imposeraient l'utilisation des chemins de fer. Ayant trouvé de nombreux wagons à Veracruz mais aucune locomotive, MacArthur voulut vérifier l'information selon laquelle plusieurs locomotives se trouveraient à Alvarado. Pour en or, il acheta une draisine à bras et les services de trois Mexicains. MacArthur et son groupe découvrirent cinq engins à Alvarado, deux étaient de simples locotracteurs mais les trois autres locomotives étaient exactement ce qu'ils recherchaient. Lors du retour à Veracruz, ils furent attaqués par cinq hommes armés. Ces derniers furent distancés à l'exception de deux hommes armés que MacArthur abattit. Peu après, le groupe fut attaqué par environ quinze cavaliers. MacArthur reçut trois balles dans ses vêtements mais ne fut pas blessé. L'un de ses compagnons fut légèrement blessé avant que les cavaliers ne se replient après que MacArthur eut tué quatre d'entre eux. Ils furent attaqués une troisième fois par trois cavaliers. Il parvint à les distancer grâce à leur draisine à l'exception d'un des assaillants. MacArthur le tua ainsi que sa monture et le groupe dut retirer la carcasse du cheval des rails avant de continuer. Un officier écrivit à Wood pour recommander MacArthur à la Medal of Honor. Wood proposa son nom et le chef d'état-major de l'armée Hugh L. Scott organisa un comité pour évaluer les mérites de MacArthur. Le comité s'interrogea sur l'. Le brigadier-général Frederick Funston, lui-même un récipiendaire de la Medal of Honor, considérait que son attribution à MacArthur était . Le comité craignait cependant que ; en conséquence, MacArthur ne reçut aucune récompense. Première Guerre mondiale Division Rainbow MacArthur retourna au Département de la Guerre où il fut promu major le . En , il fut assigné à la direction du Bureau de l'Information au bureau du secrétaire à la Guerre. MacArthur a depuis été considéré comme le premier attaché de presse de l'armée. À la suite de la déclaration de guerre contre l'Allemagne le , le secrétaire à la Guerre Newton D. Baker et MacArthur obtinrent du président Wilson qu'il envoie des unités de la Garde nationale en Europe. MacArthur suggéra d'envoyer une première division composée d'unités de différents États pour ne pas donner l'impression de favoriser un État en particulier. Baker approuva la création de la formation qui devint la Rainbow (« Arc-en-ciel ») et nomma le major-général William Abram Mann, le chef du Bureau de la Garde nationale, à sa tête avec MacArthur comme son chef d'état-major avec le grade de colonel. À la demande de MacArthur, cette commission se fit dans l'infanterie et non le génie. La fut assemblée en et à Camp Mills à New York où son entrainement mit l'accent sur le combat en terrain découvert plutôt que sur la guerre de tranchées. Elle embarqua à Hoboken dans le New Jersey le à bord du transport de troupes USS Covington. Le , Mann fut remplacé à la tête de la division par le major-général Charles T. Menoher. Seconde bataille de la Marne La monta au front dans le secteur assez calme de Lunéville en . Le , MacArthur et le capitaine Thomas Handy accompagnèrent un au cours duquel MacArthur participa à la capture de plusieurs soldats allemands. Le commandant du d'armée français, le général de division Georges de Bazelaire décora MacArthur de la Croix de guerre. Menoher recommanda MacArthur pour une Silver Star qu'il reçut par la suite. La médaille de la Silver Star ne fut pas créée avant le mais de petites étoiles en argent étaient autorisées sur les rubans de ceux récompensés pour leur bravoure à la manière des citations militaires britanniques. Le , la lança trois raids de sa propre initiative contre les tranchées allemandes du saillant du Feys. MacArthur accompagna une compagnie du d'infanterie. Cette fois-ci, son commandement fut récompensé par une Distinguished Service Cross. Quelques jours plus tard, MacArthur, qui était strict sur le fait que ses hommes emportent leur masque anti-gaz mais négligeait souvent de prendre le sien, fut gazé. Il récupéra suffisamment vite pour pouvoir accueillir le secrétaire Baker qui était arrivé dans la zone le . MacArthur fut promu brigadier-général le . À la fin du mois de juin, la fut transférée à Châlons-en-Champagne pour affronter l'imminente opération Michael allemande. Le général d'armée Henri Gouraud de la française choisit de mettre en place une défense en profondeur en maintenant une ligne de front aussi fine que possible et en recevant l'attaque allemande sur sa seconde ligne de défense. Le plan fonctionna et MacArthur reçut une seconde Silver Star. La participa à la contre-attaque alliée et MacArthur reçut une troisième Silver Star le . Deux jours plus tard, Menoher releva le brigadier-général Robert A. Brown de son commandement de la d'infanterie et le remplaça par MacArthur. Ayant reçu des rapports selon lesquels l'ennemi se serait replié, MacArthur monta au front le pour voir par lui-même. Il écrivit plus tard : MacArthur rapporta à Menoher et au lieutenant-général Hunter Liggett que les Allemands s'étaient effectivement retirés et il reçut une quatrième Silver Star. Il reçut également une seconde Croix de Guerre et fut fait commandeur de la Légion d'honneur. Bataille de Saint-Mihiel et offensive Meuse-Argonne La gagna quelques semaines de permission avant de retourner sur le front pour la bataille de Saint-Mihiel le . Les Alliés avancèrent rapidement et MacArthur gagna une cinquième Silver Star pour son commandement de la d'infanterie. Sa participation à un raid dans la nuit du au lui valut une sixième Silver Star. La fut relevée dans la nuit du et envoyée dans l'Argonne pour relever la d'infanterie dans la nuit du . Lors d'une reconnaissance le lendemain, MacArthur fut à nouveau gazé et reçut un second Wound Chevron. La participation de la lors de l'offensive Meuse-Argonne commença le lorsqu'elle attaqua avec deux brigades. Dans la soirée, une conférence fut organisée pour discuter de l'attaque au cours de laquelle le général demanda que Châtillon soit prise le lendemain avant . Une photographie aérienne montrait un vide dans le réseau de barbelés allemand au nord-est de Châtillon. Le lieutenant-colonel Walter E. Bare, commandant du d'infanterie, proposa une attaque soutenue par des tirs de mitrailleuses dans cette direction où les défenses semblaient moins puissantes ; MacArthur accepta le plan. Il fut blessé alors qu'il vérifiait l'existence de ce vide dans le réseau de barbelés. Summerall proposa MacArthur pour la Medal of Honor et une promotion au grade de major-général mais il ne reçut ni l'un ni l'autre ; à la place il gagna une seconde Distinguished Service Cross. La retourna sur le front pour la dernière fois dans la nuit du au . Dans l'avancée finale sur Sedan, elle fut impliquée dans ce que MacArthur considéra comme . Un ordre demandant de ne plus considérer les frontières entre unités mena les formations à entrer dans les zones des autres. Dans le chaos qui en découla, MacArthur fut fait prisonnier par des hommes de la qui le prirent pour un général allemand. Sa performance dans l'attaque sur les hauteurs de la Meuse lui valurent une septième Silver Star. Le , la veille de l'armistice qui mit fin aux combats, MacArthur fut nommé commandant de la . En récompense de son service en tant que chef d'état-major et commandant de la d'infanterie, il reçut lArmy Distinguished Service Medal. Son commandement fut bref car le , lui, comme d'autres brigadier-généraux, fut remplacé et il retourna à la tête de la d'infanterie. La fut choisie pour participer à l'occupation de la Rhénanie et fut stationnée dans l'arrondissement d'Ahrweiler. En , l'unité prit le train pour Saint-Nazaire et Brest où elle embarqua à bord de navires pour retourner aux États-Unis. MacArthur voyagea à bord du paquebot SS Leviathan qui arriva à New York le . Entre-deux-guerres Superintendant de l'académie militaire de West Point En 1919, MacArthur devint le superintendant de l'Académie militaire à West Point que le chef d'état-major Peyton March considérait comme dépassée sur de nombreux points et nécessitait de profondes réformes. Accepter le poste permit à MacArthur de conserver son grade de brigadier-général au lieu de redevenir major comme la plupart de ses contemporains. Lorsque MacArthur déménagea dans la maison du superintendant avec sa mère en , il devint le plus jeune superintendant depuis en 1817. Cependant, alors que Thayer avait dû faire face à l'opposition venant de l'extérieur de l'armée, MacArthur devait surmonter la résistance des cadets et des membres de l'Académie. La vision de MacArthur de ce qui était demandé d'un officier ne venait pas seulement de sa récente expérience du combat en France mais aussi de celle de l'occupation de la Rhénanie en Allemagne. Le gouvernement militaire de la région avait demandé à l'armée de gérer les problèmes politiques, économiques et sociaux et il avait vu que les diplômés étaient complémentent inexpérimentés en dehors du domaine militaire. Durant la guerre, West Point avait été réduit à une école pour élève-officier avec cinq promotions diplômées en deux ans. Le moral des cadets et de l'encadrement était faible et le bizutage avait atteint un . Le premier changement de MacArthur s'avéra être le plus simple. Le Congrès avait fixé la durée du cursus à trois ans mais MacArthur parvint à restaurer le programme sur quatre ans. Durant le débat sur la durée du cursus, le New York Times souleva la question de la nature recluse et antidémocratique de la vie étudiante à West Point. Suivant l'exemple de l'université Harvard en 1869, les universités civiles avaient commencé à évaluer les élèves uniquement suivant leurs performances académiques mais West Point avait conservé l'ancien concept éducatif d'« homme complet ». MacArthur chercha à moderniser le système en intégrant l'allure, le commandement, l'efficacité et les performances athlétiques dans le concept de caractère militaire. Il formalisa le code d'honneur des cadets jusqu'alors non écrit en 1922 lorsqu'il forma le comité d'honneur des cadets pour enquêter sur les supposées violations du code. Élu par les cadets eux-mêmes, il n'avait aucun pouvoir de sanction mais agissait comme une sorte de grand jury rapportant les infractions au commandant. MacArthur tenta de mettre un terme au bizutage en faisant entraîner les plébéiens par des officiers plutôt que par des personnes des classes supérieures. Au lieu du traditionnel camp d'été à Fort Clinton, MacArthur fit entraîner les cadets à l'utilisation d'armes modernes avec des sergents d'active du Fort Dix dans le New Jersey et ils devaient marcher les jusqu'à West Point avec leur paquetage. Il tenta de moderniser l'enseignement en ajoutant des cours d'arts libéraux, d'administration et d'économie mais il rencontra une forte opposition de la part du comité académique. Dans les cours militaires, l'étude des campagnes de la guerre de Sécession fut remplacée par celles de la Première Guerre mondiale. Dans les cours d'histoire, l'accent fut mis sur l'Extrême-Orient. MacArthur élargit le programme sportif en augmentant le nombre de compétitions au sein de l'établissement et en imposant à tous les cadets de participer. Il autorisa les cadets de dernière année à quitter l'Académie lors de permissions et approuva la parution d'un journal étudiant, The Brag, précurseur de l'actuel West Pointer. Il autorisa également les cadets à voyager pour assister aux matchs de leur équipe de football et leur accorda une indemnité de par mois. Les professeurs et les élèves protestèrent ensemble contre ces changements radicaux. La plupart des réformes de MacArthur à West Point furent rapidement abandonnées mais au cours des années qui suivirent, ses idées furent acceptées et ses innovations furent lentement réintroduites. Plus jeune major-général de l'armée MacArthur commença à avoir une aventure avec la mondaine et héritière multimillionnaire Louise Cromwell Brooks. Selon les rumeurs, le général John J. Pershing, qui était amoureux de Louise, aurait exilé MacArthur aux Philippines. Cela fut démenti par Pershing comme étant de . MacArthur épousa Louise le 14 février 1922 dans la résidence de sa famille à Palm Beach en Floride. En octobre 1922, MacArthur quitta West Point pour prendre le commandement du district militaire de Manille aux Philippines. Les îles étaient à présent pacifiées et à la suite du traité naval de Washington, la garnison était en cours de réduction. L'amitié de MacArthur avec des Philippins comme l'indépendantiste Manuel L. Quezon offusqua certaines personnes. Il concéda plus tard que la . En février et en mars 1923, MacArthur rentra à Washington pour voir sa mère qui souffrait du cœur. Elle récupéra mais ce fut la dernière fois qu'il vit son frère qui mourut soudainement d'une appendicite en décembre 1923. En juin 1923, MacArthur prit le commandement de la d'infanterie de la division Philippines. Le 7 juin 1924, il fut informé d'une mutinerie ayant éclaté au sein des éclaireurs philippins au sujet des salaires. Il y eut plus 200 arrestations et certains craignirent une insurrection. MacArthur parvint à calmer la situation mais ses efforts pour améliorer les salaires des troupes philippines furent contrariés par les difficultés économiques et les tensions raciales. Le 17 janvier 1925, il devint le plus jeune major-général de l'armée à l'âge de . De retour aux États-Unis, MacArthur prit le commandement de la Corps Area basée à Fort McPherson à Atlanta en Géorgie le 2 mai 1925. Il fut cependant victime des préjugés sudistes à l'encontre du fils d'un officier de l'armée de l'Union et demanda à être relevé. Quelques mois plus tard, il prit le commandement de la Corps Area basée à Fort McHenry à Baltimore dans le Maryland ce qui permit à MacArthur et à Louise d'habiter dans sa propriété près de Garrison. Cependant, ce déménagement mena à ce qu'il décrivit plus tard comme l' : devoir siéger dans le procès en cour martiale pour insubordination du brigadier-général Billy Mitchell. MacArthur était le plus jeune des treize juges dont aucun n'avait d'expérience en aviation et trois d'entre eux, dont Summerall, le président du tribunal, furent retirés lorsque la plaidoirie de la défense révéla des partis pris contre Mitchell. Malgré les affirmations de MacArthur selon lesquelles il avait voté pour son acquittement, Mitchell fut reconnu coupable et suspendu de ses fonctions. MacArthur sentit qu'un . En 1927, MacArthur et Louise se séparèrent et elle déménagea à New York. En août de la même année, William C. Prout, le président du comité national olympique, mourut soudainement et le comité élit MacArthur à sa présidence. Sa tâche principale était de préparer l'équipe américaine pour les Jeux olympiques d'été à Amsterdam. À son retour aux États-Unis, il reçut l'ordre de prendre le commandement du Département des Philippines. En 1929, alors qu'il se trouvait à Manille, Louise obtint le divorce sous le motif de . Considérant la grande richesse de Louise, l'historien William Manchester décrivit cette fiction judiciaire comme . Chef d'état-major de l'armée En 1930, MacArthur était encore, à , le plus jeune et le plus connu major-général de l'armée américaine. Il quitta les Philippines le et resta quelque temps au commandement de la IX Corps Area à San Francisco. Le , MacArthur devint chef d'état-major de l'armée américaine avec le grade de général. Le début de la Grande Dépression força le Congrès à réaliser des coupes dans les dépenses militaires. furent fermées mais MacArthur parvint à empêcher la réduction du nombre d'officiers de à . Ses missions incluaient le développement de nouveaux plans de mobilisation. Il regroupa les neuf Corps Area en quatre armées chargées de l'entraînement et de la défense du territoire. Il négocia également un accord avec le chef des opérations navales, l'amiral William V. Pratt. Il s'agissait du premier d'une série d'accords interarmes signés dans la décennie suivante qui définirent les responsabilités de chaque commandement au sujet de l'aviation. Les défenses anti-aériennes côtières furent par exemple placées sous la responsabilité de l'armée de terre. En mars 1935, MacArthur créa lUnited States Army Air Corps commandé par le major-général Frank M. Andrews pour donner une certaine autonomie à l'aviation jusqu'à présent une branche de l'armée de terre. En 1932, MacArthur dut prendre l'une des décisions les plus controversées de sa carrière lorsque les membres de la Bonus Army convergèrent sur Washington. Ces derniers étaient des vétérans de la Première Guerre mondiale qui demandaient une augmentation de leur pension pour faire face aux difficultés économiques provoquées par la Grande Dépression. MacArthur craignait que la manifestation ne soit prise en main par les communistes et les pacifistes mais ses services de renseignements indiquèrent que seuls 3 des 26 dirigeants clés du mouvement étaient communistes. MacArthur prépara des plans d'urgence dans le cas d'une insurrection dans la capitale. Des unités mécanisées furent redéployées de Fort Myer où des entraînements anti-émeutes étaient conduits. Le 28 juillet 1932, un affrontement entre la police et les manifestants entraîna la mort par balles de deux personnes. Le président Herbert Hoover ordonna à MacArthur d'. MacArthur rassembla des troupes et des chars et, contre l'avis du major Dwight D. Eisenhower, décida d'accompagner les troupes même s'il n'était pas responsable de l'opération. Les soldats avancèrent avec les baïonnettes et les sabres sortis sous une pluie de pierres et de briques mais sans tirer de coup de feu. En moins de quatre heures, le terrain occupé par la Bonus Army fut dégagé avec l'aide de gaz lacrymogènes. Les cartouches de gaz provoquèrent des incendies et un adolescent de fut asphyxié. Si elle avait été moins violente que d'autres opérations anti-émeute, la dispersion de la Bonus Army fut un désastre du point de vue des relations publiques. En 1934, MacArthur attaqua les journalistes Drew Pearson et Robert S. Allen en diffamation après qu'ils eurent décrit le traitement des manifestants comme . En réponse, ils menacèrent de faire témoigner Isabel Rosario Cooper. MacArthur avait rencontré Isabel alors qu'il se trouvait aux Philippines et elle était devenue sa maîtresse. Craignant que la liaison ne soit révélée au grand public, MacArthur retira sa plainte et paya secrètement à Pearson. Le président Hoover fut battu lors de l'élection de 1932 par Franklin D. Roosevelt. MacArthur et Roosevelt avaient travaillé ensemble avant la Première Guerre mondiale et ils étaient restés amis, malgré leurs différences politiques. MacArthur défendit le New Deal, et fit participer l'armée aux activités du Civilian Conservation Corps (CCC). Il décentralisa l'administration des opérations aux Corps Areas et cela joua un grand rôle dans le succès du programme. Malgré ses critiques publiques du pacifisme et de l'isolationnisme et son soutien à une armée forte qui le rendirent impopulaire, le président prolongea le mandat de MacArthur au poste de chef d'état-major. MacArthur arriva à la fin de son terme à cette fonction en octobre 1935 et il reçut une seconde Distinguished Service Medal pour sa performance. Deux Purple Hearts lui furent attribuées rétroactivement pour son service durant la Première Guerre mondiale ; MacArthur avait recréé cette récompense en 1932. Field Marshal de l'armée des Philippines Lorsque le Commonwealth des Philippines obtint un statut de semi-indépendance en 1935, le président des Philippines Manuel L. Quezon demanda à MacArthur de superviser la création d'une armée. Quezon et MacArthur étaient de proches amis depuis que le père de ce dernier avait été gouverneur-général des Philippines plus tôt. Avec l'approbation du président Roosevelt, MacArthur accepta la fonction. Il fut accepté que MacArthur reçoive un salaire, une indemnité et le rang de field marshal de la part du Commonwealth en plus de son salaire de major-général en tant que conseiller militaire. Cela fut son cinquième voyage en Extrême-Orient. MacArthur quitta San Francisco à bord du SS President Hoover en octobre 1935 avec sa mère et sa belle-sœur. MacArthur fut également accompagné de son aide-de-camp de longue date, le capitaine Thomas J. Davis, ainsi que du major Dwight D. Eisenhower et du major James B. Ord, un ami d'Eisenhower en tant qu'assistants. À bord du navire se trouvait également Jean Marie Faircloth, une mondaine célibataire de . Au cours des deux années qui suivirent, ils furent fréquemment vus ensemble. La mère de MacArthur tomba gravement malade durant la traversée et mourut à Manille le 3 décembre 1935. Le président Quezon confia officiellement le titre de field marshal à MacArthur lors d'une cérémonie au palais de Malacañan le 24 août 1936 et lui offrit un bâton de maréchal en or et un uniforme unique. L'armée des Philippines était formée par une conscription universelle. L'entraînement devait être mené dans un cadre professionnel et l'Académie militaire des Philippines fut créée sur le modèle de West Point pour former ses officiers. MacArthur et Eisenhower découvrirent que seuls quelques camps avaient été construits et que le premier groupe de ne serait pas formé avant le début de l'année 1937. L'équipement et les armes étaient des rebuts de l'armée américaine et le budget de 6 millions de dollars était largement insuffisant. Les demandes d'équipements de MacArthur furent ignorées même si MacArthur et son conseiller naval, le lieutenant-colonel Sidney L. Huff persuadèrent la marine de lancer le développement du PT boat. Beaucoup d'espoirs furent placés dans l'armée de l'air des Philippines mais le premier escadron ne fut pas formé avant 1939. MacArthur épousa Jean Faircloth lors d'une cérémonie civile le 30 avril 1937. Ils eurent un fils, Arthur MacArthur IV, né à Manille le 21 février 1938. Le 31 décembre 1937, MacArthur prit officiellement sa retraite de l'armée. Il cessa de représenter les États-Unis comme conseiller militaire du gouvernement mais il resta le conseiller de Quezon sur les affaires militaires en tant que civil. Eisenhower rentra aux États-Unis en 1939 et fut remplacé en tant que chef d'état-major de MacArthur par le lieutenant-colonel Richard K. Sutherland tandis que Richard J. Marshall devenait son assistant. Seconde Guerre mondiale Campagne des Philippines (1941–1942) Le 26 juillet 1941, Roosevelt fédéralisa l'armée des Philippines, rappela MacArthur en service actif dans l'US Army en tant que major-général et le nomma commandant des forces armées américaines en Extrême-Orient (USAFFE). MacArthur fut promu lieutenant-général le lendemain puis général le 20 décembre. Au même moment, Sutherland fut promu major-général tandis que Marshall, Spencer B. Akin et devinrent tous brigadiers-généraux. Le 31 juillet 1941, le Département des Philippines disposait de soldats dont Philippins. La principale unité était la division Philippines sous le commandement du major-général Jonathan M. Wainwright. Entre juillet et décembre 1941, la garnison reçut en renfort. Après des années de parcimonie, de nombreux équipements militaires furent envoyés dans l'archipel. En novembre, d'équipements destinés aux Philippines s'étaient accumulés dans les ports et les dépôts américains en attendant leur transport. La station d'écoute de la marine dans l'archipel, appelée station CAST, disposait d'une machine de déchiffrement Purple ultrasecrète qui pouvait décrypter les messages diplomatiques japonais et une partie des messages chiffrés avec le code naval JN-25. La station transférait l'ensemble des informations à MacArthur via Sutherland, le seul officier de l'état-major à les voir. Le 8 décembre 1941 à heure locale (environ le 7 décembre à Hawaii), Sutherland apprit l'attaque de Pearl Harbor et en informa MacArthur. À , le chef d'état-major de l'armée, le général George Marshall, ordonna à MacArthur d'exécuter le plan de guerre existant, appelé plan orange, destiné à affronter une attaque de l'Empire du Japon. MacArthur ne fit rien. À trois occasions, le commandant de la Far East Air Force (« Armée de l'Air d'Extrême-Orient »), le major-général Lewis H. Brereton, demanda l'autorisation d'attaquer les bases japonaises à Formose en application du plan orange mais l'opération fut rejetée par Sutherland. À , Brereton en parla avec MacArthur qui approuva l'attaque. MacArthur nia plus tard avoir eu cette conversation. Avant que les appareils ne soient envoyés, à , des avions de l'aéronavale japonaise attaquèrent par surprise les bases aériennes de Clark Field et de Iba Field. La Far East Air Force perdit 18 de ses 35 B-17, 53 de ses 107 P-40 et plus de 25 autres appareils. La plupart des avions furent détruits au sol et les installations furent sévèrement endommagées. Il y eut et 150 blessés. Ce qui restait de la Far East Air Force fut détruit dans les jours qui suivirent. Les plans de défenses supposaient que l'on ne pourrait pas empêcher les Japonais de débarquer à Luçon et prévoyaient l'abandon de Manille par les troupes américaines et philippines qui se replieraient avec leurs équipements dans la péninsule de Bataan. MacArthur espérait néanmoins ralentir l'avancée japonaise en tentant de repousser les débarquements japonais. Il perdit confiance dans les capacités militaires de ses troupes philippines car les Japonais progressèrent rapidement à la suite de leur débarquement dans la baie de Lingayen le 21 décembre et il ordonna un repli sur Bataan. Manille fut déclarée ville ouverte à minuit le 24 décembre sans consulter l'amiral Thomas C. Hart, commandant de lAsiatic Fleet, ce qui força la marine à détruire de grandes quantités de matériel. Le 25 décembre, MacArthur déplaça son quartier-général dans l'île-forteresse de Corregidor dans la baie de Manille. Une série de bombardements aériens japonais détruisit toutes les structures exposées de l'île et le quartier-général de l'USAFFE fut emmené dans le tunnel de Malintla. Par la suite, la plus grande partie de l'état-major déménagea à Bataan en ne laissant que le cœur du quartier-général avec MacArthur. Les troupes de Bataan savaient qu'elles étaient perdues mais elles continuèrent de combattre. Certains blâmèrent Roosevelt et MacArthur pour leur situation difficile. Une ballade chantée sur l'air du Battle Hymn of the Republic l'appelait Dugout Doug (« Doug le Planqué »). Néanmoins, la plupart des soldats s'accrochaient à l'idée que d'une manière ou d'une autre MacArthur . Le janvier 1942, MacArthur accepta de la part du président Quezon des Philippines pour son service d'avant-guerre. L'état-major reçut également de l'argent : pour Sutherland, pour Richard Marshall et pour Huff. Quezon proposa également de l'argent à Eisenhower après qu'il eut été nommé à la tête du Supreme Commander Allied Expeditionary Force (AEF) mais il déclina. Ces paiements n'étaient connus que de quelques personnes à Manille et à Washington dont Roosevelt et le secrétaire à la Guerre, Henry L. Stimson, avant d'être rendus publics par l'historien Carol Petillo en 1979. La révélation ternit la réputation de MacArthur. Fuite en Australie et Medal of Honor En , alors que les forces japonaises resserraient leur emprise sur les Philippines, le président Roosevelt ordonna à MacArthur de se rendre en Australie. Dans la nuit du , MacArthur et un petit groupe incluant sa femme Jean et son fils Arthur ainsi que Sutherland, Akin, Casey, Marshall, , LeGrande A. Diller et Harold H. George quittèrent Corregidor à bord de quatre PT boats. MacArthur, sa famille et Sutherland se trouvaient dans le PT-41 commandé par le lieutenant John D. Bulkeley. Les autres suivaient dans les PT 34, PT 35 et PT 32. MacArthur et son groupe arrivèrent à la base aérienne Del Monte sur l'île de Mindanao où ils montèrent à bord de B-17 de la marine qui les emmenèrent en Australie. Son fameux discours dans lequel il déclara (« Je suis parti de Bataan mais j'y retournerai ») fut prononcé pour la première fois à Terowie, une petite gare d'Australie-Méridionale le 20 mars. À son arrivée à Adélaïde, il abrégea la phrase à (« J'en suis venu et j'y retournerai ») et l'expression fit les gros titres des journaux. Washington demanda à MacArthur de modifier sa promesse en (« Nous y reviendrons ») mais il ignora la requête. Bataan se rendit le et Corregidor le 6 mai. Pour son commandement dans la défense des Philippines, MacArthur reçut la Medal of Honor, une décoration pour laquelle il avait été auparavant proposé à deux reprises. Il était admis que MacArthur n'avait pas réalisé d'actes de bravoure mais son attribution à Charles Lindbergh en 1927 avait créé un précédent. MacArthur l'accepta sur la base que . Arthur MacArthur, Jr. et Douglas MacArthur devinrent les premiers père et fils à recevoir la Medal of Honor. Ils restèrent les seuls jusqu'en 2001 quand Theodore Roosevelt reçut la médaille à titre posthume pour son service durant la Guerre hispano-américaine, son fils, Theodore Roosevelt Jr. l'ayant également reçue à titre posthume pour son service durant la Seconde Guerre mondiale. Campagne de Nouvelle-Guinée Quartier-général suprême Le 18 avril 1942, MacArthur fut nommé commandant suprême des forces alliées dans la South West Pacific Area (« Zone du Pacifique Sud-Ouest », SWPA). Le lieutenant-général George Brett devint le commandant des forces aériennes et le vice-amiral Herbert F. Leary devint le commandant des forces navales. Comme le gros des forces terrestres dans ce théâtre d'opération était australien, George Marshall insista pour qu'un Australien soit nommé à la tête des unités terrestres et le commandement fut confié au général Thomas Blamey. Bien qu'essentiellement australiennes et américaines, les unités sous le commandement de MacArthur comprenaient également quelques formations des Indes orientales néerlandaises, du Royaume-Uni et d'autres pays. MacArthur créa une forte relation avec le premier ministre australien, John Curtin mais de nombreux Australiens n'appréciaient pas MacArthur qu'ils considéraient comme un général étranger qui leur avait été imposé. MacArthur avait peu confiance dans les capacités militaires de Brett et en août 1942, il fut remplacé par le major-général George C. Kenney. Le déploiement de l'aviation de Kenney en soutien des troupes de Blamey se révéla décisif. L'état-major du quartier général suprême de MacArthur (GHQ) fut constitué autour du noyau qui avait quitté les Philippines avec lui et il devint connu sous le nom de Bataan Gang. Bien que Roosevelt et George Marshall eussent fait pression pour que des officiers hollandais et australiens soient nommés au GHQ, tous les commandants de division étaient américains et les officiers d'autres nationalités étaient sous leurs ordres. Initialement situé à Melbourne, le GHQ déménagea à Brisbane, la ville australienne avec les installations de communication adéquates la plus au nord, en juillet 1942 et s'installa dans le bâtiment de la compagnie d'assurance AMP Limited. MacArthur forma sa propre unité de renseignement d'origine électromagnétique, appelée Central Bureau, à partir des unités de renseignement australiennes et des cryptanalystes américains s'étant échappés des Philippines. L'unité transmettait les informations Ultra à Willoughby pour qu'elles soient analysées. Après que la presse eut révélé les détails de la disposition navale japonaise durant la bataille de la mer de Corail, au cours de laquelle une tentative japonaise d'invasion de Port Moresby fut repoussée, Roosevelt ordonna la mise en place de la censure en Australie et le Conseil de Guerre australien accorda au GHQ l'autorité pour censurer la presse australienne. Les journaux australiens ne pouvaient publier que ce qui était rapporté dans le communiqué journalier du GHQ.Les journalistes expérimentés considéraient les communiqués, que MacArthur ébauchait personnellement comme une et . Papouasie En prévision d'une nouvelle attaque japonaise contre Port Moresby, la garnison fut renforcée et MacArthur ordonna la création de nouvelles bases à Merauke et dans la baie de Milne pour couvrir ses flancs. La victoire de Midway en juin 1942 poussa les Alliés à envisager une offensive limitée dans le Pacifique. La proposition de MacArthur d'une attaque contre la base japonaise de Rabaul fut rejetée par la marine qui privilégiait une approche moins ambitieuse et était réticente à l'idée d'avoir un général de l'armée de terre à la tête d'une opération amphibie. Le compromis obtenu prévoyait une progression en trois étapes dont la première, la capture de la zone de Tulagi, devait être menée par la Pacific Ocean Areas de l'amiral Chester W. Nimitz. Les étapes ultérieures seraient sous le commandement de MacArthur. Les Japonais frappèrent les premiers en débarquant à Buna en juillet et dans la baie de Milne en août. Les Australiens repoussèrent les Japonais dans la baie de Milne mais une série de défaites le long de la Kokoda Track eut un effet démoralisateur en Australie. Le 30 août, MacArthur avertit Washington que sans actions immédiates, les unités déployées en Nouvelle-Guinée seraient submergées. Il envoya Blamey à Port Moresby pour qu'il prenne le commandement en personne. Ayant engagé toutes les troupes australiennes disponibles, MacArthur décida d'envoyer des unités américaines. La d'infanterie, une formation de la Garde nationale mal entraînée, fut choisie. Une série de revers embarrassants lors de la bataille de Buna-Gona entraîna de violentes critiques des troupes américaines par les Australiens. MacArthur ordonna au lieutenant-général Robert L. Eichelberger de prendre le commandement des unités américaines et de . MacArthur détacha certains éléments du GHQ à Port Moresby le 6 novembre 1942. Buna tomba finalement le 3 janvier 1943 et MacArthur décerna la Distinguished Service Cross à douze officiers pour leur . L'attribution de la seconde récompense américaine la plus prestigieuse entraîna un certain ressentiment car si certains comme Eichelberger et George Alan Vasey avaient combattu en première ligne, ce n'était pas le cas d'autres comme Sutherland et Willoughby. Pour sa part, MacArthur reçut sa troisième Distinguished Service Medal et le gouvernement australien le fit chevalier grand-croix honoraire de l'ordre du Bain. MacArthur devint le symbole des forces résistant aux Japonais et reçut de nombreux hommages. Les tribus amérindiennes du sud-ouest le choisirent comme . MacArthur fut touché par cette reconnaissance de la part de . Il fut également nommé Père de l'Année 1942. Il écrivit au comité de la fête des pères que . Nouvelle-Guinée Lors de la conférence militaire du Pacifique en , le Comité des chefs d'États-majors interarmées approuva le plan de MacArthur pour l'opération Cartwheel destinée à isoler et à neutraliser la base de Rabaul. MacArthur expliqua sa « stratégie du saute-mouton » : En Nouvelle-Guinée, un pays sans routes, le transport à grande échelle des hommes et du matériel devait être réalisé par air et par mer. Les embarcations de débarquement étaient livrées en pièces détachées en Australie avant d'être assemblées à Cairns. Le rayon d'action de ces petits navires fut grandement augmenté par les navires d'assaut amphibie de la force amphibie qui commencèrent à arriver à la fin de l'année 1942 et formèrent la nouvelle septième flotte américaine. Comme la septième flotte n'avait pas de porte-avions, le rayon d'action des opérations navales était limité par celui des chasseurs de la 5th USAAF. Le quartier-général de la du lieutenant-général Walter Krueger arriva dans la SWPA au début de l'année 1943 mais MacArthur ne disposait que de trois divisions américaines épuisées par les combats de Buna-Gona et de Guadalcanal. En conséquence, . L'offensive commença par un débarquement de la australienne à Lae le . Le lendemain, MacArthur assista à la prise de Nadzab par les parachutistes du de parachutistes américain. Son B-17 réalisa la tournée sur trois moteurs car l'un d'eux était tombé en panne peu après le décollage de Port Moresby mais MacArthur insista pour qu'il se rende à Nadzab. Pour cela, il reçut lAir Medal. La et la australienne convergèrent sur Lae qui tomba le 16 septembre. MacArthur avança son calendrier et ordonna à la de prendre Kaiapit et Dumpu tandis que la organisa un assaut amphibie sur Finschhafen. L'offensive s'enlisa en partie parce que MacArthur avait basé sa décision d'attaquer Finschhafen sur l'évaluation de Willoughby selon laquelle la ville n'était défendue que par japonais. Ils étaient en réalité et la furieuse bataille qui suivit dura jusqu'en . Au début du mois de novembre, le plan de MacArthur d'une progression vers l'ouest le long de la côte de Nouvelle-Guinée jusqu'aux Philippines fut intégré aux plans pour la guerre contre le Japon. Trois mois plus tard, les aviateurs rapportèrent qu'il n'y avait aucun signe d'activité ennemie dans les îles de l'Amirauté. Malgré les réticences de Willoughby qui considérait que les îles n'avaient pas été évacuées, MacArthur ordonna un débarquement amphibie qui lança la campagne des îles de l'Amirauté. Il accompagna l'assaut à bord du croiseur léger , le navire-amiral du vice-amiral Thomas C. Kinkaid, le nouveau commandant de la , et il débarqua sur le rivage quelques heures après la première vague ; un acte qui lui valut la Bronze Star. Il fallut six semaines de combats acharnés avant que la de cavalerie ne capture les îles. MacArthur contourna les forces japonaises dans la baie Hansa et à Wewak et attaqua Aitape et Hollandia que Willoughby considérait comme légèrement défendue en s'appuyant sur les renseignements obtenus lors de la bataille de Sio. Les cibles de l'offensive étaient hors du rayon d'action des appareils de la USAAF basés dans la vallée du Ramu mais le calendrier de l'opération permit aux porte-avions de la flotte de Pacifique de Nimitz de fournir un appui aérien. Bien que risquée, l'opération fut un grand succès qui permit d'isoler la armée japonaise du lieutenant-général Hatazō Adachi basée dans la région de Wewak. Comme les Japonais ne s'attendaient pas à une attaque si à l'ouest, la garnison était faible et les pertes alliées furent donc limitées. Le terrain se révéla cependant moins adapté que prévu au développement d'une base aérienne et MacArthur fut forcé de chercher un meilleur emplacement plus à l'ouest. Si le contournement des forces japonaises était tactiquement justifié, il avait l'inconvénient stratégique de devoir immobiliser des troupes alliées sur place pour les contenir. De plus, Adachi était loin d'être vaincu comme il le démontra lors de la bataille de la rivière Driniumor. Campagne des Philippines (1944–1945) Leyte En , le président Roosevelt convoqua MacArthur à Hawaii pour . Nimitz défendit une attaque contre Formose mais MacArthur mit l'accent sur l'obligation morale des États-Unis de libérer les Philippines. En septembre, les porte-avions de William F. Halsey réalisèrent une série d'attaques dans les Philippines. L'opposition fut faible et Halsey conclut, à tort, que l'île de Leyte était et probablement non défendue et recommanda que les opérations prévues soient annulées en faveur d'un assaut sur Leyte. Le , les troupes de la de Krueger débarquèrent à Leyte tandis que MacArthur observait les opérations depuis le croiseur léger . Il s'approcha de la plage dans l'après-midi. Les troupes américaines avaient peu progressé ; les tireurs d'élite étaient encore présents et la zone était la cible de tirs de mortiers sporadiques. Lorsque son embarcation s'échoua, MacArthur demanda une péniche de débarquement mais le chef des opérations était trop occupé pour accéder à sa requête. MacArthur fut donc obligé de gagner la rive à pied. Dans son discours préparé à l'avance, il déclara Comme Leyte était hors de portée des appareils de Kenney basés à terre, MacArthur était dépendant de l'aviation embarquée. L'activité japonaise s'accrut rapidement et elle mena des raids sur Tacloban, où MacArthur avait décidé d'établir son quartier-général, et sur la flotte au large. MacArthur appréciait rester sur le pont de l'USS Nashville durant les attaques aériennes malgré le fait que plusieurs bombes soient passées à proximité et que deux croiseurs voisins eurent été touchés. Au cours des jours suivants, les Japonais contre-attaquèrent lors de la bataille du golfe de Leyte. L'issue fut une victoire décisive des Alliés mais les Japonais manquèrent de détruire les unités de débarquement et MacArthur attribua les erreurs à la division du commandement entre lui et Nimitz. La campagne terrestre ne fut pas non plus facile. Les fortes pluies de la mousson perturbèrent le programme de construction de bases aériennes. Les porte-avions ne pouvaient pas remplacer parfaitement les aérodromes terrestres et le manque de couverture aérienne permit aux Japonais de débarquer des renforts à Leyte. Le mauvais temps et la résistance tenace des Japonais ralentit la progression américaine et cela entraîna une campagne prolongée. À la fin du mois de décembre, le quartier-général de Krueger estimait qu'il ne restait plus que Japonais sur Leyte et le , MacArthur publia un communiqué annonçant que . Pourtant la d'Eichelberger tua encore soldats japonais sur Leyte avant la fin de la campagne en . Le , MacArthur fut promu au nouveau grade de général de l'armée avec cinq étoiles. Luçon MacArthur décida ensuite d'envahir Mindoro où se trouvaient de potentiels sites pour des bases aériennes. Willoughby estima, correctement, que l'île n'était défendue que par Japonais. Le problème était d'y parvenir car Kinkaid rechignait à détacher des porte-avions dans la mer de Sulu et Kenney ne pouvait pas garantir un soutien aérien. L'opération était clairement risquée et l'état-major de MacArthur le dissuada d'accompagner l'invasion à bord de l'USS Nashville. Alors que le convoi entrait dans la mer de Sulu, un kamikaze s'écrasa sur l'USS Nashville tuant 133 marins et en blessant 190 autres. Les débarquements se firent sans opposition le 15 décembre 1944 et moins de deux semaines plus tard, les unités du génie américaines et australiennes avaient construit trois aérodromes. Le ravitaillement était cependant rendu difficile par les attaques kamikazes japonaises. Les Alliés pouvaient donc maintenant préparer l'invasion de Luçon. Les estimations des forces japonaises étaient cependant très différentes suivant les interprétations des informations des services de renseignement. Willoughby estimait que le général Tomoyuki Yamashita disposait de soldats à Luçon tandis que la envisageait la présence de hommes. Le brigadier-général Clyde D. Eddleman tenta d'arranger l'estimation de la mais la réponse de MacArthur fut (« Foutaises ! »). Il considérait même que l'estimation de Willoughby était trop élevée et il ignora toutes les estimations des services de renseignement. En réalité, Yamashita disposait de plus de hommes à Luçon. Cette fois-ci, MacArthur accompagna le convoi de débarquement à bord de l' qui fut presque touché par une torpille tirée par un sous-marin de poche. Son communiqué indiquait : . Le principal objectif de MacArthur était la capture du port de Manille et de la base aérienne de Clark Field nécessaires pour de futures opérations. Il pressa ses commandants d'avancer le plus vite possible. Le 25 janvier 1945, il installa son quartier-général à Hacienda Luisita, alors plus proche du front que celui de Krueger. Le 30 janvier, il ordonna à la de cavalerie de progresser rapidement vers Manille. Elle atteignit les faubourgs de la ville le 3 février et le campus de l'université de Santo Tomas où elle libéra prisonniers. Les Américains ignoraient cependant que le contre-amiral Iwabuchi Sanji avait désobéi aux ordres de repli de Yamashita et avait décidé de défendre la ville jusqu'à la mort. La bataille de Manille fit rage durant près d'un mois. Afin d'épargner la population civile, MacArthur interdit l'emploi de frappes aériennes mais près de civils furent victimes des tirs d'artillerie américains et des exactions japonaises. Pour son rôle dans la capture de Manille, MacArthur reçut sa troisième Distinguished Service Cross. Philippines du sud Malgré la poursuite des combats sur Luçon et le fait qu'il n'avait pas d'instructions en ce sens, MacArthur engagea ses forces dans une série d'opérations pour libérer le reste des Philippines. 52 débarquements furent réalisés dans le centre et le sud des Philippines entre et . Dans le communiqué du GHQ du 5 juillet, il annonça que les Philippines avaient été libérées et que toutes les opérations étaient terminées même si Yamashita contrôlait encore le nord de Luçon. À partir de mai 1945, MacArthur engagea les troupes australiennes dans la conquête de Bornéo. Il accompagna l'assaut sur Labuan à bord de l' et rendit visite aux troupes sur le terrain. Alors qu'il rentrait à son quartier-général de Manille, il se rendit à Davao où il dit à Eichelberger qu'il ne restait plus que Japonais en vie à Mindanao. Quelques mois plus tard, près de soldats s'étaient rendus. En , il reçut sa quatrième Distinguished Service Medal. En , MacArthur devint commandant en chef des forces armées américaines du Pacifique (AFPAC) responsable de toutes les unités terrestres et aériennes du Pacifique à l'exception de la 20th USAAF. Au même moment, Nimitz devint le commandant de toutes les forces navales ; le commandement dans le Pacifique restait donc divisé. Cette réorganisation qui s'étala sur plusieurs mois faisait partie des préparatifs de l'opération Downfall désignant l'invasion de l'archipel japonais prévue pour l'automne 1945. Cette opération fut annulée à la suite de la reddition du Japon en . Le , MacArthur, représentant les Alliés, accepta la capitulation formelle du Japon à bord du cuirassé . Il met ainsi un terme à la Seconde Guerre mondiale en disant : . En reconnaissance de son rôle de stratège naval, la marine américaine lui décerna la Navy Distinguished Service Medal. Occupation du Japon Le , MacArthur reçut l'ordre d'exercer l'autorité sur le Japon par l'intermédiaire de l'administration japonaise et de l'empereur Hirohito. Le quartier-général de MacArthur fut installé dans le siège de la compagnie d'assurance Dai-ichi Mutual Life Insurance à Tokyo. En tant que commandant suprême des forces alliées au Japon, MacArthur et son équipe devaient reconstruire l'économie du Japon et mettre en place un gouvernement démocratique. Le Japon et sa reconstruction étaient fermement contrôlés par les États-Unis et MacArthur fut le dirigeant effectif du Japon de 1945 à 1948. En 1946, l'équipe de MacArthur rédigea une nouvelle constitution qui instituait un gouvernement basé sur le système de Westminster dans lequel l'empereur perdait son rôle d'autorité militaire et ne pouvait agir qu'avec l'accord du Cabinet. La constitution, qui devint effective le , incluait le fameux article 9 par lequel le pays renonçait à la guerre et s'interdisait de posséder une armée. De plus, la constitution émancipait les femmes, interdisait la discrimination raciale, renforçait les pouvoirs du Parlement et du Cabinet et décentralisait la police et l'administration. Une importante réforme agraire fut entreprise ; entre 1947 et 1949, le gouvernement racheta près de de terres, soit 38 % des surfaces cultivées, aux propriétaires terriens et furent redistribués aux paysans qui travaillaient pour eux. En 1950, 89 % des terres agricoles appartenaient aux agriculteurs et seulement 11 % étaient louées par des propriétaires fonciers. Les efforts de MacArthur pour encourager la formation des syndicats connurent un succès phénoménal et en 1947, 48 % des travailleurs non agricoles étaient syndiqués. Certaines des réformes de MacArthur furent annulées en 1948 lorsque son contrôle du Japon fut remplacé par une plus grande implication du Département d'État. Durant l'occupation, les Américains parvinrent, jusqu'à un certain point, à abolir de nombreux conglomérats financiers appelés zaibatsus qui monopolisaient auparavant l'industrie et avaient joué un grand rôle dans le complexe militaro-industriel japonais. Des groupes industriels plus souples appelés keiretsus les ont ensuite remplacés. Les réformes inquiétèrent les Ministères des Affaires étrangères et de la Défense, qui considéraient qu'elles entraient en contradiction avec la perspective qu'un Japon industrialisé serve de rempart contre l'expansion du communisme en Asie. Dans son discours devant le Congrès le , MacArthur déclara, MacArthur rendit le pouvoir au gouvernement japonais en 1949 mais resta au Japon jusqu'à être relevé de ses fonctions par le président Truman le . Le traité de San Francisco, signé le 8 septembre 1951, marqua la fin de l'occupation et lorsqu'il entra en vigueur le 28 avril 1952, le Japon redevint un état indépendant. Les Japonais ont surnommé MacArthur Gaijin Shogun (« le généralissime étranger ») mais pas avant sa mort en 1964. On l'appelait aussi au Japon le shogun aux yeux bleus. Procès des crimes de guerre MacArthur fut responsable de l'application des condamnations pour crimes de guerre rendues par le Tribunal militaire international pour l'Extrême-Orient. À la fin de l'année 1945, les commissions militaires alliées dans diverses villes d'Asie jugèrent Japonais, Taïwanais et Coréens pour crimes de guerre. Environ furent condamnés dont à mort. Les accusations portaient sur des événements comme le massacre de Nankin, la marche de la mort de Bataan et le massacre de Manille. Le procès à Manille du général Tomoyuki Yamashita, le commandant des forces japonaises dans les Philippines à partir de 1944 fut critiqué car Yamashita fut pendu en raison du massacre de Manille, perpétré par Iwabuchi, qu'il n'avait pas ordonné et dont il n'était probablement pas informé. Iwabuchi s'était suicidé à la fin de la bataille de Manille. MacArthur accorda l'immunité à Shirō Ishii et des autres membres des unités de recherche biologiques en échange de leurs données obtenues par expérimentation sur l'Homme. Il empêcha également la mise en accusation pour crimes de guerres de l'empereur et des membres de la famille impériale comme les princes Chichibu, Asaka, Takeda, Higashikuni et Fushimi. MacArthur confirma que l'abdication de l'empereur n'était pas nécessaire. Ce faisant, il ignora les conseils de nombreux membres de la famille impériale et des intellectuels japonais qui demandaient publiquement l'abdication de l'empereur et la mise en place d'une régence. Guerre de Corée Le 25 juin 1950, l'invasion de la Corée du Sud par la Corée du Nord marqua le début de la guerre de Corée. Le jour même, le Conseil de sécurité des Nations unies vota la résolution 82 autorisant l'envoi d'une force internationale pour soutenir la Corée du Sud. Les Nations unies donnèrent aux États-Unis le pouvoir de choisir un commandant et le Comité des chefs d’États-majors interarmées recommanda MacArthur à l'unanimité. Il devint ainsi le commandant en chef du Commandement des Nations unies (UNCOM) tout en restant le commandant suprême des forces alliées au Japon et le commandant de l'USAFFE. Toutes les forces sud-coréennes furent placées sous son commandement. Alors qu'elles se repliaient sous la pression nord-coréenne, MacArthur reçut l'autorisation d'engager des forces terrestres américaines. Tout ce que les premières unités déployées pouvaient faire était de gagner du temps pour permettre la formation du périmètre de Busan. À la fin du mois d'août, l'urgence s'atténua ; les attaques nord-coréennes contre le périmètre étaient contenues et alors que la Corée du Nord déployait hommes, la du lieutenant-général Walton Walker en avait maintenant et disposait de plus de chars et de pièces d'artillerie. En 1949, le président du Comité des chefs d’États-majors interarmées, le général de l'armée Omar Bradley, avait prédit qu'une mais en juillet 1950, MacArthur planifiait une opération de ce type. MacArthur compara son plan à celui du général James Wolfe lors de la bataille des plaines d'Abraham et rejeta tous les problèmes posés par les marées, l'hydrographie et le terrain. Le 15 septembre, malgré les inquiétudes persistantes de leurs supérieurs, les soldats américains réalisèrent un débarquement à Inchon, loin derrière les lignes ennemies. Soutenues par la marine et l'aviation, les forces débarquées reprirent rapidement Séoul et forcèrent les Nord-Coréens à fuir vers le nord pour éviter un encerclement. En visite sur le champ de bataille le 17 septembre, MacArthur inspecta six chars T-34 détruits par les soldats américains en ignorant les tirs des tireurs d'élite autour de lui sauf pour noter qu'ils manquaient d'entraînement. Le 11 septembre, le président Harry S. Truman autorisa une progression au-delà du nord qui marquait la frontière entre les deux Corées. MacArthur planifia un autre assaut amphibie, à Wonsan sur la côte orientale mais la ville fut prise par les troupes sud-coréennes avant que la de Marines ne l'atteigne par la mer. En octobre, MacArthur rencontra Truman sur l'île de Wake où le président lui décerna sa cinquième Distinguished Service Medal. Interrogé brièvement sur la menace chinoise, MacArthur l'écarta et dit qu'il espérait pouvoir retirer la au Japon avant Noël et qu'il pourrait libérer une division pour l'Europe en janvier. Il considérait la possibilité d'une intervention soviétique comme une menace plus sérieuse. Un mois plus tard, les choses avaient changé. Lors de la bataille d'Unsan à la fin du mois d'octobre, les forces de l'ONU furent repoussées avec de lourdes pertes par des soldats chinois. Néanmoins, Willoughby minimisa les preuves de l'intervention chinoise. Le 24 novembre, il estima que soldats de l'Armée des volontaires du peuple chinois étaient présents dans le pays alors que le véritable nombre était plus proche de . Le même jour, MacArthur se rendit au quartier-général de Walker et il écrivit plus tard : MacArthur survola le front dans son Douglas C-54 Skymaster mais ne vit aucun signe de renforcement chinois et décida d'attendre avant d'ordonner un assaut ou un repli. Les preuves de l'activité chinoise étaient invisibles pour MacArthur car l'armée chinoise se déplaçait de nuit et se retranchait le jour. Pour ses efforts de reconnaissance, MacArthur reçut la Distinguished Flying Cross et un badge d'aviateur. Le lendemain, le 25 novembre 1950, la de Walker fut attaquée par l'armée chinoise et les forces de l'ONU furent rapidement obligées de se replier. Le 23 décembre, Walker fut tué lors d'une collision entre sa jeep et un camion et il fut remplacé par le lieutenant-général Matthew B. Ridgway. Ridgway nota que le . Suspension En décembre, le chef d'état major de l'armée, le général Joseph Lawton Collins, évoqua la possibilité d'utiliser des armes nucléaires en Corée avec MacArthur et lui demanda par la suite une liste de cibles en Union soviétique si cette dernière entrait en guerre. MacArthur témoigna devant le Congrès en 1951 qu'il n'avait jamais recommandé l'emploi d'armes nucléaires. Il avait un temps envisagé de larguer des matières radioactives en Corée. S'il évoqua le sujet avec le président élu Eisenhower en 1952, il ne recommanda jamais son application. En 1954, lors d'un entretien publié après sa mort, il déclara qu'il avait voulu larguer des bombes atomiques sur les bases ennemies mais en 1960, il s'opposa à une déclaration de Truman affirmant la même chose. Truman publia une rétractation en avançant qu'il n'avait aucune preuve et qu'il s'agissait uniquement de son opinion personnelle. Le 5 avril 1951, le Comité des chefs d’États-majors interarmées délivra des ordres à MacArthur l'autorisant à attaquer la Mandchourie et la péninsule du Shandong si les Chinois utilisaient des armes nucléaires pour lancer des frappes aériennes en Corée. Le lendemain, Truman rencontra le président de la Commission de l'énergie atomique des États-Unis, Gordon Dean, et organisa le transfert de neuf bombes nucléaires Mark 4 sous le contrôle militaire. Dean s'inquiétait du fait que la décision sur la manière de les utiliser soit confiée à MacArthur qui, selon lui, n'avait pas toutes les connaissances techniques de ces armes et de leurs effets. Le Comité des chefs d’États-majors n'était pas non plus complètement à l'aise à l'idée de les donner à MacArthur, de peur qu'il n'applique trop prématurément ces consignes. Il fut décidé à la place de mettre la force de frappe nucléaire sous le contrôle du Strategic Air Command. En quelques semaines, MacArthur fut obligé de se retirer de la Corée du Nord. Lorsque Séoul tomba en janvier, Truman et MacArthur durent envisager la possibilité d'abandonner l'ensemble de la péninsule coréenne. Les pays européens ne partageaient pas la vision mondiale de MacArthur, se méfiaient de son jugement et craignaient que sa stature et son influence auprès du public américain ne détournent la politique américaine de l'Europe vers l'Asie. Ils s'inquiétaient également d'une possible confrontation avec la Chine, impliquant peut-être l'emploi d'armes nucléaires. Lors d'une visite aux États-Unis en décembre 1950, le premier ministre du Royaume-Uni Clement Attlee exprima les craintes européennes que . Sous le commandement de Ridgway, la reprit son offensive vers le nord en février et reprit Séoul en mars 1951. Les Chinois subirent de lourdes pertes et durent se replier derrière le . Devant l'amélioration de la situation militaire, Truman envisagea d'obtenir une paix négociée, mais le 24 mars MacArthur demanda à la Chine de reconnaître sa défaite ; il s'agissait d'un défi à la fois contre les Chinois et face à ses propres supérieurs. La proposition de Truman fut mise en suspens. Le 5 avril, le représentant Joseph William Martin, Jr., le chef de file des républicains de la Chambre des représentants, lut une lettre de MacArthur critiquant la stratégie de guerre limitée du président Truman. La lettre se terminait par : Truman convoqua le secrétaire à la Défense, George Marshall, le chef d'état-major des armées Omar Bradley, le secrétaire d’État Dean Acheson et Averell Harriman pour discuter de la situation. Les chefs d’États-majors se réunirent le 8 avril et conclurent que MacArthur n'était pas coupable d'insubordination, et que s'il était allé assez loin dans l'application des ordres, il n'avait pas outrepassé sa mission. Ils acceptèrent la suspension de MacArthur, mais sans la recommander. Bien qu'ils aient considéré qu'elle était correcte , ils étaient conscients qu'il y avait d'importantes considérations politiques en jeu. Même si Truman et Acheson considéraient que MacArthur était insubordonné, le Comité des chefs d’États-majors évita toute suggestion en ce sens. L'insubordination était un crime et MacArthur aurait pu demander une cour martiale publique similaire à celle de Billy Mitchell dans les années 1930. Le résultat d'un tel procès était incertain et le verdict aurait pu demander qu'il recouvre ses fonctions. Le Comité des chefs d’États-majors admit qu'il y avait . Bradley insista sur le fait que . Truman demanda à Ridgway de relever MacArthur de ses fonctions et l'ordre fut transmis le 10 avril, avec la signature de Bradley. La suspension du célèbre général par l'impopulaire Truman, parce que le général avait communiqué avec le Congrès, entraîna une large controverse et une crise constitutionnelle. Les sondages indiquèrent qu'une majorité d'Américains désapprouvaient cette décision. La cote de popularité de Truman tomba à 23 % au milieu de l'année 1951, ce qui reste encore le plus bas score atteint par un président américain en exercice. Alors que l'impopulaire guerre de Corée se poursuivait, l'administration Truman fut victime d'une série d'affaires de corruption, et le président décida de ne pas se représenter en 1952. Un comité sénatorial présidé par le démocrate Richard Brevard Russell Jr. enquêta sur la suspension de MacArthur. Elle conclut que la . Fin de vie MacArthur s'envola pour Washington avec sa famille en avril 1951. Il s'agissait de la première visite de son épouse Jean aux États-Unis continentaux depuis 1937 lors de leur mariage et leur fils Arthur IV, à présent âgé de , n'était jamais allé en Amérique. MacArthur fit sa dernière apparition officielle lors d'un discours d'adieux au Congrès qui fut interrompu par cinquante ovations. MacArthur termina son monologue par : MacArthur connaissait une très forte popularité : un demi-million de personnes se massèrent sur son cortège à San Francisco, sept millions à New York le 20 avril 1951, les spectateurs jetant plus de huit tonnes de confettis à cette occasion. Les rumeurs prétendaient qu’il pourrait se présenter à la présidence mais il ne chercha pas à être candidat. Il soutint le sénateur Robert Taft et fut l’un des principaux orateurs lors de la convention nationale républicaine de 1952. Taft perdit la nomination face à Eisenhower qui remporta largement l'élection de 1952 face à Adlai Stevenson. Une fois élu, Eisenhower consulta MacArthur sur la manière de mettre un terme à la guerre en Corée. Douglas et Jean MacArthur passèrent leurs dernières années ensemble dans une suite de l'hôtel Waldorf-Astoria. Il fut élu président du conseil d'administration de l'entreprise Remington Rand. Il recevait un salaire de en plus de son indemnité de en tant que général de l'armée. Chaque année, le 26 janvier, une réception était organisée pour l'anniversaire du général par son ancien assistant, le major-général . Lors de la célébration du de MacArthur en 1960, de nombreux invités furent choqués par l'état de santé du général. Le lendemain, MacArthur fit un malaise et fut emmené à l'hôpital St. Luke où il fut opéré de la prostate. Après une période de convalescence, MacArthur se rendit à la Maison-Blanche pour une dernière réunion avec Eisenhower. En 1961, il fit un aux Philippines où le président Carlos P. Garcia lui remit la Légion d'honneur. MacArthur accepta une avance de de l'éditeur Henry Luce pour les droits de ses mémoires qui furent publiées sous le titre Reminiscences. Des extraits furent publiés sous forme de feuilleton dans le magazine Life peu de temps avant sa mort. Le président John F. Kennedy sollicita l'avis de MacArthur en 1961. Le premier des deux entretiens eut lieu peu après le débarquement de la baie des Cochons. MacArthur critiqua vertement les conseils militaires donnés à Kennedy, mit en garde le jeune président contre un engagement au Viêt Nam et lui conseilla de donner la priorité aux questions de politique intérieure. Peu avant sa mort, il donna un conseil similaire au président Lyndon B. Johnson. En 1962, West Point décerna le Sylvanus Thayer Award à un MacArthur de plus en plus affaibli pour son engagement extraordinaire au service de la nation. Le discours d'acceptation de MacArthur aux cadets avait comme thème, Devoir, Honneur, Pays : Douglas MacArthur mourut d'une cirrhose biliaire primitive à l'hôpital Walter Reed de Washington le 5 avril 1964. Kennedy avait autorisé des obsèques nationales et Johnson confirma la directive en ordonnant qu'il soit inhumé . Le 7 avril, le corps de MacArthur fut emmené par train jusqu'à Union Station puis transporté jusqu'au Capitole. Environ défilèrent devant sa dépouille. Le cercueil fut ensuite inhumé dans la rotonde du Mémorial Douglas MacArthur à Norfolk en Virginie. En 1960, le maire de Norfolk avait proposé d'organiser une collecte de fonds auprès du public pour transformer l'ancien palais de justice de la ville en un mémorial pour le général MacArthur et pour accueillir ses documents, ses décorations et ses souvenirs. Restauré, le bâtiment abrite neuf galeries retraçant la carrière militaire du général. Au cœur du mémorial se trouve une rotonde avec une crypte circulaire accueillant deux sarcophages de marbre, un pour MacArthur et le second pour Jean, qui continua de vivre dans la suite du Waldorf jusqu'à sa mort en 2000. Œuvres Douglas MacArthur Dans la guerre du Pacifique et autres histoires de ma vie Nouveau Monde Éditions, Paris, 2020, 320 p. Récompenses et honneurs Au cours de sa vie, MacArthur reçut plus d'une centaine de décorations militaires américaines et d'autres pays dont la Medal of Honor, la Légion d'honneur et la Croix de Guerre françaises, l'ordre de la Couronne d'Italie, l'ordre d'Orange-Nassau hollandais, l'ordre du Bain australien et l'ordre du Soleil levant japonais. Décorations militaires des États-Unis Décorations individuelles Distinctions d'unité Distinctions de service Ordres et décorations étrangères Belgique France O.N.U. Médaille des Nations unies pour la Corée Héritage Les réformes de MacArthur à West Point furent rapidement annulées. Son concept du rôle du soldat englobant la gestion des affaires civiles fut ignoré par la majorité de ceux qui combattirent en Europe et qui voyaient leur mission comme étant principalement la lutte contre l'Union soviétique. Sa suspension eut cependant des effets durables sur les relations entre civils et militaires aux États-Unis. Lorsque Lyndon Johnson rencontra le général William Westmoreland à Honolulu en 1966, il lui dit : . La suspension de MacArthur . Interrogé sur MacArthur, Blamey dit . MacArthur reste un personnage controversé et énigmatique. Il a souvent été représenté comme un réactionnaire même s'il fut, à de nombreux égards, en avance sur son temps. Il défendit une approche progressiste de la reconstruction de la société japonaise en avançant que toutes les occupations se finissent toujours mal pour l'occupant et l'occupé. Il affirma que la Corée du Nord et la Chine n'étaient pas de simples marionnettes de l'Union soviétique et que l'avenir se trouvait en Extrême-Orient. Il était ainsi à l'opposé de la vision dominante de la Guerre froide tout en rejetant implicitement les notions contemporaines de supériorité raciale. Il traita toujours les dirigeants philippins et japonais avec le respect dû à des égaux. Sa réticence à raser Manille par des bombardements aériens fut considérée comme démodée par la génération endurcie de la Seconde Guerre mondiale. MacArthur fut extrêmement populaire auprès du public. De nombreux bâtiments, rues et parcs furent nommés d'après lui. La récompense MacArthur du collège militaire royal du Canada à Kingston en Ontario est décerné aux cadets ayant démontré une aptitude au commandement extraordinaire. Médias Cinéma Guérillas (1950), il est interprété par Robert Barrat Condamné au silence (1955), il est interprété par Dayton Lummis MacArthur, le général rebelle (1977), il est interprété par Gregory Peck Inchon (1981), il est interprété par Laurence Olivier (1983), il est interprété par Rick Jackson (1995), il est interprété par Daniel von Bargen (1995), il est interprété par James Sikking (1998), il est interprété par Le Soleil (2005), il est interprété par Robert Dawson Crimes de guerre (2012), il est interprété par Tommy Lee Jones Memories of War (2016), il est interprété par Liam Neeson La Bataille du lac Changjin (2020), il est interprété par James Filbird Télévision Téléfilm (1976), il est interprété par Henry Fonda Séries télévisées Les têtes brûlées, saison 1 - épisode 7, il est interprété par Korea : The Unknown War (1988), il est interprété par Charlton Heston The Korean War (2001), il est interprété par Frank Novak Notes et références Bibliographie Articles . . . . . Ouvrages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Voir aussi Liens externes Liste des récompenses de MacArthur The MacArthur Memorial Nécrologie du New York Times, 6 avril 1964 Documents du MacArthur sur le site du Public Broadcasting Service Archives vidéo consacrées à MacArthur Naissance en janvier 1880 Naissance à Little Rock Décès en avril 1964 Décès à Washington (district de Columbia) Décès à 84 ans Chef militaire de la Première Guerre mondiale Militaire américain de la Première Guerre mondiale Militaire américain de la Seconde Guerre mondiale Militaire américain de la guerre de Corée Histoire militaire des États-Unis Histoire militaire du Japon Chief of Staff of the United States Army Élève de l'Académie militaire de West Point Américain au Japon Récipiendaire de la Medal of Honor (US Army) Récipiendaire de la Purple Heart Titulaire de la médaille militaire Titulaire de la croix de guerre 1914-1918 Grand-croix de l'ordre d'Orange-Nassau Grand-croix de l'ordre de la Couronne Grand-croix de l'ordre Polonia Restituta Chevalier grand-croix honoraire de l'ordre du Bain Ordre du Lion blanc Récipiendaire de la Virtuti Militari Récipiendaire de l'ordre du Soleil levant Grand-croix de l'ordre de la Couronne d'Italie General of the Army Chef militaire de la Seconde Guerre mondiale Récipiendaire de la Silver Star Récipiendaire de la Bronze Star Titulaire de l'Army of Occupation Medal Élève de l'United States Army Command and General Staff College Récipiendaire de la Distinguished Flying Cross (États-Unis) Récipiendaire de la Distinguished Service Cross (États-Unis) Récipiendaire de l'Air Medal Titulaire du Combat Infantryman Badge Surintendant de l'académie militaire de West Point Récipiendaire de la médaille d'or du Congrès des États-Unis Famille MacArthur Personnalité inhumée en Virginie
899
https://fr.wikipedia.org/wiki/Deir%20el-M%C3%A9dineh
Deir el-Médineh
Deir el-Médineh (ou Deir al-Médîna) est le nom arabe d'un village de l'Égypte antique où résidait la confrérie des artisans chargés de construire les tombeaux et les temples funéraires des pharaons et de leurs proches durant le Nouvel Empire (de la à la ). Le village se situe sur le chemin qui mène du Ramesséum à la vallée des Reines. Son nom antique, Set Maât her imenty Ouaset, signifie « La place de Maât (ou Place de vérité) à l'occident de Thèbes ». En effet, le village se trouve à l'ouest de Thèbes, sur la rive opposée du Nil. Le nom arabe de Deir el-Médineh signifie « le couvent de la ville » car, à l'époque de la conquête de l'Égypte par les Arabes, le temple du village avait été converti en monastère chrétien au . Les artisans vénéraient comme fondateur et protecteur de la confrérie. Les habitants de Deir el-Médineh sont à l'origine d'une grande partie des tombes de la vallée des Rois et des temples funéraires qui longent la rive ouest du Nil, entre autres des tombes des , des , des et de Toutânkhamon. On leur doit également le temple monumental d'Hatchepsout sur le site de Deir el-Bahari. Sur le flanc de la colline bordant le village, les tombes des ouvriers ont été construites et décorées par les ouvriers de la nécropole eux-mêmes. On y trouve entre autres les tombes d'Ipy, de Pached, et de Senedjem. Les fouilles ont permis de retrouver un grand nombre d'ostraca et de papyri, qui renseignent d'une façon détaillée sur la vie quotidienne des ouvriers. Ceux-ci apparaissent comme un personnel très qualifié de petits fonctionnaires, bien logés, nourris, soignés, bénéficiant d'un statut enviable. Ces grands travaux n'ont donc pas été réalisés, contrairement à une légende tenace, par une population d'esclaves. Cependant, le village compte des esclaves étrangers. De plus, l'isolement et la claustration des habitants reviennent à une situation d'esclavage. Historique C'est qui institue une équipe d'ouvriers dédiés au creusement et à la décoration des tombes royales et fonde ainsi le village de Deir el-Médineh. Lors de la construction d'Akhetaton, la nouvelle capitale, une partie de la communauté des artisans restent à Deir el-Médineh, tandis qu'une autre partie rejoint Amarna. Mais à partir de l'époque ramesside, le nombre d'artisans augmente et le village s'agrandît. Sous a lieu la première grève de l'histoire due à des retards d'approvisionnement. À la fin du règne de , le village est abandonné, puis pillé durant la Troisième Période intermédiaire. Architecture du village À son apogée, le village couvre une superficie de et compte environ (soit au total, en comptant les familles). Ceint par une muraille haute de cinq mètres environ percée d'une porte principale au nord, gardée nuit et jour, le village est composé de soixante-huit maisons mitoyennes donnant sur une rue principale. Chaque maison, construite selon un modèle identique, en brique crue sur des fondations de pierre, comprend trois pièces en enfilade : une entrée avec une chapelle surélevée, décorée d'images en lien avec la femme et la naissance ; une pièce de vie au plafond également surélevé et percé de petites fenêtres laissant passer le jour, équipées d'une sorte de capte-vent destiné à apporter un peu de fraîcheur à l'intérieur ; une ou deux pièces donnant sur une cour équipée d'un four en argile et servant de cuisine. Entre la pièce principale et la cuisine, un escalier permet d'atteindre le toit-terrasse. Les cours sont protégées du soleil par des canisses de roseau. Enfin, les maisons sont complétées par une cave destinée à maintenir au frais les denrées alimentaires. Le toit plat constitue un espace supplémentaire de couchage et de stockage. Les murs intérieurs sont enduits et peints de motifs colorés géométriques imitant des tissus décoratifs. Le mobilier est limité et simple, les pièces étant petites et le bois rare et onéreux. Les vêtements, cosmétiques et objets de valeur sont entreposés dans des paniers, des pots ou des coffres en bois. Les maisons les plus riches disposent de lits, de chaises et de tabourets mais dans les plus modestes - la majorité de celles de Deir el-Médineh -, des banquettes en brique crue servent pour dormir et s'asseoir. Les repas sont servis sur des plateaux, parfois soutenus par des tréteaux mobiles. Les tombes des artisans sont hors de l'enceinte et jouxtent le village. Un temple de construction ptolémaïque y est édifié par pour les déesses Hathor et Maât. Équipes de travailleurs Deux équipes se partagent les tâches d'aménagement et de décoration des sépultures pharaoniques. Chacune compte contremaitres, maçons, peintres, graveurs, sculpteurs, etc. La cité se développe jusqu'à compter sous quelque nourries par une noria de pêcheurs, cultivateurs et porteurs d'eau. Sur les monuments laissés par les ouvriers, ces derniers se présentent comme étant serviteur dans la Place de Vérité (sedjem aah em set Maât). Ce terme sous-entend des notions d'ordre, de vérité et de justice, montrant que ces artisans, en préparant la tombe de Pharaon, jouent un rôle fondamental dans le maintien de l'ordre du monde dont le souverain est le garant. À la fin du règne de (vers -1166 suivant les sources), le village est le lieu d'un événement mémorable : une grève des ouvriers. Celle-ci, en effet, est l'objet du premier document connu de l'Histoire relatant un conflit social, le Papyrus de la Grève conservé au Musée de Turin. Dessins d'artistes Dans les fouilles du « grand puits », devenu dépotoir, les archéologues ont découvert des milliers d'ostraca, certains apportant des informations sur la vie quotidienne de la communauté, et d'autres comportant des dessins témoignant du savoir-faire et de l'humour des artisans : un chat berger (conservé au Musée égyptien du Caire) ; le dressage d'un babouin (conservé au Musée du Louvre) ; une danseuse (conservé au Musée égyptologique de Turin) ; une mère et son fils (conservé au British Museum) ; des ex-voto (conservé au Musée égyptien du Caire) Temples et divinités vénérées à Deir el-Médineh La déesse Mertseger est la protectrice du village. Elle réside au sommet de la pyramide naturelle, la Cime, formée par un pic de la montagne thébaine (450 m). Divinités vénérée Maât, la rectitude, règle primordiale de la confrérie ; Mertseger, protectrice du village ; Thot, patron des scribes et des dessinateurs ; Khnoum, patron des potiers et des sculpteurs ; Hathor, déesse de l'amour ; , pharaon divinisé en tant que fondateur de la ville. Temples Le temple ptolémaïque D'époque ptolémaïque, le petit temple de Deir el-Médineh (neuf mètres de large sur vingt-deux mètres de long) comporte trois sanctuaires juxtaposés précédés d'un vestibule soutenu par deux colonnes à chapiteau hathorique. Ici sont vénérés Amon-Rê-Osiris, Amon-Sokar-Osiris et Hathor et on trouve dans un des sanctuaires une très rare représentation de la pesée du cœur devant Osiris qui doit définir si le défunt était apte ou non à entrer dans le royaume des morts. Bien que fort modeste, le temple est pourvu d'un mammisi, actuellement visible sous la forme d'un renfoncement dans un des murs extérieur du temple, lui-même entouré par une enceinte en briques crues typique. Autres constructions Outre le temple de Deir el-Médineh, le site est parsemé de fondations d'autres temples plus anciens, notamment le petit temple d' et la chapelle d'Hathor construite par alors que d'autres éléments remontent à . Fouilles archéologiques À partir de 1810, les voleurs pillent Deir el-Médineh, dont les nombreuses tombes et les maisons étaient encore en excellent état. Auguste Mariette met fin à ce pillage sauvage dans les années 1850. TT1, la tombe de Sennedjem, est découverte en 1885. Le village est fouillé dans sa partie nord par Ernesto Schiaparelli de 1905 à 1909 pour le compte du Musée égyptologique de Turin, et les années suivantes, le Français Émile Baraize s'intéresse au petit temple ptolémaïque. Il y a ensuite quelques fouilles dirigées par l'Allemand Müller et les Français Girard et Kuentz. Mais le véritable explorateur du site est Bernard Bruyère qui y consacra près de vingt-cinq ans de sa vie. Il y entreprend l'exploration systématique et méthodique entre 1917 et 1947 ainsi que l’égyptologue tchèque Jaroslav Černý. En 1934/1935, Bernard Bruyère y découvre la tombe de la dame Madja et de son époux, un ouvrier du village des artisans. Notes et références Bibliographie Pierre du Bourguet, Le temple de Deir al-Médîna, éd. par Luc Gabolde, dessins de Leïla Ménassa, Le Caire, 2002 (Mémoires publiés par les membres de l'Institut français d'archéologie orientale du Caire, 121). . Bernard Bruyère : Deir el-Médineh, La nécropole de l'ouest, FIFAO 14, IFAO, Le Caire, 1937. Deir el-Médineh, la nécropole de l'est, FIFAO 15, IFAO, Le Caire, 1937. Rapport sur les fouilles de Deir el-Médineh de 1923 à 1947, FIFAO 2 à 21 Le Caire, 1925 à 1952. Dominique Valbelle, Les ouvriers de la tombe. Deir el-Médineh à l'époque ramesside, IFAO, 1985 Robert Mingam, Deir el-Médineh, le village des Artisans de la Michel Malaise, Alimentation des ouvriers de Deir el-Médineh au Nouvel Empire Guillemette Andreu, Les Artistes de Pharaon, Musée du Louvre, 2001 Jérôme Prieur, Rendez-vous dans une autre vie, Paris, Seuil, coll. « La librairie du  », 2010, 181 p., Œuvres de fiction En 2000, Christian Jacq a écrit une série intitulée La Pierre de Lumière, traitant de ce village d'artisans et composée de quatre volumes : Néfer le silencieux, La femme sage, Paneb l'ardent et La place de Vérité. En 2010, un album de la série de bande dessinée, Les Gardiens du sang écrite par Didier Convard, a pour titre Deir el-Médineh. C'est un des lieux du jeu Égypte : 1156 av. J.-C. - L'Énigme de la tombe royale. Voir aussi Liens externes Deir el-Médineh, le site, le temple Le temple égyptien : Description du temple de Deir el-Médineh. Dossier thématique sur le site du Musée du Louvre Index égyptologique Site égyptologique XVIIIe dynastie égyptienne XIXe dynastie égyptienne XXe dynastie égyptienne Période lagide
900
https://fr.wikipedia.org/wiki/Droit
Droit
Le droit est défini comme , ou de façon plus complète . Ces règles, appelées règles de droit, sont abstraites, obligatoires et indiquent ce qui « doit être fait ». Ces règles juridiques peuvent trouver leur source dans une source normative « supérieure », extérieure, transcendante, comme le droit naturel, ou découler de normes intrinsèques. Dans ce second cas, les règles sont issues d'usages constatés et acceptés (droit coutumier) ou sont édictées et consacrées par un chargé de régir l'organisation et le déroulement des relations sociales (droit écrit). La « force» obligatoire du droit suppose : que la source du droit soit reconnue et acceptée comme légitime ; que l'énoncé de la loi soit connu de tous, ce qui implique qu'il fasse l'objet d'une large publication ou d'une accessibilité certaine. Cette exigence est reflétée par l'adage « Nul n'est censé ignorer la loi » ; que l'application de la loi puisse être garantie par l'existence de moyens de contrainte prévus par elle et organisés soit par toute procédure d'arbitrage convenue entre les parties, soit par l'État ou par une instance spécialisée. Dans les sociétés revendiquant la séparation des pouvoirs, l'application du droit résulte d'une collaboration entre le pouvoir législatif qui définit le droit, le pouvoir exécutif qui veille à son exécution — en collaboration avec les citoyens — et le pouvoir judiciaire qui reçoit mission d'interpréter et de sanctionner les éventuels manquements ou contestations soulevées par son application. Sources primaires du droit Droit et société Selon les tenants du positivisme juridique, le droit est un phénomène social. La société établit des règles destinées à régir son fonctionnement et à organiser les relations, économiques ou politiques, des personnes physiques qui la composent. Cela lui donne une importance considérable. Droit, morale, éthique et justice Le droit se distingue des règles morales et de politesse par l'intervention possible d'une sanction positive prévue et attachée à la règle de droit. Le droit est également distinct de l'éthique car son objectif premier n'est pas de caractériser la valeur morale des actes (en bien ou en mal) mais de définir ce qui est permis ou défendu par la règle instituée dans une société donnée. L'étude du droit pose des questions récurrentes, quant à l'égalité, la justice, la sûreté. Selon Aristote, la règle de droit « est meilleure que celle de n'importe quel individu ». Anatole France écrit quant à lui, en 1894 : « La loi, dans un grand souci d'égalité, interdit aux riches comme aux pauvres de coucher sous les ponts, de mendier dans les rues et de voler du pain. » (est-ce de l'ironie ?) Typologie des sources du droit Les sources de la règle juridique sont généralement classées en quatre ordres : Les sources d'exception qui expriment et créent une légitimité de rupture à l'exemple de mouvement de revendication, révolution, démonstration de force, etc. Les sources institutionnelles sont celles qui rendent concrète l'existence du droit, ce sont les trois pouvoirs classiques qui existent dans l'État : le pouvoir législatif, judiciaire et exécutif. Ils sont appelés à donner matériellement naissance au droit. Les sources documentaires du droit national qui émanent de tous procédés par lesquels le droit s'exprime. Ainsi la loi, les règlements, la coutume, les codes, les publications parues dans les Journaux Officiels, etc. Les sources documentaires du droit international qui émanent des conventions internationales, protocoles, chartes, la coutume internationale, la jurisprudence internationale et les principes généraux du droit reconnus par la plupart des pays. Dans les pays de tradition civiliste et de droit écrit comme la France, les seules sources formelles sont la loi au sens large, comprenant la constitution, la loi au sens strict, les textes subordonnés (règlements), comme les décrets, les arrêtés, les circulaires et la coutume. La jurisprudence, les principes généraux du droit formulés notamment par la doctrine ne sont que partiellement reconnues comme des sources du droit. Aux sources du droit correspond une hiérarchie des normes qui établit la place des normes dans l'ordre juridique. Le droit européen a un rôle de plus en plus important. De nos jours, il est dans notre droit supérieur aux lois ; mais inférieur aux lois organiques qui sont contenues dans la constitution. Autres approches du droit D'autres sciences humaines s'intéressent au droit mais avec une approche non strictement juridique. L'analyse économique du droit cherche la raison d'être des institutions juridiques en faisant appel à des concepts empruntés à la science économique. La sociologie du droit étudie le droit en tant que phénomène social. La philosophie du droit étudie les fondements et la définition de notions juridiques comme le droit, la loi ou l'État. L'histoire du droit étudie le droit dans la perspective historique avec ses constances et son évolution. L'anthropologie juridique étudie les phénomènes juridiques avec une approche culturelle, sociale et symbolique. La géographie du droit étudie le droit dans ses rapports avec l'espace au sein duquel il évolue. Typologie des systèmes de droit Le droit est un phénomène social constant, qui se crée ou se recrée de façon naturelle dès que deux individus sont réunis. La création ou l'élaboration de règles, qui ne soient fondées ni sur des considérations morales, ni religieuses, est un phénomène qui se retrouve dans chaque société, considérée développée ou non. Chaque système juridique élabore des règles juridiques, des droits comme des responsabilités, de différentes manières. La plupart des pays ont un système juridique codifié, dit de droit civiliste ou romano-germanique, qui s'est développé à travers la doctrine, mais qui adhère de nos jours au positivisme légaliste selon lequel la doctrine et la jurisprudence sont subordonnées à la loi qui est modifiée plus ou moins régulièrement. D'autres utilisent un système dit de common law, qui s'est développé à travers la jurisprudence des juridictions royales anglaises, mais qui met de nos jours la jurisprudence et la loi sur un pied d'égalité, les deux en rapport complémentaire, s'apportant des modifications l'une à l'autre. La doctrine y joue un rôle minime. Certains pays fondent leurs règles sur les textes religieux. Mais dans chaque pays il existe une riche histoire juridique, avec des philosophies différentes, qui parfois s'affrontent. Droit objectif En première approche, le droit est un ensemble de règles destinées à organiser la vie en société. Le droit est alors vu sous l'angle de son objet : organiser la vie sociale. Elles sont donc formulées de manière générale et impersonnelle, sans concerner personne en particulier, mais en visant toutes les personnes qui forment le corps social. Cette vision du terme droit est qualifiée de droit objectif. On envisage la règle de droit en elle-même et pour elle-même. Le droit objectif est l'ensemble des règles juridiques obligatoires applicables dans un pays. Ces règles sont établies par le pouvoir régulièrement en place dans le pays et sont destinées au maintien de l'ordre et de la sécurité, et par suite à « préserver les intérêts subjectifs légitimes et de réprimer les intérêts subjectifs illégitimes (Huguette Jones, 2002-03) ». On parle alors plus volontiers du Droit. Dans le droit français, comme dans beaucoup de droits romano-germaniques, on distingue le droit public et le droit privé. Cette distinction est moins présente au sein des systèmes juridiques anglo-saxons également nommés systèmes de common law. Droit subjectif Cependant, une vision subjective est aussi possible, rattachée à un sujet de droit, et non plus abstraite et impersonnelle : on parle de droit subjectif. Dans ce sens, le droit, s'il est envisagé de façon plus concrète, correspond aux prérogatives individuelles que les personnes ont vocation à puiser dans le corps de règles qui constitue le droit objectif. Cependant, l'existence de cette notion est critiquée, « au nom de la logique ». Michel Villey avait rejeté la conception subjective : le droit serait une discipline sociale qui se construit d'après des considérations générales, et non à partir de revendications individuelles que l'on mettrait bout à bout. De tels auteurs condamnent alors la primauté du subjectif sur le droit objectif, qu'ils jugent contraires au bien commun, sinon à l'intérêt général. Ils tentent d'affirmer en réalité la supériorité du groupe sur l'individu : les prérogatives individuelles ne sont que le produit de la règle de droit objectif, et ne résulteraient en aucun cas de la volonté individuelle. Ils sont qualifiés de « maximalistes » par la doctrine, car ils rejettent l'existence même du droit subjectif. Les droits subjectifs sont l'ensemble des prérogatives reconnues à l'individu par le droit objectif. Ils sont opposables aux tiers. Ce sont par exemple, le droit de propriété, le droit de créance (le droit de possession), le droit à la vie… On parle alors plus volontiers des droits. Un droit subjectif peut être absolu ou relatif : Les droits absolus s'appliquent à l'égard de tout tiers (ex. : droit de propriété, droit à la vie). On dit qu'ils s'appliquent erga omnes donc opposables à tous. Les droits relatifs s'appliquent à l'égard d'un ou plusieurs tiers déterminés (ex. : droits découlant d'un contrat). Courant relativiste Un autre courant d'auteurs qui rejettent la notion de droit subjectif s'est formé et a été qualifié de « relativiste ». Pour ce courant, cette notion, si elle n'a pas d'intérêt juridique absolu, a un intérêt sociologique : l'individu ne voit dans la norme que l'intérêt qu'il en retire, il revendique des droits, et les règles de droit objectif sont parfois élaborées en fonction du besoin individuel. La notion de droit subjectif n'a qu'un caractère parcellaire. Cependant, aujourd'hui, pour un auteur comme Jean-Luc Aubert, « ces deux sens du mot droit ne s'opposent pas. Ils ne sont que deux façons distinctes d'envisager un même phénomène : le droit. Ils sont complémentaires. ». Ce n'est qu'une question de mise en œuvre du droit objectif. Le droit positif est l'ensemble des textes de loi d'une communauté, et de leur application par la justice, la jurisprudence. Il vise une approche scientifique où selon la hiérarchie des normes. Cette manière de voir le droit permet de faire abstraction de toutes questions religieuses, sociologiques, ethnologiques ou historiques. C'est le droit des juristes, enseigné dans les universités actuellement. Organisation du droit Domaines d'application du droit L'essentiel des rapports sociaux peut être analysé en obligations juridiques, soit du fait de l'exercice des consentements (contrat), soit au titre de la mise en œuvre de la responsabilité. Le fait d'intenter un dommage peut également être pénalisé, et le droit pénal ou criminel peut alors réprimer de tels faits. L'organisation sociale, étatique, administrative, est également construite sur le fondement de règles de droit. Il peut s'agir de la Constitution, c'est-à-dire de l'ensemble des règles suprêmes qui organisent la société, ainsi que ses principes d'organisation. Le droit administratif soumet les organes administratifs aux règles de droit et permet à la fois aux citoyens de contrôler l'action administrative par le moyen d'une juridiction, mais également permet à l'administration de disposer de prérogatives que de simples personnes privées ne pourraient avoir. Branches du droit Les branches du droit se décomposent en droit privé (ex. droit civil, commercial, social, des affaires), droit public (ex. droit constitutionnel, droit administratif) et droit mixte ou droit interface (ex. droit pénal, fiscal, économique). On distingue également le droit interne (ex. droit public interne) et droit international (ex. droit international privé). Elles se divisent en droit substantiel (ex. règles de fonds) et droit procédural ou processuel (ex. règles de procédure). On distingue également le droit naturel, droit immanent à la nature (ex. justice, équité) du droit positif, droit posé par l’homme, droit en vigueur (ex. législation et réglementation en vigueur dans un pays). Une autre distinction est faite entre droit objectif (ensemble de règles régissant les rapports sociaux) et droits subjectifs (prérogatives individuelles ou collectives). Le droit privé est la partie du droit qui régit les rapports entre les particuliers qu'il s'agisse de personnes physiques ou de personnes morales de droit privé. Le droit pénal est généralement rattaché au droit privé, car sa sanction dépend des juridictions judiciaires, mais, par nature, le droit pénal appartient plutôt au droit public en ce qu'il organise les rapports entre l'État et les individus : il a pour objet la répression de comportements nuisibles à la société et à l'État. Le droit public régit l'existence et l'action de la puissance publique. Il diffère par la place laissée à la jurisprudence. Métiers du droit Notes et références Voir aussi Articles connexes État de droit Justice Procédure Domaines du droit Philosophie du droit Legaltech JurisPedia Bibliographie indicative Huguette Jones, Éléments de droit privé, Notes de synthèse, , Presses universitaires de Bruxelles, Bruxelles, 2002-2003
902
https://fr.wikipedia.org/wiki/Droit%20international%20public
Droit international public
Le droit international public, ou simplement droit international, désigne l'ensemble des règles de droit qui régissent les relations entre les sujets du droit international (États et organisations internationales). Le droit international public a vocation à définir et régir : ce qui constitue un État (territoire, population, gouvernement) et sa souveraineté ; les compétences de tout État (compétence territoriale, compétence personnelle, compétence sur les services publics) ; les relations pacifiques entre États (prohibition du recours à la force dans les relations internationales) ; les relations internationales et la coopération entre les États puisqu'il permet de nouer des relations pacifiques et de les encadrer. Originellement, les seuls sujets de ce droit sont les États, mais la multiplication des organisations internationales au cours du a progressivement amené à les considérer comme des sujets (dits « sujets dérivés »). La Cour internationale de justice (CIJ) reconnaît dans son avis consultatif portant sur les que l'Organisation des Nations unies (ONU) dispose de la personnalité juridique. Les récents développements de la discipline (droit international humanitaire, droit international des droits de l'homme, droit commercial international) suggèrent que les individus et les autres acteurs privés (organisations non gouvernementales, entreprises transnationales) constituent des sujets émergents du droit international public. Cette interprétation va néanmoins à l'encontre des fondements traditionnels « volontaristes » de la discipline, selon lesquels seuls les sujets du droit international peuvent créer, appliquer ou veiller à l'application des règles de ce droit. Les sources de ce droit sont les traités et les conventions internationales, la coutume internationale, les principes généraux du droit, la jurisprudence et la doctrine des publicistes les plus qualifiés. Le droit international privé régit quant à lui les relations de droit privé présentant un élément d'extranéité. Lorsqu'on parle simplement de droit international, il s'agit habituellement du droit international public, à savoir le tronc commun qui sert à établir l'ensemble des « branches spécialisées » du droit international : droit international de la mer, droit international des droits de l'homme, etc. Origines historiques Si le droit international public est en grande partie une création moderne, on trouve des liens juridiques internationaux à des époques antiques. Antiquité Dans l'Antiquité, le droit occupait une certaine place dans les relations internationales. L'un des premiers traités internationaux est le traité de la Perle, traité de paix qu'a signé le pharaon égyptien Ramsès II avec le roi des Hittites en -1296. Ce traité avait notamment pour objet l'extradition des « réfugiés politiques » ainsi qu'un accord de non-agression et reposait sur les croyances des différents dieux de chacune des parties. Les cités grecques fixent des règles relatives au traitement des prisonniers de guerre et s'associent pour gérer en commun des fonctions particulières telles que la gestion du sanctuaire de Delphes. Les Romains, avec Gaius, conçoivent le jus gentium comme un droit qui s'applique à l'ensemble de l'humanité. Il ne s'agit pas toutefois du droit international public tel qu'on le conçoit aujourd'hui, car il concerne le traitement et la protection des étrangers sur le sol national. Moyen Âge Le Moyen Âge européen s'oppose de manière fondamentale à l'époque moderne par sa conception organique d'une communauté chrétienne et non d'une juxtaposition absolue d'États souverains et égaux. Toutefois, après l'an 1000, les relations internationales se développent et nécessitent l'élaboration de règles : courants commerciaux, échange d'ambassades. En théorie, la guerre, sauf contre les infidèles, doit être évitée entre chrétiens ; sa pratique est adoucie par des normes, telles que la trêve de Dieu ou la paix de Dieu. Renaissance et époque moderne Parmi les principales personnalités qui ont contribué à la formation du droit international, on peut citer : Francisco de Vitoria (1483-1546), qui s'intéressa à la situation résultante de la découverte de l'Amérique Francisco Suárez (1548-1617), qui introduit les principes selon lesquels le fondement moral de la communauté internationale est la charité chrétienne, l'autorité de l'État étant limitée par la morale et le droit. Hugo Grotius (1583-1645), qui est celui qui a sans doute le plus influencé le droit international contemporain. Il expose de manière systématique les principes du droit international. Il distingue le droit naturel (sens commun de l'humanité) et le droit volontaire (jus gentium), celui qui a reçu force obligatoire de la volonté de toutes les nations ou de plusieurs d'entre elles. On peut citer aussi Alberico Gentili, Emer de Vattel et Samuel von Pufendorf. Les éléments constitutifs de l'état moderne se mettent en place, en particulier en Angleterre et en France : pouvoir organisé lié à une institution et non à la personne même de son détenteur, population, territoire. De la coexistence des États, forcés de coopérer, les auteurs déduisent la nécessité de respecter les traités (pacta sunt servanda). La guerre demeure toutefois possible pour des auteurs tels que Grotius. Les traités de Westphalie reconnaissent en 1648 l'égalité des nations souveraines d'Europe, principe fondamental du droit international moderne. Sujets du droit international Un sujet de droit international est assujetti à ce droit et doit pouvoir s'en prévaloir. À l'origine, l'État était le seul sujet du droit international. Mais cette conception est révolue : bien que sujets originels, les États ont ressenti depuis 1815 la nécessité de se grouper en Organisations internationales qui ont peu à peu atteint le statut de sujets. Le 11 avril 1949, un avis de la Cour internationale de justice énonce que : « Les sujets de droit dans un système juridique ne sont pas nécessairement identiques quant à leur nature ou quant à l'étendue de leur droit et leur nature dépend des besoins de la communauté ». On note également que l'individu a pris une place de plus en plus importante dans le système de droit international du fait de la protection des droits de l'Homme. On distingue ainsi trois acteurs majeurs dans le droit international : L'État en droit international Les organisations internationales Les individus en droit international Sources du droit international Il n'existe pas de code du Droit international public à proprement parler, et pas davantage de hiérarchie entre les différentes sources, qu'elles soient écrites ou non. C'est peut-être une des conséquences de la non-existence d'un ordre juridique international établi malgré la quasi-omniprésence de l'Organisation des Nations unies (ONU) dans les conflits mondiaux. Les différentes sources du droit international sont mentionnées à l'article 38 du Statut de la Cour internationale de justice : La Cour, dont la mission est de régler conformément au droit international les différends qui lui sont soumis, applique : Les conventions internationales, soit générales, soit spéciales, établissant des règles expressément reconnues par les États en litige; La coutume internationale comme preuve d'une pratique générale, acceptée comme étant le droit ; Les principes généraux de droit reconnus par les nations civilisées; Sous réserve de la disposition de l'article 59, les décisions judiciaires et la doctrine des publicistes les plus qualifiés des différentes nations, comme moyen auxiliaire de détermination des règles de droit. La présente disposition ne porte pas atteinte à la faculté pour la Cour, si les parties sont d'accord, de statuer ex aequo et bono. De cet article, on peut retirer deux sortes de sources : les sources non écrites que sont la coutume, les principes généraux de droit ainsi que l'équité ; les sources écrites que sont les traités des États, des organisations internationales et des juridictions et tribunaux internationaux. Sources non écrites Coutume Les éléments constitutifs de la coutume sont la pratique générale, le consuetudo, c'est-à-dire l'ensemble d'actes divers non équivoque, accompli de manière analogue, répété par les membres de la société internationale et lopinio juris qui est l'élément psychologique, c'est-à-dire avoir la conviction d'observer une règle de droit. Pour Dionisio Anzilotti, . Le fait que la coutume soit une source de droit non écrit pose la question de son opposabilité. Autrement dit, comment prouver qu'une coutume existe bien ? Les moyens de démontrer la règle coutumière sont divers : documents diplomatiques (recueils, correspondances), décisions judiciaires ou arbitrales (CIJ, 20 février 1969, Affaires du plateau continental de la Mer du Nord : le principe de l'équidistance n'est pas une règle coutumière pour les États). S'agissant de la coutume générale, la charge de la preuve incombe au demandeur. Cependant, il peut être inutile qu'une partie démontre à la Cour une coutume si elle est déjà avérée (CIJ, 20 novembre 1950, Droit d'asile (Colombie contre Pérou)). De plus, lorsque l'élément matériel (la pratique générale) est établi, il peut entrainer l'élément psychologique (l'''opinio juris) (CIJ, 21 mars 1959, Interhandel (Suisse contre États-Unis)). Concernant les coutumes régionales et bilatérales, la charge de la preuve incombe strictement au demandeur car elles sont moins évidentes. La Cour internationale de Justice, dans l'affaire sur le Droit d'Asile précitée, énonce que À ceci s’ajoute que (CIJ, 1986, Actions armées frontalières et transfrontalières). Depuis 1899 et la première codification du droit de la guerre, la question de la codification de la coutume s'est posée. Elle s'est accélérée à partir de la seconde moitié du sous l'égide de l'ONU, notamment. L’article 15 du Statut de la Commission du droit international, créée le par l'Assemblée générale de l'ONU, énonce que . Pour Georges Abisabe, la codification est une « activité nécessairement législative ». La codification du droit international coutumier a pour avantage d'établir clairement le sens de la règle de droit et de lutter contre l'éparpillement des règles juridiques. Cependant, il faut souligner que l'écrit est moins souple que l'oral et donc ainsi il est plus difficile de faire évoluer la règle de droit. et le risque d'échec est grand. La codification peut être à l'initiative : des États eux-mêmes (la codification du droit de la guerre issue de la première conférence de La Haye (également appelée Conférence internationale de la Paix) s'est déroulée à la suite de la volonté du tsar Nicolas II de Russie). des organisations internationales comme l'ONU : en 1924, est créée la Commission des Jurisconsultes qui a pour but de définir les domaines qui peuvent faire l'objet d'une codification. C'est ainsi qu'en 1927, 3 grands domaines sont retenus (la mer territoriale, la responsabilité de l'État pour dommages infligés aux étrangers et la nationalité). Puis, en 1947, la Commission du droit international fait suite à la précédente commission. Aujourd'hui, cinq grands domaines ont fait l'objet d'une codification le droit de la mer en temps de paix avec les quatre Conventions de Genève de 1958 puis la Convention des Nations unies sur le droit de la mer dite de Montego Bay entrée en vigueur le . l'apatridie issue de la convention de New York du . le droit de la représentation étatique avec les Conventions de Vienne de 1961 (missions diplomatiques), de 1964 (missions consulaires) et en 1975 sur les rapports internationaux avec les ONG. le droit des traités avec la convention de Vienne sur le droit des traités du et la convention sur la succession d'État en matière de traités de 1975. le droit de la guerre avec la conférence de La Haye précitée ainsi que le protocole sur l'armement de 1980 et la convention sur la responsabilité de l'État pour fait internationalement illicite de 2001. Principes généraux du droit Les principes généraux du droit (PGD) sont des règles de droit que le juge ou l'arbitre international applique mais sans toutefois les créer. Les auteurs de la doctrine sont divisés quant à la question de savoir si les PGD sont des sources autonomes/directes du droit international. On peut distinguer deux sortes de PGD : ceux qui sont tirés des droits internes et concernant des procédures ou techniques judiciaires (l'abus de droit, l'égalité des parties, l'autorité de la chose jugée, nul ne peut être juge de sa propre cause). Les PGD peuvent être tirés d'un seul système juridique : cela correspond à la notion d'Estoppel en droit anglais. La CIJ (CIJ, 15 juin 1962, Temple de Préah Vihear (Cambodge contre Thaïlande)) dit en substance que . les PGD propres au droit international public (, le principe de souveraineté, égalité entre États, l'État ne doit pas permettre sur son territoire des activités qui pourraient nuire aux États voisins). Équité L'équité se définit comme la justice naturelle, comme l'application des principes de justice à chaque cas. L'équité peut compléter le droit positif lorsque : il y a des lacunes du DIP (surtout au ) ; les règles de droit sont trop abstraites eu égard à l'affaire à juger ; le litige n'a pas un caractère proprement juridique et il est porté devant l'arbitre. Pour Sir Gérald Fitzmaurice, le droit et l'équité ne peuvent réaliser la justice que si on les laisse se compléter mutuellement. L'équité peut également être un facteur d'équilibre. Selon Cicéron, , « un excès de droit amène les pires injustices ». Ainsi, le droit ne doit pas être laissé sans bornes. Traité Selon l'article 2 § 1 a) de la convention de Vienne sur le droit des traités : Il existe plusieurs types de traités : le traité bilatéral conclu entre deux sujets du droit international, le traité multilatéral conclu entre plus de deux parties. Le traité a de multiples dénominations : il s'appelle charte, statut lorsqu'il institue une organisation, pacte lorsqu'il crée une alliance militaire, protocole pour un traité additionnel ou rectificatif, concordat pour un traité conclu entre un État et le Saint-Siège. Le traité est soumis à des réserves qui peuvent être définies (article 2 § 1 d) de la Convention précitée) comme étant . Il est toujours possibles de formuler des réserves (CIJ, réserves à la convention pour la prévention et la répression du crime de génocide, avis consultatif du : ) mais il faut se livrer à un examen au cas par cas des dispositions pour savoir si elles peuvent être écartées en tenant compte de l'objet et de la finalité du traité. Le traité peut interdire les réserves et les dispositions finales ne peuvent pas faire l'objet de réserves car elles ont une nature opératoire (elles ont pour but de mettre en œuvre le traité). Une réserve est adoptée si aucune manifestation contraire d'une partie au traité dans un délai de douze mois à compter de la notification par l'État dépositaire n'a été exprimée. Acte unilatéral État Les actes unilatéraux des États peuvent être des propos écrits ou oraux tenus par un chef d'État, un chef de gouvernement ou un ministre des Affaires étrangères. Les propos des autres ministres sont exclus (CIJ, , Minquiers et Ecréhous : les propos du ministre français de la marine ne peuvent engager l'État français, ce n'est pas un acte unilatéral). On peut différencier plusieurs types d'acte unilatéral : la notification est un acte par lequel un État porte à la connaissance d'autres États un fait, un point de vue, qui peut avoir des conséquences juridiques. la reconnaissance est la manifestation de volonté par laquelle un État considère comme lui étant opposable un fait, une situation, une prétention émise par un autre. Ex : reconnaissance d'État, de Gouvernement, de belligérance Il n'y pas de retour possible sauf si la reconnaissance était contraire au jus cogens (normes impératives du Droit International Public). La reconnaissance peut être expresse ou tacite, verbale ou écrite. la protestation, parce qu'elle rend précaire la situation de l'autre, doit être expresse. Elle rend une situation inopposable à l'auteur de la protestation. la promesse n'engage que celui qui promet. On parle plutôt d'engagement ou d'assurance. la renonciation est l'abandon par un État d'un droit donc elle ne se présume pas et doit être expresse mais elle peut résulter d'actes répétés non équivoques. Organisations internationales Actes ayant force obligatoire Ce sont les actes qui ont une portée décisoire même s'ils ont une dénomination variable. Les actes des organisations internationales qui ont force obligatoire s'appliquent dans plusieurs domaines : le fonctionnement interne des organisations (par exemple le règlement intérieur) : ces actes ont portée relative limitée à l'organisation et à ses membres la réalisation des objectifs (comme le budget) les actes qui s'adressent aux États La force obligatoire est limitée car elle suppose l'acquiescement du destinataire. De plus, l'abstention d'un État fait qu'il n'est pas lié. Et il n'y a pas de système de sanction efficace. Actes n'ayant pas force obligatoire Ils ont une valeur de recommandation : ce sont des avis, résolutions Ils ont une fonction plus politique : ce sont des éléments de coopération internationale mais ils n'en sont pas moins efficaces car ils sont peu contraignants. Selon l'Institut du Droit International, dans sa Session du Caire du 17 septembre 1987, . Il existe plusieurs catégories de résolutions : les actes formulant des règles générales les actes appliquant ces règles les actes adressés à un État ou plusieurs les actes qui posent les bases d'une négociation aboutissant à un traité international Juridictions et tribunaux internationaux L'avènement du juge dans la société internationale a été une longue quête historique. Les États (sujets principaux) n'ont que très lentement et difficilement accepté l'autorité d'un tiers, fut-il juge. Comme le montre l'histoire de la justice internationale (Pour une synthèse, v. Mémento de la jurisprudence du droit international public, par Blaise Tchikaya (Préface du Prof. Alain Pellet), 1822-2010, Ed. Hachette-Supérieur, éd. 2010). Ce n'est qu'en 1899 qu'est créée, à la suite des débats de la Première conférence de La Haye, une sorte de juridiction permanente à la Haye (Pays-Bas), la Cour permanente d'arbitrage (CPA). Cette juridiction existe toujours et offre les services des grands jurisconsultes. Le juge international ne commence véritablement son existence qu'avec la convention spéciale de 1920 créant la Cour permanente de justice internationale (CPJI) sous les auspices de la Société des nations. Cette initiative est perfectionnée en 1945 avec la naissance de la Cour internationale de justice actuelle (CIJ), siégeant également à la Haye. Elle a par exemple rendu le 20 juillet 2012 une décision d'importance dans le cadre de l'affaire Hissène Habré. Elle déboute la Belgique (représentée par M. Paul Reitjent) de ses prétentions et met à la charge du Sénégal (représenté par le Prof. Cheikh Tidiane Tiam) l'obligation de juger ou d'extrader le sujet en cause. Les jugements rendus par la Cour internationale de justice ont en effet un caractère définitif. Arrêts et jugements Ils ont un caractère définitif : cela est généralement affirmé dans les statuts de la juridiction (CIJ, article 60 : ). Il est possible de demander une interprétation de l'arrêt. L'existence de voies de recours suppose l'existence d'un ordre international mais les statuts peuvent prévoir une procédure d'appel. Il faut noter que la CEDH peut siéger en Comité, en Chambre ou en Grande Chambre. Quant à la CPI, elle comporte une Section Préliminaire, une Section de Première Instance et une Section des Appels. Les jugements ont également un caractère obligatoire mais selon le principe de relativité de la chose jugée ils ne produisent des effets qu'entre les parties. Cependant, ce n'est pas systématique. Avis Ils portent sur des questions d'ordre juridique qui sont posées à la CIJ par exemple (article 96 de la Charte de l'ONU) ou à la CEDH (articles 47 à 49 de la CESDH telle qu’amendée par le Protocole no 11 accompagnée du Protocole additionnel et des Protocoles nos 4, 6, 7, 12 et 13). La doctrine et la jurisprudence constituent aussi deux sources secondaires de droit international, selon l'article 38 du statut de la CIJ. Hiérarchisation des sources du droit international Il n'y a en principe pas de hiérarchie entre ces sources, cependant la convention de Vienne sur le droit des traités de 1969 dans ses articles 53 et 64 semble reconnaître une certaine hiérarchie des normes internationales. Cette hiérarchie est justifiée par ce que les spécialistes du droit international appellent le jus cogens. Les normes qui bénéficient du jus cogens sont censées être impératives et primer toute autre norme internationale telle que le traité. Par exemple, l'interdiction du crime de génocide peut être considérée comme entrée dans le jus cogens. Création d'un traité international La création d'un traité international passe par les trois voies suivantes, qui sont des conditions cumulatives : La négociation : les États sont représentés par des plénipotentiaires, individus qui sont dotés des pleins pouvoirs pour pouvoir négocier. Exemple : ministre des Affaires étrangères, président de la République ; La signature : en général au rang ministériel. C'est la plupart du temps un paraphe et non une signature. À ce niveau, l'État n'est toujours pas engagé, sauf s'il s'agit d'un traité en forme simplifiée. La ratification : elle est faite par le Parlement, par une loi de ratification. Le texte entre alors en vigueur, et l'État est engagé à le respecter. L'adhésion : Elle ne concerne logiquement que les traités multilatéraux. Elle présente les mêmes caractéristiques que l'adoption d'un traité par la procédure classique du double degré (soit signature et ratification) à la différence près que l'État signataire a déjà des obligations et des droits à partir de sa signature. Relation entre le droit international et le droit interne La coexistence du droit international et du droit interne pose la question de leur rapport hiérarchique éventuel : l'une des deux normes doit-elle primer l'autre ? Il existe deux positions théoriques : La position moniste : les règles du droit international et les règles du droit interne s'assemblent dans un ordre juridique unique organisé selon les principes de l'organisation pyramidale des normes théorisée par Hans Kelsen. Cette organisation peut prendre la figure d'une domination du droit international sur le droit interne ou, au contraire, subordonner le droit international au droit interne ou à certaines normes internes telles que la Constitution nationale. Georges Scelle défend aussi cette position mais en la justifiant d'une autre manière que Hans Kelsen. La position dualiste, postulée par Heinrich Triepel et Dionisio Anzilotti : le droit international et le droit interne forment deux ordres juridiques distincts, sans relation de subordination de l'un envers l'autre. La séparation est possible parce que l'un a pour sujet les États et les organisations internationales, tandis que l'autre ne concerne que les individus. Ainsi, en Italie les traités internationaux signés et ratifiés doivent être formellement repris par une loi interne (dualisme) et ont donc l'autorité de la loi qui les a intégrés dans l'ordre juridique interne. En France, en revanche, les traités sont applicables dès leur ratification (monisme) : ils ont une position spécifique, qui est en l'occurrence supérieure aux lois internes. En pratique, il faut considérer la multiplicité des niveaux du droit interne et la dualité des juridictions : internationales et nationales. Plusieurs solutions en découlent. Point de vue des institutions internationales De manière constante, les tribunaux et cours d'arbitrage internationaux considèrent que nul État ne peut invoquer une règle de droit interne pour se soustraire à ses obligations internationales. Ceci est précisé par la convention de Vienne de 1969 (article 27). Le droit international s'impose donc à l'État, même si une règle de droit interne lui est contradictoire. Cela ne signifie pas que le juge international peut annuler une règle de droit interne. Il se contente de la rendre inefficace lorsqu'elle produit des effets sur le plan international. Ainsi, dans l'affaire Nottebohm, la Cour internationale de justice a déclaré que les autorités du Guatemala pouvaient considérer comme allemand un citoyen de cet État qui venait d'acquérir la nationalité du Liechtenstein, considérant que cette nouvelle nationalité n'était pas effective. Ce faisant, la Cour n'a pas retiré à M. Nottebohm la nationalité du Liechtenstein et n'a donc pas annulé de normes ou d'actes émis par ce pays, mais s'est contenté de la rendre inopposable à un autre pays, en l'occurrence le Guatemala. Les juridictions internationales ne fondent leurs décisions que sur le droit international. Elles ne se considèrent pas liées par le droit interne des États concernés, y compris au niveau constitutionnel, qui ne constitue qu'un élément d'appréciation parmi d'autres. Point de vue des États et des juridictions internes Les pratiques varient selon le niveau de norme considéré (constitution, loi, coutume) et le régime : primauté de la règle internationale, y compris par rapport à une loi interne ultérieure, ou simple reconnaissance à égalité avec la norme interne. Droit international et loi interne En général, les États reconnaissent l'applicabilité du droit international en ordre interne. Ainsi la règle Pacta sunt servanda est inscrite dans le Préambule à la Constitution française de 1946, qui est toujours une règle constitutionnelle : , formulation qui inclut la coutume internationale. Les traités doivent toutefois être ratifiés ou approuvés, publiés et appliqués par l'autre partie (article 55 de la Constitution de 1958). En Allemagne et en Italie, la coutume internationale est également applicable directement, mais il faut promulguer une loi pour qu'un traité entre en vigueur. La différence entre la ratification dans un cas et la promulgation d'une loi dans l'autre se situe au niveau de la force de la norme. En France, les traités ont une force supérieure à la loi : la jurisprudence a reconnu progressivement qu'ils primaient même sur une loi promulguée postérieurement à leur ratification. En Allemagne et en Italie, en revanche, le traité n'a qu'une valeur égale à la loi et pourrait en principe être abrogé par une simple loi. En Angleterre, le droit international, notamment coutumier, s'applique en vertu de la doctrine de Blackstone (1765). Toutefois le droit interne l'emporte en cas de conflit. Si certains traités s'appliquent directement, il a fallu une loi pour intégrer en 1998 la Convention européenne des droits de l'homme dans le droit anglais (). Aux États-Unis, les traités aux dispositions précises et inconditionnelles sont supérieurs aux lois antérieures, mais leur rapport aux lois postérieures dépend de la volonté manifestée par le Congrès. Droit international et constitution Le rapport des traités et de la Constitution est complexe. Tous deux sont en effet supérieurs à la loi. En France, la jurisprudence du Conseil d'État affirme que la Constitution doit s'appliquer en droit interne quels que soient les traités signés par la France. Toutefois, le Conseil constitutionnel estime aujourd'hui qu'il n'y a pas lieu de vérifier la conformité à la Constitution du droit communautaire dérivé, qui fait l'objet de règles propres. En Belgique, la jurisprudence de la Cour de cassation et du Conseil d'État établit que les traités sont supérieurs à la constitution. Par contre, la Cour constitutionnelle estime que la Belgique ne peut faire de traités contraires à sa constitution. Application extraterritoriale du droit d'un État L'application extraterritoriale du droit américain s'est notamment concrétisée à travers les lois d'Amato-Kennedy et Helms-Burton : lois d'embargo sur Cuba, la Libye et l'Iran. Ainsi par l'extraterritorialisation de ces lois, toute société investissant dans ces pays, qu'elle soit américaine ou non, pouvait être condamnée par la justice américaine mais aussi par la Cour internationale de justice. Le rapport d'information déposé par la Délégation de l'Assemblée nationale française pour l'Union européenne sur les relations économiques entre l'Union européenne et les États-Unis (11 février 1999) pose des questions sur l'application extraterritoriale du droit des États-Unis. Responsabilité internationale des États Le droit de la responsabilité internationale des États a été codifié par la Commission du droit international en 2001, dans le Projet d'articles sur la responsabilité de l'État pour fait internationalement illicite. Bien qu'adopté par l'Assemblée générale des Nations unies, ce texte n'a pas de valeur juridiquement contraignante. Néanmoins, il est admis que ce texte constitue le « droit commun » de la responsabilité internationale des États. En principe, tout fait internationalement illicite de l’État engage sa responsabilité internationale (Article 1). La Cour permanente de justice internationale (CPJI), ancêtre de l'actuelle Cour internationale de justice (CIJ), avait en effet considéré que (Affaire des phosphates du Maroc). La CIJ a depuis constamment répété que (Affaire du Détroit de Corfou ; Activités militaires et paramilitaires au Nicaragua ; Avis consultatif sur l'interprétation des traités de paix conclus entre la Bulgarie, la Roumanie et la Hongrie). Chaque État est donc responsable de son propre comportement en ce qui concerne ses propres obligations internationales. La responsabilité de l’État est donc subordonnée à l'existence d'un fait internationalement illicite. Celui-ci est défini (Article 2) comme le comportement d'un État, consistant en une action ou une omission : a) qui lui est attribuable en vertu du droit international ; b) qui constitue une violation d'une obligation internationale de cet État. Limites du droit international Le droit international se distingue des droits nationaux par l'absence d'une structure centralisée chargée de faire respecter son application. L'absence de gendarme international a amené certains auteurs à douter que le droit international soit véritablement du droit. Il existe cependant plusieurs cours de justice internationale, ainsi que certains tribunaux d'arbitrage ad hoc qui appliquent le droit international. On pense principalement à la Cour internationale de justice (CIJ). Cependant, pour que la Cour puisse régler un différend, les deux États parties au litige doivent avoir expressément accepté la juridiction de la cour (cette acceptation est encore désignée sous le terme clause facultative de juridiction, qui doit être bien comprise par rapport à la clause compromissoire). Cela peut se faire par plusieurs moyens, notamment la signature d'une entente après la survenance du litige, par une déclaration d'acceptation de la juridiction de la cour contenue dans un traité ou encore par une déclaration d'acceptation de la compétence générale de la cour. Cependant ces déclarations d'acceptation de compétence générale sont plutôt rares et très souvent assujetties à de nombreuses réserves. Parmi les membres du conseil de sécurité, seul le Royaume-Uni a signé une telle déclaration (les États-Unis ont retiré la leur après l'affaire des Contras au Nicaragua, la France après l'affaire des essais nucléaires). L'application d'une convention dépend donc en grande partie de la bonne volonté des États liés par celle-ci. En cas de différend international, il existe plusieurs méthodes de résolution pacifique des différends. Cela peut aller de la négociation, à la médiation, arbitrage, jusqu'à la saisine de la CIJ. Ces modes de règlement peuvent éventuellement mener à l'application de mesures de rétorsion par un État. Cependant, ce droit n'est pas nécessairement garanti. En cas de refus d'exécuter un arrêt de la CIJ par exemple, l'État lésé doit d'abord saisir le Conseil de sécurité. En ce qui concerne le droit pénal international, tout à fait distinct du droit international inter-étatique, le Statut de Rome a créé la Cour pénale internationale pour le cas des crimes contre l'humanité. Il est bien évident que des mesures de rétorsion imposées par un État puissant seront plus efficaces que celles d'un État d'importance politique ou économique plus faible. Ainsi, en pratique, seuls les États forts sont véritablement en mesure de faire respecter les conventions qu'ils ont signées. Le concept dÉtat de droit ne s'applique donc pas pleinement aux relations internationales. Dans ces conditions, il pourrait sembler que le droit international n'est qu'un déguisement de la loi du plus fort. Cependant, il ne faut pas négliger le poids des relations diplomatiques et l'importance pour les États de leur image dans le monde. Sauf exception, les États ont avantage à respecter leurs obligations. Dans les États qui ont un système de droit positif fort, le droit international figure dans le bloc de conventionnalité de la pyramide des normes, à côté du droit européen (en Europe) et des lois organiques. Il dépend du droit constitutionnel qui figure dans le bloc de constitutionnalité, et s'impose donc en principe aux lois, qui sont à un niveau inférieur de la hiérarchie des normes. Quelques juristes spécialistes du droit international Ronny Abraham , Ancien Président de la Cour Internationale de Justice Charalambos Apostolidis Frank Attar Mohammed Bedjaoui Cezary Berezowski Pierre-Marie Dupuy Rosalyn Higgins Albert de la Pradelle Giorgio Malinverni Djamchid Momtaz Alain Pellet, Ancien Président de la Commission du Droit International Robert Redslob Georges Scelle William Schabas Serge Sur Joe Verhoeven Prosper Weil Jean Salmon Nguyen Quoc Dinh Laurence Boisson de Chazournes Notes et références Voir aussi Bibliographie Frank Attar, Le Droit international entre ordre et chaos, Hachette, 1994. Pierre-Marie Dupuy et Yann Kerbrat, Droit international public, Dalloz (Précis), , 2014. Dominique Carreau, Droit international, Pedone, , 2009. Jean Mathieu Mattei, Histoire du droit de la guerre (1700-1819), Introduction à l'histoire du droit international, avec une biographie des principaux auteurs de la doctrine de l'antiquité à nos jours, Presses universitaires d'Aix-en-Provence, 2006. Patrick Daillier, Mathias Forteau, Alain Pellet, Droit international public'', LGDJ, Paris, 8e édition, 2009. Articles connexes Lien externe Legal research guide Diplomatie Relations internationales de:Völkerrecht es:Derecho internacional público he:משפט בינלאומי פומבי yi:פֿעלקעררעכט
905
https://fr.wikipedia.org/wiki/Liste%20de%20divinit%C3%A9s%20%C3%A9gyptiennes%20par%20ville
Liste de divinités égyptiennes par ville
Cette liste représente les plus importantes villes de l'Égypte antique ordonnées par nome et suivies des divinités qui y étaient adorées. Basse-Égypte ! width="4%" | Nome ! width="17%" | Ville (nom égyptien) ! width="17%" | Ville (nom grec) ! width="17%" | Ville (nom moderne) ! width="45%" | Dieux | align="center" | || Ineb Hedjjnb-ḥḏ || Memphis || || Ptah, Sekhmet, Néfertoum | align="center" | || Per-Djéhouti || Hermopolis Parva || || Thot | align="center" | || Saou || Saïs || Sa El-Hagar || Neïth | align="center" | || Pé || Bouto || Tell el-Farâˁûn || Ouadjit | align="center" | || Tjekou || Pithôm || Tell el-Maskhouta || Atoum | align="center" | || Djedou || Busiris || Abousir Bana || Osiris | align="center" | || Het-ta-hérieb || Athribis || Tell-Athrib || Kemour, Khentykhety, Hathor | align="center" | || Taremou || Léontopolis || Tell el-Moqdam || Chou, Miysis | align="center" | || IounouJwnw || Héliopolis || Aîn-ech-Chams || Atoum, Khépri, Rê, Nebethetepet, Iousaas | align="center" | || || Hermopolis Bahou || || | align="center" | || || Mendès || Tell el-Rub'a || Banebdjedet, Hatméhyt, Chou | align="center" | || || Apollinopolis Parva || Tell el-Balamoun || Harakhtès (Horus de l'horizon) | align="center" | || Per BastetPr-Bȝstt || Bubastis || Tell Basta || Bastet, Atoum, Miysis | align="center" | || Per-SopdouPr-Spdw || || || Sopdou |} Haute-Égypte ! width="4%" | Nome ! width="17%" | Ville (nom égyptien) ! width="17%" | Ville (nom grec) ! width="17%" | Ville (nom moderne) ! width="45%" | Dieux | align="center" | || || Philæ || Philæ || Isis, Hathor |- | || Abou || Éléphantine || || Khnoum, Anoukis, Satet |- | || Nubt || Ombos || || Sobek, Haroëris, Seth | align="center" | || BehedetBḥdt || Apollinopolis Magna || Edfou || Horbehedety (Horus d'Edfou) | align="center" | || NekhenNḫn || Hiéraconpolis || || Horus de Nekhen |- | || Nekheb || Eileithyaspolislitt. « La ville d'Eileithya » || El Kab || Nekhbet |- | || Ta-senet || Latopolis || Esna || Khnoum |- | || || Hermonthis || Erment || Montou | align="center" | || OuasetWȝst || Thèbes || || Amon, Mout, Khonsou | align="center" | || Gebtou || Coptos || Qeft || Min | align="center" | || Nitentore || Tentyris || Dendérah || Hathor | align="center" | || Abidjouȝbḏw || Abydos || || Khentamentiou-Osiris |- | || Tjenu || Thinis || El-Birbèh || Onouris | align="center" | || Ipoujpw|| Panopolis || Akhmîm || Min, Apérètisèt | align="center" | || Saouty || Lycopolis || Assiout || Oupouaout | align="center" | || Khemenouḫmn || Hermopolis Magna || Tounah el-Gebel || Thot | align="center" | || Houtnennesout ḥwt-nn-nswt|| Hérakléopolis || Ihnasiya Umm al-Kimam || Harsaphes | align="center" | || Chedetšdt || Crocodilopolis || Médinet el-Fayoum || Sobek | align="center" | || pr-nb.t-tp-jḥw || Aphroditopolis || Atfieh || Hathor, Hésat |} Index égyptologique
906
https://fr.wikipedia.org/wiki/Dune%20%28roman%29
Dune (roman)
Dune (titre original : Dune) est un roman de science-fiction de l'écrivain Frank Herbert, publié aux États-Unis en 1965. Il s'agit du premier roman du cycle de Dune. Publié à l'origine sous forme de deux publications distinctes dans le magazine Analog en 1963-1964, c'est le roman de science-fiction le plus vendu au monde<ref name="Touponce 119">"Locus" ran a poll of readers on April 15, 1975 in which "Dune" 'was voted the all-time best science-fiction novel … It has sold over ten million copies in numerous editions.'</ref>. Dans les éditions françaises, ce roman est quelquefois divisé en deux volumes ( et ), comme lors de sa première publication dans Analog. En 1966, le roman remporte le prix Hugo qui récompense les meilleures œuvres de science-fiction ou de fantasy, à égalité avec le roman Toi l'immortel de Roger Zelazny et décroche la même année le premier prix Nebula du meilleur roman. Historique de la publication Après la publication de son roman (1956), sa première œuvre d’ampleur qui reçoit l’approbation de la critique, Frank Herbert se rend en tant que journaliste indépendant à Florence dans l'Oregon pour écrire un article sur les Oregon Dunes (la plus grande étendue de dunes de sable côtières aux États-Unis), une zone où le département de l'Agriculture des États-Unis tente d'utiliser des herbes économes en eau () pour stabiliser les dunes de sable, qui avancent dans les terres en raison des vents forts de l'océan Pacifique. Passionné par le sujet, Herbert se plonge dans la documentation et n'achèvera finalement jamais son article, intitulé « They Stopped the Moving Sands » et dont une version sera publiée des décennies plus tard dans La Route de Dune. Dans une lettre à son agent littéraire, Lurton Blassingame, Herbert affirme que les dunes en mouvement pourraient . Herbert passe les cinq années suivantes à faire des recherches, écrire et faire des corrections. De décembre 1963 à février 1964, il publie dans le mensuel Analog une série en trois parties intitulée Dune World. La série était accompagnée de plusieurs illustrations qui ne furent pas publiées par la suite. Après un an d'intervalle, il publie dans les numéros de janvier à mai 1965 les cinq parties beaucoup plus lentes de The Prophet of Dune. Dans le roman Dune finalement publié, la première série devient « Book 1: Dune » , et la deuxième série est divisée en « Book Two: Muad'dib » et « Book Three: The Prophet ». La version sérialisée a été étendue, retravaillée et soumise à plus de vingt éditeurs, qui l'ont tous rejetée. Le roman Dune est finalement accepté et publié en août 1965 par Chilton Books, une maison d'édition plus connue pour la publication de manuels de réparation automobile. Contexte fictionnel Présentation L’histoire de Dune débute en l’an après la fondation de la Guilde spatiale. L'univers connu est régi par l’empereur Padishah Shaddam IV, le chef de la Maison Corrino, qui exerce son pouvoir féodal sur la multitude de planètes de l'Imperium, un vaste empire qui s'étend sur des centaines de mondes dans la galaxie. L'Imperium est issu du Jihad butlérien, un évènement qui débuta il y a plus de dix mille ans lorsque les humains se libérèrent du joug des machines pensantes et des robots intelligents qui les avaient asservis. Avec l'appui de la Guilde spatiale, qui possède le monopole des voyages interstellaires (ainsi que de la banque), l’humanité a conquis une grande portion de l’univers connu. Toute forme d’intelligence artificielle étant désormais proscrite, diverses organisations ont été créées pour développer des talents humains palliant ce manque, ce qui a abouti à divers groupes spécialisés : l'école des Mentats, des humains capables de performances mentales équivalant ou surpassant celles des ordinateurs ; les navigateurs de la Guilde spatiale, des humains (en partie mutés) dotés d'une capacité de prescience limitée, ce qui leur permet de percevoir les trajectoires sûres lors des voyages spatiaux longue distance ; l'ordre du Bene Gesserit, une communauté exclusivement féminine dédiée au développement des facultés humaines (mentales et physiques) et à l’enseignement, qui possède par ailleurs une vaste influence politique et religieuse au sein de l’Imperium ; l'ordre du Bene Tleilax, qui maîtrise la génétique et crée des organismes biologiques à la demande, notamment humains, dont des clones (appelés gholas) ou ses Danseurs-Visage, des êtres artificiels communautaires capables de copier l'apparence, la voix, la gestuelle voire la mémoire d'autres personnes ; les Ixiens, des concepteurs et des fabricants de matériel de haute technologie de toute sorte ; les docteurs de l'école Suk, des praticiens de la médecine connus pour leur conditionnement impérial (un blocage mental qui les empêche de faire du mal à leurs patients), gage de sécurité. L'école Suk en particulier est vitale dans le monde de l’Imperium, les grandes Maisons nobles de l'empire étant parfois ennemies et se livrant bataille. À cet effet, les assassinats et les « guerres des assassins » (des vendettas) sont monnaie courante dans cet univers, tout comme l'utilisation raffinée du poison, tolérée dans certains cas. Ces formes de représailles (le terme utilisé officiellement est la « Rétribution ») sont acceptées par l'ensemble de la société de l'Imperium et codifiées. Par ailleurs, la pratique des , un système strict de classes sociales associé à un code de bienséance rigide, est inhérent à cet empire aristocratique (). Cette spécialisation humaine pour pallier le remplacement des machines pensantes a été favorisée par une mystérieuse substance, dénommée ou le . Le Mélange est un puissant stimulant cérébral qui permet aux navigateurs de la Guilde de décupler leurs capacités psychiques et ouvre aux membres du Bene Gesserit des capacités particulières. De plus, le Mélange accroît sensiblement la durée de vie de quiconque en consomme régulièrement et immunise le corps contre certaines maladies (voire certains poisons mineurs). L'origine précise de l’Épice reste un mystère, et les quantités récoltées sont extrêmement réduites, l’Épice n'étant disponible que sur une seule planète dans tout l'univers : Arrakis, la planète des sables. L’Épice est par ailleurs (à l'époque de l’Imperium) impossible à synthétiser. L'ensemble de ces paramètres confère à cette substance une valeur monétaire particulièrement élevée, et fait l'objet d'une attention spéciale de la part de toutes les factions importantes qui s'agitent dans l’Imperium. Parmi celles-ci, en plus du règne de l'empereur Padishah et de sa maison royale des Corrino, on peut citer le CHOM (Combinat des Honnêtes Ober Marchands), un conglomérat commercial qui s'étend sur toute la galaxie et le Landsraad, l'assemblée des Maisons nobles de l'Imperium qui est un contrepoids au pouvoir de l'empereur (avec par exemple la Maison Atréides ou la Maison Harkonnen). Par ailleurs, la Guilde spatiale, le Bene Gesserit et le Bene Tleilax usent de leur influence, souvent de manière discrète, pour faire aboutir leurs projets. De son côté, l'empereur maintient sa mainmise sur l’empire grâce aux Sardaukar, ses troupes d'élite fanatiques, redoutées dans tout l’Impérium pour leurs prouesses et leur férocité au combat. Dune, la planète On ne trouve l'Épice que sur la planète Arrakis, la « planète des sables » que ses habitants autochtones, les Fremens, appellent . Vaste désert de sable torride ponctué de rares massifs montagneux, Dune est une planète au climat aride et desséché dû à une absence totale de précipitations. C'est par ailleurs un lieu hostile et désolé, à cause des ravages engendrés par son milieu naturel unique ; tout d'abord, les vers géants de Dune, des créatures gigantesques qui attaquent et avalent tout ce qui passe à leur portée dans le désert, attirées par les vibrations au sol. Mais également les tempêtes Coriolis, des ouragans de sable à l'échelle d'un hémisphère qui balayent la surface de Dune, avec une telle force qu'elles sont réputées ronger la pierre et la chair sur les os de tous les êtres vivants qui auraient le malheur de les croiser au dehors sans protection. Par voie de conséquence, les tentatives faites pour aménager la planète et la rendre plus vivable ont été vouées à l'échec : dès qu'un puits d'eau est creusé, le mince filet d'eau disparaît rapidement et mystérieusement et les installations dans le désert ne survivent pas longtemps face aux tempêtes Coriolis dévastatrices. Les seuls îlots d'humanité stables sur la planète trouvent refuge dans les cités des regroupées derrière le Bouclier, un vaste massif montagneux qui protège une partie de l'hémisphère nord (notamment la capitale de la planète, Arrakeen) de l'attaque des vers, et les communautés Fremen qui habitent les sietchs du désert, des habitations troglodytes nichées aux alentours du Bouclier mais aussi dans le désert profond d'Arrakis. Enfin, à l’extrême sud de la planète se trouve une région de palmeraies discrètes, aux mains des Fremen. Du fait de ce climat inhospitalier, sur Dune l’eau est un bien rare et précieux, son absence étant souvent synonyme de mort pour les habitants pauvres qui viendraient à en manquer dans le désert. L'eau constitue aussi une monnaie d’échange locale et plusieurs dispositifs permettent de l’économiser ou de la récupérer, comme les pièges à vent ou les faucilles à rosée qui récupèrent l'humidité naturelle du matin et, chez les Fremens, les distilles (des combinaisons spéciales qui permettent de récupérer l'humidité du corps). Le pôle nord glacé de la planète est aussi exploité par la guilde des vendeurs d'eau, qui en tirent un pouvoir et une richesse importante. Seule source d'Épice connue dans l'univers, la planète fait l'objet de la surveillance constante de l’empereur, qui a donné la gestion de ce fief planétaire à la Maison Harkonnen. Celle-ci dirige Arrakis d'une main de fer, ses équipes d’ouvriers parcourant le désert à la recherche d’Épice à moissonner, afin de payer la dîme à l’empereur et accroitre la fortune colossale du baron Vladimir Harkonnen et de sa famille. Dans sa quête éperdue du bénéfice, le baron n'hésite pas à faire « pressurer » et martyriser la population locale, en particulier les Fremen qu'il considère comme de la « racaille », les faisant chasser comme des bêtes sauvages. Par ailleurs, les contrebandiers présents sur la planète participent à plusieurs activités hautement rémunératrices et illégales, comme la récolte de l'épice, mais sont tolérés dans une certaine mesure du fait de leurs avantages. Les Fremen, dirigés par le planétologiste (écologiste planétaire) impérial autochtone Liet Kynes, ont cependant une espérance dans la croyance implantée chez eux qu'un sauveur, un messie qu'ils appellent le « Mahdi », viendra un jour les libérer du joug des Harkonnen, transformant la planète désertique qu'est Dune en un paradis. Résumé Le duc Leto Atréides, chef de la Maison Atréides, règne sur son fief planétaire de Caladan, une planète constituée de jungles et de vastes océans dont il tire sa puissance. Sa concubine officielle, dame Jessica, est une adepte du Bene Gesserit, une école exclusivement féminine qui poursuit de mystérieuses visées politiques et qui enseigne des capacités non moins étranges. Par amour pour son concubin, Jessica donne à Leto un fils, Paul, désobéissant en cela aux directives de ses supérieures du Bene Gesserit, dont le programme génétique prévoyait qu’elle engendre une fille. Les Bene Gesserit (surnommées les « Sorcières » par ceux qui les craignent) cherchent, avec ces accouplements contrôlés, à créer par sélection génétique un être mâle, le Kwisatz Haderach, qui pourra voir ce qu’elles ne peuvent voir. Paul, le fils de Leto et Jessica, est formé par les hommes du duc, qui comptent parmi les meilleurs guerriers de l'Imperium (notamment le mentat-assassin Thufir Hawat et les soldats d'élite Duncan Idaho et Gurney Halleck). Ils l'instruisent en particulier à l’art du combat au couteau (l’arme la plus efficace dans l'Imperium depuis l’invention du bouclier à Effet Holtzman, un écran énergétique qui bloque les projectiles au-delà d'une certaine vélocité). Qui plus est, Paul bénéficie, grâce à sa mère Jessica, de l’enseignement Bene Gesserit sur le contrôle du corps et du système nerveux (prana-bindu) et, sous sa supervision, devient un combattant non armé redoutable. Enfin, Paul, qui fait des rêves prescients, semble aussi posséder des dons latents de Diseur de vérité et de mentat, à la satisfaction de son père qui rêve de le voir accéder un jour au trône du Lion de l'Imperium. C'est alors que l'empereur Shaddam IV ordonne au duc Leto d'occuper le fief d'Arrakis, lui confiant la gestion de la planète Dune et de son Épice, jusqu'alors gérée par la Maison Harkonnen, l'ennemi héréditaire des Atréides. L’Empereur, avec cette décision, joue en fait un double jeu. Il complote en secret avec les Harkonnen afin de détruire les Atréides dans le piège d’Arrakis, irrité par la popularité grandissante de son cousin Leto, le « duc rouge », auprès de l'assemblée des nobles des Grandes Maisons de l'Imperium, le Landsraad. Après s'être installé avec sa Maison sur Arrakis et avoir contré plusieurs attaques des Harkonnen (dont une qui visera son fils Paul), Leto est trahi par son médecin personnel de l'École Suk, le docteur Wellington Yueh, qui le livre inconscient aux Harkonnen après que ceux-ci ont envahi par surprise Arrakis, assistés secrètement par les troupes d’élite de l’Empereur, les Sardaukar. L'armée des Atréides est décimée et Jessica et Paul sont capturés par les Harkonnen. Yueh, pourtant un serviteur loyal de la Maison Atréides et de son duc bien-aimé, est persuadé que son maître sera tôt ou tard condamné, du fait des machinations de l'empereur contre lui. Par cette trahison, il souhaite utiliser Leto pour se venger des Harkonnen, sa femme Wanna, captive du baron Vladimir Harkonnen étant soumise aux effroyables tortures de Piter de Vries, son cruel mentat « tordu ». Le baron, faisant chanter Yueh (lui ayant promis de libérer sa Wanna sitôt Leto remis entre ses mains), réussit ainsi à annuler le conditionnement impérial strict de l’École Suk, qui normalement empêcherait Yueh d'agir de cette manière. De son côté, Yueh sait que c'est la seule chance qu'il a de tuer le baron et, au moyen d'une dent creuse remplie d’un gaz toxique qu'il a implantée dans la bouche de Leto, pense avoir sa revanche. Mais le plan de Yueh échoue : alors qu'il livre Leto aux Harkonnen, le docteur est tué par Piter de Vries sur ordre du baron (qui révélera à cette occasion que Wanna est morte depuis longtemps). Par la suite, Leto, affaibli par sa détention, confond le baron avec De Vries et relâche en mourant son gaz toxique sur le mentat, tuant ce dernier à la place du baron qui échappe de peu à l'attentat. Pendant ce temps, Paul et Jessica, aidés secrètement par Yueh qui leur a préparé un moyen de s'échapper, parviennent à s’enfuir dans le désert où ils étaient conduits pour y être tués par les Harkonnen. Retrouvés par Duncan Idaho, ils se rendent au sietch Fremen de Liet Kynes, le planétologiste impérial autochtone, qui hésite à les aider. Alors qu'ils scellent une alliance, ils sont retrouvés par les Sardaukar (déguisés en Harkonnen) qui attaquent le sietch de Kynes. Duncan meurt en protégeant leur fuite. Échappant aux Harkonnen toujours à leur trousses, les deux fugitifs sont forcés d'entrer dans le nuage d'une tempête Coriolis avec leur engin volant pour échapper à leur poursuivants. (Ici se situe la transition entre les tomes I et II du roman) Après avoir survécu à la tempête Coriolis (les Harkonnen les pensent morts), Paul et Jessica se dirigent dans le désert profond. Ils font la rencontre d'une troupe Fremen menée par Stilgar, le naib (chef tribal) du sietch Tabr, qui au début cherche à les tuer, les voyant comme des intrus. Après avoir réussi à montrer leur valeur, ils parviennent à intégrer la tribu du sietch Tabr. Les Fremen, guidés par Liet Kynes (qui a depuis été éliminé par les Harkonnen), voient en Paul un messie, leur « Mahdi », qui leur apportera la liberté. Paul change alors de nom, devenant Muad'Dib et prend comme concubine une Fremen, Chani, fille de Liet, nièce de Stilgar et sayyadina (prêtresse de la tribu) du sietch Tabr. Utilisant à son profit la Missionaria Protectiva du Bene Gesserit implantée dans les croyances des Fremen, Jessica devient la nouvelle Révérende Mère du sietch Tabr, après avoir transformé l’Eau de la Vie (un poison violent que seules les Révérendes Mères du Bene Gesserit sont censées pouvoir neutraliser), prouvant ainsi aux Fremen qu'elle ne ment pas. Peu après, elle donne naissance à sa fille Alia, fruit de son union avec Leto et sœur de Paul. Paul, au fur et à mesure qu'il est en contact avec l’Épice sur Dune, voit ses pouvoirs de prescience s'éveiller. Après avoir échappé aux Harkonnen, il découvre dans un rêve prescient le lien de parenté du baron Harkonnen avec sa mère Jessica (qui s’avère être sa fille cachée). Par la suite, il a une révélation lorsqu’il absorbe l’Eau de la Vie (ce qui est normalement interdit aux êtres mâles) et, après un long coma, survit à l'expérience. Sa conscience en est alors décuplée ; il peut voir le « maintenant » et l'avenir en tout lieu. Il est alors révélé comme le Kwisatz Haderach, celui qui peut voir le passé et le futur. Grâce à ces dons, Paul perçoit les menaces de ses ennemis qui s'assemblent contre lui, notamment l'empereur allié à la Guilde spatiale et aux grandes Maisons, et en arrive à la conclusion que celui qui peut détruire l’Épice possède le moyen de la contrôler. Au fil du temps, Paul Muad’dib, aidé par Stilgar et Jessica, rassemble les tribus Fremen sous son autorité, les entraine et harcèle les troupes Harkonnen d'Arrakis, celles-ci étant dirigées par Glossu Rabban, dit « Rabban la Bête », un des neveux du baron qui exerce la gérance de la planète. La Maison Harkonnen doit alors affronter la puissance du désert, réveillée et menée par l'insaisissable Muad’Dib, la « souris du désert » aux tactiques surprenantes. Paul retrouve ensuite Gurney Halleck, alors allié aux contrebandiers de Dune qui l’avaient recueilli après la défaite de la Maison Atréides. Devenu chef et messie des Fremen, Paul Muad’Dib mène ses troupes de victoires en victoires face aux forces Harkonnen et aux Sardaukar de l’empereur, bien qu'il perde son premier fils lors d'une bataille. Dominant le désert, il s'attaque ensuite à la capitale, Arrakeen, qu'il prend d'assaut alors que l'empereur Shaddam IV, venu faire régner l'ordre de l'Imperium sur Arrakis, y est réfugié avec ses soldats. Au moment de l'assaut final, Alia tue le baron Vladimir Harkonnen (son grand-père maternel) avec une aiguille empoisonnée. Vaincu, Shaddam IV est forcé d'abdiquer. Il est ensuite obligé par Paul d’accepter le mariage de ce dernier avec sa fille, la princesse Irulan Corrino, ce qui donne par voie de conséquence le trône impérial à Paul Atréides. Shaddam IV est par la suite exilé sur Salusa Secundus, la planète-mère de la Maison Corrino et le siège de la formation des Sardaukars, pendant que les légions Fremen sont lâchées sur l'Imperium, plantant la bannière verte et noire des Atréides sur tous les mondes habités de l'univers connu, dans un jihad qui ravage la galaxie… Personnages Maison Atréides Duc Leto Atréides, le chef de la Maison Atréides. Dame Jessica, une adepte du Bene Gesserit, concubine officielle du duc Leto (mais non mariée), mère de Paul et d'Alia. Paul Atréides, le fils du duc Leto et personnage principal du roman. Alia Atréides, la jeune sœur de Paul. Thufir Hawat, le Mentat et Maître des Assassins de la Maison Atréides. Gurney Halleck, un des fidèles lieutenants du duc Leto, guerrier troubadour et loyal serviteur des Atréides. Duncan Idaho, un des fidèles lieutenants du duc Leto, Maître d'arme de la Maison Atréides, diplômé de l’école du Ginaz. Wellington Yueh, le docteur Suk personnel de la Maison Atréides, qui conclut secrètement un marché avec la Maison Harkonnen. Maison Harkonnen Baron Vladimir Harkonnen, le chef de la Maison Harkonnen. Piter de Vries, le Mentat-assassin « tordu » du baron. Feyd-Rautha, le neveu et héritier présomptif du baron (appelé alors « na-baron ») Glossu Rabban, dit « Raban la Bête », un des plus vieux neveux du baron. Iakin Nefud, le capitaine de la garde personnelle du baron, qui succède à Umman Kudu. Maison Corrino Empereur Padishah Shaddam IV, régent de l'univers connu (l'Imperium) et chef de la Maison Corrino. Princesse Irulan, la fille aînée et héritière de Shaddam IV, élevée dans la Manière Bene Gesserit. Comte Hasimir Fenring, un eunuque génétique et ami le plus proche de l'empereur Shaddam IV, agissant comme conseiller et valet de l’empereur. Bene Gesserit Révérende Mère Gaius Helen Mohiam, une intrigante du Bene Gesserit et Diseuse de vérité à la cour de l’empereur Shaddam IV. Dame Margot Fenring, une adepte du Bene Gesserit et épouse du comte Hasimir Fenring. Wanna Marcus, une adepte du Bene Guesserit et épouse de Wellington Yueh, capturée et torturée par les Harkonnen. Fremen Les Fremen, les habitants « natifs » d'Arrakis. Liet Kynes, le planétologiste impérial (écologiste planétaire), natif d'Arrakis et père de Chani, ainsi qu'une figure vénérée chez les Fremen. Nommé Arbitre du changement par l’empereur lors de la cession du fief d'Arrakis des Harkonnen aux Atréides. Stilgar, le naib (chef tribal) Fremen du Sietch Tabr. Chani, la concubine Fremen de Paul, fille de Liet et nièce de Stilgar. La Shadout Mapes, la gouvernante principale à la résidence ducale d'Arrakeen sur Arrakis. Jamis, un guerrier Fremen tué par Paul lors d'un duel rituel initié par Jamis. Harah, l'épouse de Jamis et plus tard la servante de Paul. Ramallo, la Révérende Mère Fremen du Sietch Tabr. Contrebandiers Esmar Tuek, un important contrebandier et le père de Staban Tuek. Tué par le docteur Yueh dans la résidence ducale d'Arrakeen avant l'attaque des Harkonnen. Staban Tuek, le fils d'Esmar Tuek, un contrebandier qui prend sous ses ordres Gurney Halleck et sa troupe d'hommes rescapés de l'attaque des Harkonnen. Thèmes Le cycle de Dune aborde de nombreux thèmes divers : l’écologie planétaire, l’organisation politique et religieuse, la géopolitique, les rivalités princières et celles des maisons nobles, les rivalités politiques et économiques entre les ordres et les organisations de cet univers, l’acquisition et la préservation de ressources (notamment l’Épice), la remise en cause de l’intelligence artificielle et des robots intelligents (djihad Buthlérien), le transhumanisme et les manipulations génétiques (avec les gholas), mais aussi le mysticisme, le messianisme et le contrôle des religions (Missionaria Protectiva) pour guider la population. Adaptations Cinéma En 1975, le réalisateur Alejandro Jodorowsky commence à travailler sur une adaptation du roman. Le projet devait voir la participation d’Orson Welles, Salvador Dalí, Mick Jagger, du dessinateur Mœbius (qui a cosigné le storyboard), du designer  Giger, et être mis en musique par les groupes Pink Floyd (qui travaillèrent à des morceaux) et Magma. Mais le projet tourne court, les studios de production lâchant Jodorowsky et son associé Michel Seydoux. Jodorowsky réutilisera une partie de son travail (et de l'univers de Dune, notamment le Bene Gesserit) sur la bande-dessinée La Caste des Méta-Barons. Un documentaire, Jodorowsky's Dune, réalisé par Frank Pavich et retraçant le développement du projet, a été présenté à la Quinzaine des réalisateurs au Festival de Cannes 2013. Le documentaire est sorti en France le . Le réalisateur Ridley Scott et Randolph Wurlitzer ont travaillé un temps sur un script de Dune, avant que Scott ne se lance dans l'aventure du film Blade Runner. En 1984, le roman est adapté au cinéma par David Lynch dans Dune (sans aucun lien avec les travaux préparatoires de Jodorowsky). Le groupe californien Toto contribue à la trame sonore du film. Le film sera un semi-échec. Dans les années 2010, une nouvelle adaptation cinématographique du roman est en projet par Paramount Pictures. Initialement réalisée par Peter Berg, puis Pierre Morel, celle-ci est définitivement abandonnée en mars 2011. En 2021, une nouvelle adaptation cinématographique est réalisée par Denis Villeneuve et produite par Legendary Pictures. Le tournage débute en mars 2019. Le rôle de Paul Atréides est attribué à Timothée Chalamet et c'est Rebecca Ferguson qui est pressentie pour interpréter celui de Dame Jessica. Comme le confirme le réalisateur aux Rendez-vous Québec Cinéma, le film est prévu pour être scindé en au moins deux parties. La première partie sort en France le 15 septembre 2021. La deuxième partie est envisagée pour 2023. Télévision En 2000, le roman est adapté dans la série télévisée Dune. Celle-ci couvre également le volume Le Messie de Dune d'Herbert. En 2003, le roman Les Enfants de Dune, le volume suivant d'Herbert, est adapté à son tour à la télévision. Jeux vidéo En 1992, le roman est adapté en jeu vidéo par l’éditeur français Cryo Interactive avec le jeu Dune. En 1992, , adaptant de nouveau le roman en jeu vidéo, fonde le genre du jeu de stratégie en temps réel (RTS) avec le jeu : La Bataille d’Arrakis. En 1998, sort Dune 2000. En 2001, sort Empereur : La Bataille pour Dune. Livres audio en français La traduction française est éditée en avril et mai 2019 par Lizzie, marque de livres audio du groupe Editis : . . Un classique de la science-fiction Ce roman est considéré comme un grand classique de la science-fiction dans les ouvrages suivants : Annick Beguin, Les titres de la science-fiction, Cosmos 2000, 1981 ; Jacques Sadoul, Anthologie de la littérature de science-fiction, Ramsay, 1981 ; Jacques Goimard et Claude Aziza, Encyclopédie de poche de la science-fiction. Guide de lecture, Presses , coll. « Science-fiction », 5237, 1986 ; Denis Guiot, La Science-fiction, Massin, coll. « Le monde de … », 1987 ; La Bibliothèque idéale de la SF, Albin Michel, (1988) ; Enquête du Fanzine Carnage mondain auprès de ses lecteurs, 1989 ; Lorris Murail, Les Maîtres de la science-fiction, Bordas, coll. « Compacts », 1993 ; Stan Barets, Le science-fictionnaire, Denoël, coll. « Présence du futur », 1994 ; Bibliothèque idéale du webzine Cafard cosmique Nicolas Allard, Dune : un chef d'oeuvre de la science-fiction, Dunod, 2020. Présentation du livre sur le site de l'éditeur Il est étudié d'un point de vue philosophique dans l'article de Terence Blake, « Deleuze et Dune : éloge de la divergence », in Philosophie, science-fiction ?, sous la direction de F. Albrecht, E. Blanquet, J.-L. Gautero & É. Picholle. Éditions du Somnium, octobre 2014. Autour du roman Certains noms de planètes issues des romans du cycle de Dune (comme Arrakis, Buzzel, Caladan, Corrin, Chusuk, Ecaz, Gammu (Geidi Prime), Ginaz, Hagal, Harmonthep, Jonction, Kaitan, Lampadas, Lankiveil, Lernaeus, Niushe, Poritrin, Richese, Rossak, Salusa Secundus, Tleilax et Tupile) ont été adoptés pour la nomenclature réelle des plaines et autres caractéristiques de Titan, la lune de la planète Saturne. Notes et références Notes Références Annexes Bibliographie . . . . Article connexe Outresable'', un roman de science-fiction post-apocalyptique de Hugh Howey sur un thème similaire. Liens externes Roman de Frank Herbert Roman de science-fiction américain Écrit de Dune Roman américain paru en 1965 Prix Hugo du meilleur roman Prix Nebula du meilleur roman Roman américain adapté au cinéma 1965 en science-fiction Œuvre littéraire se déroulant dans un désert Roman américain adapté à la télévision Sable dans la culture
907
https://fr.wikipedia.org/wiki/Donjon
Donjon
Le donjon est la tour la plus haute d'un château fort au Moyen Âge, destinée à servir à la fois de point d'observation, de poste de tir et de dernier refuge si le reste de la fortification vient à être pris par un ennemi. À l'origine strictement militaire, ces tours, ou bâtiments fortifiés, deviennent progressivement les lieux de résidence des seigneurs des châteaux. Les donjons, à double fonction défensive et administrative, finissent par se généraliser lors de la renaissance du marquant l'âge d'or du château fort dont ils sont une caractéristique emblématique. Étymologie et sens du terme Le mot « donjon » (ou dongun, doignon, dangon) est issu du gallo-roman (attesté chez Du Cange sous les formes dunjo, dungeo, domniono, domnio, etc.), dérivé du latin « maître, seigneur ». Il a peut-être subi l'influence du vieux bas francique *dungjo de sens proche. Il désigne la partie du château réservée au maître (en latin ) de celui-ci. En dehors de son rôle spécifiquement militaire lors d'un siège, on y installe en général les appartements du seigneur et de sa famille, des réserves stratégiques de nourriture et d'armes ; le donjon sert également pour des prisonniers qu'on cherche à isoler particulièrement. Au Moyen Âge, le terme s'appliquait à tout l'ensemble fortifié : logis du châtelain, écuries et chapelle. L'usage moderne en français, avec le sens exclusif de « tour la plus haute » est donc une évolution du sens. Le terme peut être appliqué à des édifices hors d'Europe, organisés selon les mêmes principes, par exemple certaines forteresses du Japon. Utilité En temps de paix, le donjon renferme les trésors, les armes, les archives de la famille. Le seigneur y loge avec sa famille, à l'étage noble : le premier étage. Par sa position élevée, le sommet du donjon est en général celui qui offre la meilleure vue de la région environnante. En cas de siège, c'est l'endroit privilégié d'où peuvent être observés les mouvements de l'ennemi. Si le château est de petite taille, c'est de là que les archers et les machines auront la plus grande portée de tir. Les châteaux sont prévus pour que, si la muraille extérieure est prise, les enceintes intérieures puissent encore être défendues. Le donjon est le dernier refuge dans ce cas, il est conçu pour être défendable même si tout le reste du château est déjà pris. Il ne s'agit pas que de se défendre d'attaquants venus de l'extérieur de la forteresse ; pour le seigneur du château, la disposition du donjon permet de se prémunir contre des trahisons venant, notamment, des vassaux venus en renfort et amalgamés à la garnison. En général, les visiteurs des châteaux sont donc tenus à l'écart du donjon, afin que l'agencement intérieur du bâtiment soit inconnu des assaillants, en cas de conflit, de trahison ou de retournement d'alliance. Les donjons sont parfois conçus selon des plans d'une grande complexité, pour dérouter et piéger les attaquants, par exemple celui du château d'Arques-la-Bataille. Le donjon est aussi, en général, en contact avec l'extérieur de l'enceinte, afin de permettre d'en sortir ou d'y rentrer sans avoir à passer par le reste de l'enceinte. Cette disposition peut être vitale lorsque le donjon se trouve assiégé, en permettant de s'échapper. Les donjons en France La raison première qui fit élever des donjons furent les incursions des Vikings. Les villas mérovingiennes évoquaient parfois les villæ gallo-romaines ; mais quand les Vikings se jetèrent périodiquement sur le continent occidental, les seigneurs, les monastères, les rois et les villes elles-mêmes songèrent à protéger leurs domaines par des forteresses en bois que l'on élevait sur le bord des rivières et autant que possible sur des emplacements déjà défendus par la nature. Les Vikings eux-mêmes, lorsqu'ils eurent pris l'habitude de descendre sur les côtes des Gaules et de remonter les fleuves, établirent, dans quelques îles près des embouchures ou sur des promontoires, des camps retranchés avec une forteresse pour mettre leur butin à l'abri des attaques et protéger leurs bateaux amarrés. C'est aussi dans les régions qui furent particulièrement ravagées par les Vikings que l'on trouve les plus anciens donjons, et ces forteresses primitives sont habituellement bâties sur plan rectangulaire formant un parallélogramme divisé quelquefois en deux parties. Le plus haut donjon d'Europe était celui du château de Coucy, dans l'Aisne, qui se dressait à plus de de hauteur, mais fut détruit en 1917 par l'armée allemande pour des raisons indéterminées. C'est maintenant celui de Crest avec ses mais ce titre pourrait aussi revenir au chateau de Largoët avec un donjon dominant le fond de ses douves de , avec ses 7 étages et ses 177 marches. Le donjon du château de Rouen, dit tour Jeanne d'Arc, encore en élévation et ouvert à la visite, représente un exemple de l'architecture philippienne mise en œuvre par Philippe Auguste au sein du domaine royal et du duché de Normandie : donjon détaché de l'enceinte fortifiée, construit de 1204 à 1210. Évolution du donjon au cours des âges Les donjons romans quadrangulaires Ils font leur apparition aux alentours de l'an mil et perdureront tout au long des . Ils regroupent à la fois les fonctions défensives et de résidence. C'est dans ces grands donjons de forme carrée ou barlong construits en pierre que furent concentrés les trois éléments les plus significatifs et les plus chargés de symboles que sont les lieux de sociabilité avec la grande salle, l'aula, les espaces dédiés à la vie privée, la camera et ceux dédiés à la pratique de la religion, la capella. Le plan rectangulaire, malgré le défaut des angles morts, présente une plus grande facilité de construction et, grâce à son mur de refend intérieur, il utilise des bois de charpente de portée plus restreinte que dans un donjon de plan circulaire, ce qui peut expliquer que l'on ait préféré ce modèle qui perdurera jusqu'à la fin du (vers 1180). En Basse-Normandie, le plan rectangulaire sera de nouveau à la mode au début de la guerre de Cent Ans (Saint-Sauveur-le-Vicomte, Creully, Hambye). La région naturelle du Val de Loire présente certains des plus anciens donjons français romans : Langeais (vers 994), Loches (vers 1010-1030). En Vendée, ancien comté de Poitou, il est observé, surtout dans le bocage, des donjons romans du style « niortais ». Ce sont des donjons carrés ou rectangulaires renforcés aux angles par des tours ou des contreforts arrondis et pleins. Le milieu de chacune des façades est également renforcé par des petites tours ou contreforts à demi engagés. Noirmoutiers en est un bel exemple, mais on en voit aussi sur les châteaux ayant appartenu aux vicomtes de Thouars. Il en existe ainsi aux Châtelliers-Châteaumur, à Pouzauges, à Tiffauges ; et il y en a eu également à Vouvant, Mallièvre Cas particulier des donjons annulaires ou shell-keep Entre la fin de la conquête de l'Angleterre par Guillaume II de Normandie et la première croisade se sont construits les shell-keep (« donjons-coquilles ») à partir des mottes castrales déjà présentes. Ils sont une innovation anglaise, et cette technique a été récupérée par les Normands. Il s'en est bâti en actuelle Normandie, et il y a des vestiges à Argentan, Carentan, Vatteville-la-Rue, Montargis, le château de Chars, Grosley-sur-Risle, Avrilly En fin de compte, il y en a sur des terres ayant été dominées par les Plantagenêts. Ailleurs, ils sont plus rares, d'une manière générale ils sont exceptionnels au sud de la Loire. Ainsi, il y en a en Côte-d'Or (Antigny-le-Château), en Vendée (La Roche-sur-Yon), en Charente-Maritime (Pisany et Saint-Jean-d'Angle). La grande particularité de ces donjons est que à la différence d'une haute tour étroite, sans cour intérieure, aménagée en plusieurs niveaux et couverte d'une toiture, elle se constitue d'une enceinte ovoïde ou circulaire encerclant une petite motte formant cour intérieure, et des bâtiments renfermant logis, cuisines, écuries, communs qui entourent cette cour intérieure et adossés aux remparts. L'enceinte n'a quasiment pas de tours de flanquement, mais a au moins une porte fortifiée défendue par un pont-levis ou amovible enjambant un fossé protégeant l'enceinte. Les donjons-beffrois Les donjons-beffrois sont des grandes tours typiques des châteaux médiévaux des terres d'Empire et de France méridionale. Appelées bergfried, ces tours de défense se différencient des donjons des châteaux français ou anglais par le fait qu'elles ne contiennent pas de locaux d'habitation. Les donjons cylindriques et leurs variantes Ils apparaissent au cours du . L'un des plus anciens pouvant être le donjon du château de Fréteval dressé vers l'an 1100. Notes et références Notes Références Voir aussi Bibliographie . Christian Corvisier, « La tour d'Ostrevant à Bouchain : un donjon de type anglo-normand au comté de Hainaut », in Bulletin Monumental,1999-3, p. 261-282, (lire en ligne). . Eugène Viollet-le-Duc, Dictionnaire raisonné de l'architecture française du , tome 5, Donjon. Articles connexes Tenshu, donjon japonais Liens externes
911
https://fr.wikipedia.org/wiki/Dow%20Jones%20Industrial%20Average
Dow Jones Industrial Average
Le Dow Jones Industrial Average (abrégé en DJIA et souvent raccourci en Dow Jones) est un indice des bourses de New York. C'est le plus vieil indice boursier du monde. Cet indice est la propriété de Dow Jones Indexes, une coentreprise détenue à 90 % par CME Group et à 10 % par Dow Jones and Company. Origine et création L'indice a été créé en 1896 par Charles Dow (1851-1902) et Edward Jones, deux journalistes qui travaillaient auparavant dans une agence de presse financière, le Wall Street Financial News Bureau. Il créèrent la société Dow Jones avec pour ambition d'estimer quelles valeurs industrielles ont le plus fort potentiel de la Bourse. Histoire et évolution 1884 : fondation de l'indice par Charles Dow. Sur onze sociétés, neuf sont des compagnies de chemins de fer. Les deux autres, Western Union et Pacific Mail, opèrent dans la télégraphie et la machine à vapeur. : début de la publication de l'indice, où entre General Electric, dopé par les inventions de Thomas Edison. Un des titres est U.S. Leather, une société qui produit des courroies en cuir pour machines agricoles et qui disparaîtra en 1952. La première cotation de l'indice est de points. : jour du plus bas historique de l'indice : points 1899 : sur douze sociétés de l'indice, trois produisent de l'acier et trois autres du cuivre ou du plomb, soit la moitié du total. Dès 1913, les États-Unis produiront autant d'acier que la France, l'Allemagne et l'Angleterre réunis. - : l'indice grimpe de 468 % (à 381.7 points au plus haut). : krach de 1929. 1931 : perte record de 52,67 % sur l'année. 1932 : le DJIA atteint 41.22 points au plus bas. : krach de 1973-74. Jusqu'au 6 décembre 1974, le DJIA perdra progressivement plus de 45 % de sa valeur. : krach d'octobre 1987. : discours dit de l'exubérance irrationnelle prononcé par Alan Greenspan. : l'indice termine pour la première fois au-dessus des . : Intel et Microsoft premières sociétés du Nasdaq à entrer au Dow Jones. : record à points (immédiatement avant l'éclatement de la bulle des valeurs technologiques). En cinq ans, le Dow Jones a triplé de valeur et le Nasdaq sextuplé. : nouveau record, pour la première fois au-dessus de . : plus haut historique en cours de séance, points. Peu de temps après commence une période de baisse qui durera 17 mois. Ce sommet ne sera dépassé que le . : chute de 6,98 %. : -7,33 % et de baisse consécutive en raison de la crise financière de 2008. : points, au plus bas depuis le . : +10,88 %, permettant de terminer à points. : l'indice finit sous les , plombé par l'indice des prix à la consommation en baisse la plus forte depuis 61 ans et le repoussement du plan Paulson à la prise de fonction de Barack Obama. : le Dow Jones clôture la séance à son plus bas niveau depuis 1997 : points. : Flash Crash de 2010 : une hausse de l'emploi et un taux de chômage au plus bas depuis 2008 aux États-Unis fait bondir Wall Street à points, nouveau record en 4 jours d'affilée. : un tweet factice de l'AP disant qu'il y a eu deux explosions à la Maison-Blanche fait perdre en l'espace de quelques minutes 143 points d'actions au Dow Jones, soit environ 136,5 milliards de dollars, entre 19h07 et 19h10. : Janet Yellen, la présidente de la FED, commence à s’inquiéter de la valorisation excessive de certaines actions, à l’occasion de son témoignage semi-annuel de politique monétaire devant le Comité bancaire du Sénat américain. : le Dow Jones clôture a son plus haut niveau historique à points . Sa valeur a plus que doublé en l'espace de cinq ans, depuis les points bas de la Crise financière de 2008. : le Dow Jones bat un nouveau record historique de clôture à points. : le Dow Jones atteint pour la première fois de l'histoire les 18 000 points après une révision en forte hausse du produit intérieur brut (PIB) américain et bat un nouveau record de clôture à 18 024,17 points avec un plus haut de 18 069,22 durant la séance. : le Dow Jones dépasse les 19 000 points. : le Dow Jones dépasse les 20 000 points. : le Dow Jones dépasse les 21 000 points. : nouveau record pour le Dow Jones, qui dépasse les 22 000 points. : les 23 000 points sont dépassés. : le Dow Jones dépasse les 24 000 points. : le Dow Jones dépasse les 25 000 points. : le Dow Jones dépasse les 26 000 points. 12 février 2020 : le Dow Jones affiche un record avec 29 551.42 points. : à cause de la pandémie du Covid-19 le Dow Jones perd 1 190 points, soit 4,4%, pour terminer à 25 766 et continue à perdre pendant les semaines à venir. : le Dow Jones chute brutalement et enregistre la pire journée de son histoire perdant près de 2000 points. 6 minutes après l’ouverture des marchés, le Dow Jones chute de 7% en raison de la crise du coronavirus et du pétrole, ce qui a automatiquement déclenché un mécanisme d’interruption temporaire des échanges d’une durée de 15 minutes, permettant au marché et aux investisseurs de reprendre leurs esprits. Cet événement est très rarement survenu. : le Dow Jones chute brutalement et enregistre la pire journée de son histoire perdant 9,99% et 2352,60 points. Le Dow Jones chute brutalement de plus de 7% à l’ouverture entraînant automatiquement l’interruption des marchés. C’est la deuxième fois dans la même semaine que ce processus se déclenche. 16 mars 2020 : le Dow Jones chute encore à 20 188.52 points, soit une perte de 3364.7 points depuis le 12. Cette journée marque l'une des pires chute du Dow Jones avec une perdant 12,9% en une journée. La troisième pire chute de l'histoire du Dow Jones 24 mars 2020 : Plus gros gain de pourcentage du Dow Jones depuis le 15 mars 1933. Le Dow Jones affiche un gain de plus de 11%, soit 2 112.98 points 3 Juin 2020 : le Dow Jones dépasse les 27 000 points et passe à 27 272.3 points. 8 Novembre 2020 : à la suite de l'annonce de la découverte d'un vaccin par la compagnie Pfizer contre le Covid-19, le Dow Jones fait un gain de 834.57 points, ou 2,95%, et ferme à 29 157.97 points. Corrélation avec les autres bourses Les performances annuelles du Dow Jones se sont rapprochées de celles du CAC 40, du DAX et du Footsie, les grands marchés boursiers étant de plus en plus dépendants les uns des autres depuis une quinzaine d'années. Composition de l'indice L'indice comprend 30 entreprises importantes, mais les entreprises présentes dans l'indice ont changé avec le temps. Des douze entreprises originelles plus aucune n'est encore présente, General Electric l'ayant quitté en 2018. Elle figurait de manière ininterrompue dans l’indice depuis . Depuis le , les trente entreprises entrant dans la composition du Dow Jones Industrial Average sont : 3M (chimie, électronique et entretien) American Express (services financiers) Amgen (biotech) Apple (secteur technologique) Boeing (aéronautique et aérospatiale) Caterpillar Inc. (matériel de chantiers) Chevron Corp. (pétrole) Cisco Systems (réseautique) The Coca-Cola Company (boisson, agroalimentaire) Dow (chimie) Goldman Sachs (banque) Home Depot (distribution de matériel de bricolage) Honeywell (chimie) Intel Corp. (microprocesseurs) International Business Machines (matériel, logiciel et services informatiques) Johnson & Johnson Corporation (pharmacie) JPMorgan Chase & Co. (services financiers) McDonald's Corporation (restauration rapide) Merck & Co. Inc. (pharmacie) Microsoft (logiciel) Nike (équipement et habillement sportifs) Procter & Gamble (entretien, pharmacie, alimentation) Salesforce (éditeur de logiciel) The Travelers Companies (assurance) UnitedHealth Group (santé) United Technologies (aérospatiale, défense) Verizon (télécommunications) Visa (services bancaires) Walgreens Boots Alliance (chaîne de pharmacies) Wal-Mart Stores Inc. (grande distribution) Walt Disney Company (divertissement) Les entreprises disparues du Dow Jones y ayant figuré plus de 70 ans sont : General Electric (électricité, 111 ans, 1894- et 1907-2018) U.S. Steel (acier, 92 ans, 1899-1991) General Motors (automobile, 85 ans, 1915-6 et 1925-2009) Honeywell (chimie, 82 ans, 1925-2008), retour dans l'indice le 31/08/2020. Texaco (pétrole, 80 ans, 1915-24 et 1925-97) Westinghouse Electric (électricité, 77 ans, 1916-25 et 1928-95) American Telephone and Telegraph (téléphone, 77 ans, 1916-28 et 1939-2004) Sears, Roebuck and Company (distribution, 75 ans, 1924-1999) (boîtes de conserve, 74 ans, 1916-1991) Kodak (appareils photos, 73 ans, 1930-2004) Woolworth's (distribution, 72 ans, 1924-1997) Union Carbide (chimie, 71 ans, 1928-1999) Les entreprises disparues du DJIA sont : ExxonMobil Corp. (pétrole), présent depuis 1928 sous le nom de Standard Oil of New Jersey. Sorti de l'indice le 31/08/2020 Pfizer Inc. (pharmacie), sorti le 31/08/2020 Raytheon Technologies (aéronautique et défense) , sorti le 31/08/2020. Six derniers changements : : Kraft Foods remplace American International Group. : Cisco Systems et The Travelers Companies remplacent respectivement General Motors et Citigroup. : UnitedHealth Group remplace Kraft Foods. : Goldman Sachs, Visa et Nike remplacent Alcoa, Bank of America et Hewlett-Packard. : Apple remplace AT&T. : Walgreens Boots Alliance remplace General Electric 2 avril 2019 : Dow remplace DowDupont (qui a été scindée en trois entités : -1- Dow -2- DuPont -3- Corta Agriscience). Calcul de l'indice Pour calculer le Dow Jones, la somme des prix des 30 actions est divisée par un diviseur, le Dow Divisor. Le diviseur est ajusté en cas de fractionnement d'actions, de scission ou de changements structurels similaires, pour s'assurer que de tels événements ne modifient pas en eux-mêmes la valeur numérique du Dow Jones. Au début, le diviseur initial était composé du nombre initial de sociétés de composants; cela a d'abord fait du Dow Jones une simple moyenne arithmétique. Des événements tels que des fractionnements d'actions ou des changements dans la liste des sociétés composant l'indice modifient la somme des prix des composants. Dans ces cas, afin d'éviter une discontinuité dans l'indice, le Dow Divisor est mis à jour afin que les cotations juste avant et après l'événement coïncident. Notes et références Annexes Articles connexes Indice boursier, contient entre autres plusieurs liens vers d'autres indices boursiers Indice S&P 500 Histoire des bourses de valeurs Liens externes Dow Jones Cotation Petite histoire du DJIA 4 choses à savoir sur le Dow Jones Industrial Average The Latest About Dow Jones Today Indice boursier Histoire des bourses de valeurs Indice sans dividendes
958
https://fr.wikipedia.org/wiki/Divinit%C3%A9s%20topiques
Divinités topiques
Les divinités topiques sont des divinités d'un lieu géographique. On trouve des divinités topiques de fleuves, de villes… En général, la divinité porte le même nom que ce à quoi elle est attachée. L'exemple le plus connu est Athéna. Bien que divinité principale du panthéon grec, elle est aussi, et entre autres, une divinité topique, c'est la déesse d'Athènes. Les dieux égyptiens étaient aussi des divinités topiques. Voir aussi Dieux égyptiens par ville. Iemanja Chenghuang Topiques
962
https://fr.wikipedia.org/wiki/Danse
Danse
La danse est une forme d'art vivant. C'est un mode d'expression éphémère constitué de séquences de mouvements de corps dans l'espace souvent accompagnés par de la musique. Les mouvements sont à dessein, intentionnellement rythmiques et façonnés culturellement. Les gestes sont principalement autres que ceux effectués lors d'activités motrices ordinaires et ont une valeur inhérente, esthétique et potentiellement symbolique. Une danse est soit un ensemble défini de mouvements dénué de signification propre, comme souvent dans le ballet ou les danses traditionnelles européennes, soit une gestuelle inspirée par une symbolique laïque ou religieuse, tendant parfois vers une sorte de mime ou de pantomime, comme dans de nombreuses danses asiatiques. Parfois elle peut même viser à entraîner la transe. Généralités La danse peut être un art, un rite ou encore un divertissement. Elle exprime des idées et des émotions ou raconte une histoire. La danse a en général un rapport direct dans l'histoire avec les autres formes d'art. Le corps peut réaliser toutes sortes d'actions comme tourner, se courber, s'étirer, ou sauter. En les combinant selon des dynamiques variées, on peut inventer une infinité de mouvements différents. Le corps passe à l'état d'objet, il sert à exprimer les émotions du danseur à travers ses mouvements, l'art devient le maître du corps. Histoire Origines Les premières indications sur l'exécution de danses datent de la Préhistoire, au paléolithique, où des peintures rupestres attestent de l'existence de danses primitives. Il s'agit avant tout d'un acte cérémoniel et rituel, adressé à une entité supérieure afin de : conjurer le sort (danse de la pluie) ; donner du courage (danse de la guerre ou de la chasse) ; plaire aux dieux (Antiquité égyptienne, grecque et romaine). La danse primitive, couplée aux chants et à la musique, avait aussi probablement la capacité de faire entrer les participants dans un état de transe. Le Centre Pompidou propose en 2012 une exposition consacrée à la danse, retraçant l'historique de cet art sur plus d'un siècle, de 1900 à nos jours. Histoire en Occident L'Antiquité L'acte rituel devient distraction : l'esthétisme et la communion deviennent prépondérants lors des spectacles et des rassemblements. La danse devient donc un art dont les codes évolueront avec les sociétés qui la pratiquent. La danse gauloise n'est connue par aucun texte, mais par de nombreuses représentations sculptées. Parmi celles-ci, un ensemble de huit statuettes de bronze trouvées dans le trésor de Neuvy-en-Sullias est particulièrement évocateur. On peut observer, tant en Gaule qu'en Germanie, l'incorporation de certaines usages romains, en particulier rituel, aux traditions celtes. Le Moyen Âge La Renaissance Le C'est le siècle du ballet de cour par excellence, puis de l'opéra-ballet et de la comédie-ballet initiés par Lully et Molière. Le C'est le siècle de la danse baroque, appelée à l'époque la « Belle danse ». Le premier théoricien de la danse, Jean-Georges Noverre, préconise une danse exprimant les sentiments de l'âme, dépouillée de tout artifice, et reforme le ballet en édictant les règles du ballet d'action. Le Avec La Sylphide apparaît le ballet romantique et la prééminence de la danse légère, éthérée, aérienne. La danse classique se codifie, notamment par les soins de Carlo Blasis et Enrico Cecchetti. Déclin du ballet en France, développement des grands ballets classiques en Russie, en Scandinavie et en Italie. À la fin du , dans le Río de la Plata, naît le tango. Le La danse classique se renouvelle avec les Ballets russes de Serge de Diaghilev et ensuite, avec la naissance du style néo-classique (Serge Lifar en France et George Balanchine aux États-Unis). En Allemagne et aux États-Unis apparaît la danse moderne (modern dance). Dans les années 1920, aux États-Unis, naît le lindy hop, ancêtre du rock. De manière générale, le sera marqué par un fort développement des danses en couple (social, compétition ou spectacle). Après la Seconde Guerre mondiale naît la danse dite contemporaine, héritière de Merce Cunningham, qui prend plus largement son essor à la fin des années 1970 pour se développer jusqu'à aujourd'hui. Des liens s'établissent avec tous les arts. La danse s'éloigne de la virtuosité pour rejoindre le rang d'art polémique en plaçant le corps comme principal médium d'expression. C'est le temps de la performance. La recherche instaurée par le jeune Vaslav Nijinski, ou par Isadora Duncan, semble continuer de dévoiler d'autres modes d'expression via le corps. Le change la danse avec la danse contemporaine, qui met en avant un désir de se renouveler sans cesse. La danse rejoint définitivement, et sur leurs propres avant-gardes, la littérature, la peinture, la sculpture et parfois même la politique et la philosophie. De nombreuses expérimentations sont aujourd'hui menées pour appréhender le champ des possibles d'un corps. Dans les années 1970, aux États-Unis, naît le contact improvisation. Depuis 1982, le est la journée internationale de la danse, en hommage à l'anniversaire de naissance de Jean-Georges Noverre (1727-1810), considéré comme le créateur du ballet moderne. Histoire en Afrique Histoire en Asie En Chine, la danse de rue de personnes âgées pose des questions d'harmonie, en raison du fort volume utilisé par un public âgé malentendant et des nuisances sonores causées au voisinage. Histoire en Amérique latine Principaux genres de danses Afrique Amérique latine Latino : Salsa cubaine et portoricaine, Bachata, kizomba, merengue, zouk (caribéen), mambo, broca, reggaeton, compas Argentin : tango milongero, tango nuevo Brésilien : lambazouk, lambada, samba de Gafieira, forró Asie K-pop J-pop C-pop V-pop T-pop Q-pop Occident Même si toutes les danses peuvent être données en spectacle, on peut caractériser les danses par leur nature première : spectacle, société ou/et compétition. Danse de spectacle Classique Modern jazz Contemporain Cabaret (French cancan, Burlesque, Pole dance, Lap dance et le cabaret en tant que forme libre de danse de spectacle, en solo, en couple ou en compagnie) Electro : tecktonik, jumpstyle, old school Street dance (voir aussi hip-hop) Danse orientale Dancehall (Jamaïque) Danses de société Danses traditionnelles (ou folkloriques) Danse en quadrille : quadrille français, quadrille des lanciers, quadrille américain, quadrille des Variétés parisiennes, quadrille des abeilles... Danses historiques : polka, scottish, mazurka, etc. Standards/Latines et leurs versions américanisées et . Danses sociales Danses solo (du swing, tels que charleston, claquettes (Tap/Hollywood style) et jazz roots, et aussi Twist et Jerk) Danses en ligne (Madison, Country, Line Dance, Claquettes irlandaises, Kuduro, Danse africaine) Danses de couples Danses de bal / musettes : java, valse musette, paso doble musette Rock swing : Lindy Hop, Balboa, Boogie, Rock, West Coast Swing, , Boogie woogie Danses de compétition Danses sportives Standards : valse anglaise ou valse lente, tango, valse viennoise, slow fox et quickstep Latines : samba, cha-cha-cha, rumba, paso doble et jive Danses acrobatiques (rock sauté, rock acrobatique) Hip-hop : breakdance, popping, locking, house, hip-hop, etc. Autres formes de danse Danses du monde Danses classiques de l'Inde Danse indonésienne Danse rituelle Danse martiale Danse féminine Danse sensuelle Métiers de la danse Danse et sport Danses sportives Natation synchronisée Patinage artistique Danse sur glace Gymnastique rythmique Ballets célèbres (Voir catégorie « ballet ») Technique La technique de la danse repose classiquement sur l'articulation entre le mouvement et la musique. On distingue classiquement entre le travail d'exécution de la danse (le danseur), le travail d'interprétation (danseur interprète) et le travail de création de l'œuvre (le chorégraphe). Types de danse et émotions : il existe plusieurs types de danse et plusieurs types d'émotions mais ce qu'il faut savoir c'est que les émotions se transmettent le plus souvent grâce aux danseurs qui jouent leurs rôles. Les danseurs communiquent avec les spectateurs grâce à leurs mouvements et à leurs expressions du visage. Mais évidemment, tout doit être en harmonie avec la musique. Si la musique est triste alors les expressions du visage doivent l'être aussi et au contraire, si les émotions transmises par la musique sont heureuses alors les expressions du visage doivent être joyeuses ; afin qu'un danseur réussisse à transmettre des émotions, il doit connaître son corps et les traits de son visage car dès que le spectateur le regarde, il doit directement voir de quoi parle le danseur ; il y a plusieurs types d’émotions : la joie, la satisfaction, la peur, la tristesse, la colère, la frustration, le dégoût... et toutes ont un sens dans le thème de la danse car toutes sont importantes afin de pouvoir apprécier le spectacle ; la capacité à reconnaître les émotions à partir des mouvements du corps est présente dès l'enfance. Pourtant, bien que l'on sache que les personnes peuvent correctement identifier les émotions à partir des mouvements du corps lors d'une danse, les indices objectifs sur lequel la perception se fonde sont encore flous. Technique du danseur La technique du danseur repose sur la combinaison de quatre éléments : l'occupation de l'espace, le rythme, le temps, et le mouvement du corps. Le mouvement du corps comporte notamment les éléments d'énergie, d'équilibre afin de parvenir à donner une forme au corps. Dans beaucoup de traditions (y compris la danse classique occidentale), la technique de la danse consiste dans l'apprentissage et la répétition de mouvements répertoriés afin d'en acquérir maîtrise et perfection. La danse contemporaine a introduit la notion d'improvisation, qui fait cependant elle-même appel à des techniques d’improvisation. Technique du chorégraphe La création (mise en place) d'un spectacle dansé dans son ensemble est la chorégraphie qui fait appel à des techniques de mise en scène et de composition. La musique dans la danse Personnalités et organisations marquantes Danseurs Danse classique Rudolf Noureev (aussi chorégraphe) Anna Pavlova Chorégraphes Maurice Béjart Marius Petipa George Balanchine Enseignants de danse Vernon et Irene Castle Organisations Compagnies de danse et de ballet Ballet de l'Opéra de Paris Bolchoï Mariinsky (Kirov) Ballets russes de Serge de Diaghilev New York City Ballet Royal Ballet Compétition La danse dans la culture populaire Au cinéma À la télévision Danse avec les stars Galerie Notes et références Notes Références Bibliographie Ouvrages Mime et danse, sœurs ennemies ?, revue Théâtre public, Gennevilliers, , dossier collectif sous la direction de Peter Bu Louis de Cahusac, La Danse ancienne et moderne. La Haye, Jean Neaulme, 1754. Réimpression Paris, Centre national de la danse, 2004 . Jean-Georges Noverre, Lettres sur la danse et sur les ballets. Lyon, Aimé Delaroche, 1760. Nombreuses rééditions. Carlo Blasis, Manuel complet de la danse. Paris, Roret, 1830. Réimpression Paris, Léonce Laget, 1980 . Cellarius, La Danse des salons. Paris, l'auteur, 1849. Réédition Grenoble, Jérôme Millon, 1993 . G. Desrat, Dictionnaire de la danse historique, théorique, pratique et bibliographique. Paris, May et Motteroz, 1895. Réimpression Genève, Slatkine, 1980. Gaston Vuillier, La danse. Paris, Hachette, 1898. Raoul Charbonnel, La danse. Comment on dansait, comment on danse. Paris, Garnier, 1900. Curt Sachs, Histoire de la danse. Paris, Gallimard, 1938. Léandre Vaillat, Histoire de la danse. Paris, Plon, 1942. Serge Lifar, Traité de danse académique. Paris, Bordas, 1952. Georges Arout, La Danse contemporaine. Paris, F. Nathan, 1955. Jean-Michel Guilcher, La contredanse et les renouvellements de la danse française. Paris, Mouton, 1969. Réédition Paris, Centre national de la danse, 2003 . Jacques Baril, La danse moderne, d'Isadora Duncan à Twyla Tharp. Paris, Vigot, 1977 . Paul Bourcier, Histoire de la danse en Occident. Paris, Seuil, 1978 . Pierre Legendre, La passion d'être un autre : étude pour la danse. Paris, Seuil, 1978 . John Franklin Koenig, La danse contemporaine. Paris, Fayard, 1980 . Simonne Voyer, La Danse traditionnelle dans l'Est du Canada: Quadrilles et cotillons, coll. Ethnologie de l'Amérique française. Québec, QC.: Presses de l'Université Laval, 1986. N.B.: Ill. et avec des notations musicales et chorégraphiques. . Dominique Jamet et Jean-Michel Guy, Les publics de la danse, Ministère de la Culture, Paris, La Documentation française, 1991. Marie-Françoise Christout, Le ballet occidental. Naissance et métamorphoses. . Paris, Desjonquères, 1995 . Théophile Gautier, Écrits sur la danse. Arles, Actes Sud, 1995 . Marcelle Michel, Isabelle Ginot, La danse au . Paris, Larousse, 1995 . Philippe Le Moal (dir.), Dictionnaire de la danse. Paris, Larousse, 1999 . Laurence Louppe, Poétique de la danse contemporaine. Bruxelles, Contredanse, 1997 . Dominique Frétard, La danse contemporaine : danse et non danse. Paris, Cercle d'art, 2004 . Revues Danser (revue mensuelle française) Danser, Perspective , 2020, Paris, INHA (lire en ligne) Voir aussi Articles connexes Liens externes Fédération française de danse Site d'information sur les danses Confédération Nationale de Danse Fédération Suisse Romande de Danse L’Association Francophone des Écoles de Danse (Belgique)
966
https://fr.wikipedia.org/wiki/Dessin
Dessin
Le dessin est une technique de représentation visuelle sur un support plat. Le terme « dessin » désigne à la fois l'action de dessiner, l'ouvrage graphique qui en résulte, et la forme d'un objet quelconque. Le « dessin linéaire » représente les objets par leurs contours, leurs arêtes et quelques lignes caractéristiques ; au-delà de cette limite, le dessin se développe en représentant le volume par les ombres, souvent au moyen des hachures, incorpore des couleurs, et rejoint, sans transition nette, la peinture. Le mot s'est écrit indifféremment « dessein » ou « dessin » jusqu'au , impliquant la notion d'intention, de projet, dans un travail de plus grande portée, en architecture, en peinture, en gravure. L'essor de la production industrielle au a fait distinguer rigoureusement le dessin artistique et le dessin technique, une forme très codifiée de dessin linéaire qui vise plus à communiquer les informations précises nécessaires à la fabrication ou à l'utilisation d'un objet ou d'un bâtiment qu'à en donner une évocation visuelle. À partir du milieu du , , un mot anglais qui réunit les deux sens de dessin ou dessein, désigne ce qu'un de ses promoteurs, Raymond Loewy, appellait esthétique industrielle. Qu'est-ce qu'un « dessin » ? Histoire Le sens du terme « dessin » évolue avec l'histoire des arts visuels. Le mot dessin est tiré de dessigner, avec l'influence de l'italien disegno signifiant représentation graphique (1444). Le terme italien signifiait à la fois la pratique, et le projet ou intention. Ce double sens a été conservé avec le mot français dessein. Ce n'est qu'au , vers 1750, que dessin (sans e après ss) ne signifie plus que la représentation. Le terme anglais design, qui vient de l'italien et du français dessein, a conservé le sens de projet ou de conception. Il faut envisager les deux sens du mot, même si l'amateur peut s'intéresser aux dessins produits à titre de préparation d'un ouvrage aussi bien qu'à ceux valant pour eux-mêmes . Le dessin, comme projet d'un ouvrage, se trouve partout dès le Moyen Âge dans les arts plastiques, y compris l'orfèvrerie et la mode. Il résume et développe la pensée plastique de l'auteur, et lui permet de la présenter à ses clients ou commanditaires, sous une forme plus légère et demandant moins de temps que la réalisation définitive. Les dessins n'étaient pas en général destinés à être conservés ; cependant, selon Paul Valéry, , et ce goût s'est aussi porté vers les projets, études et dessins préparatoires. Cette évolution commence en France à la fin du . La première exposition des dessins du Cabinet du Roi a eu lieu au Louvre en 1797. Le dessin comme art autonome, ne visant à rien d'autre que lui-même, naît des discussions dans le milieu des artistes et des amateurs sur les qualités plastiques et les principes gouvernant la peinture. La Querelle du coloris oppose au les partisans de la couleur à ceux du dessin. Le « dessin », dans ces discussions, ne dépend ni de la technique, ni du support. Il s'agit principalement de la ligne de contour des sujets, opposée à la surface colorée et à ses modulations, comme l'a fait Léonard de Vinci. Les polémiques opposent ceux qui prennent exemple sur Poussin pour privilégier le dessin, allant jusqu'à considérer avec méfiance le raccourci, les recouvrements de personnages, les ombres fortes, à ceux qui, admirant Rubens, accordent plus de valeur à ceux qui savent nuancer, juxtaposer, organiser les couleurs, avec une touche visiblement variée. Ce sens restreint du « dessin », associé à la perspective linéaire, va se poursuivre jusqu'au . Les rapports entre dessin et peinture fluctuent. L'impressionnisme reproche en général au dessin le caractère intellectuel et contraignant que lui attribuent les courants picturaux qui l'ont précédé. Le cubisme renoue avec le dessin, sans l'obligation de présenter, par la perspective, un point de vue unique. Avec Flaxman commence une succession d'artistes qui ne présentent que le dessin linéaire. Au , les dessinateurs trouvent avec la lithographie et le dessin de presse des moyens de vivre de leur activité, sans nécessairement produire autre chose. Bien que les techniques de reproduction contraignent un peu leur style, ils peuvent aussi bien réaliser des peintures dessinées, rendant le clair-obscur par des hachures, que des purs dessins linéaires, comme l'ont fait Picasso, Matisse ou André Lhote. Le dessin animé emploie depuis son invention dans les années 1920 des quantités de dessinateurs. Dans la deuxième moitié du , la bande dessinée cesse de s'adresser spécifiquement aux enfants et le dessin narratif, nourri des techniques du dessin de presse, du cinéma, de la littérature, devient une des branches importantes de l'art du dessin. Dessin et peinture Lorsque le projet graphique vise à la durée, choisissant son matériel à cet effet, on parle de peinture. L'acte de dessiner, sur pierre ou sur plâtre, sur bois, sur toile peut bien en être à la base : la peinture se définit, par opposition au dessin, comme devant durer. Si pour Léonard de Vinci, le dessin du contour est une partie de la peinture, pour Braquemond, quatre siècles plus tard, . Il n'y a pas de différence fondamentale entre le dessin et la peinture, si ce n'est que, d'après certains théoriciens de l'art, le dessin est monochrome dans son essence, la peinture colorée. Mais des dessins peuvent être en couleurs, soit directement dans le tracé, soit par coloriage dans un deuxième temps. Une peinture peut être linéaire et peut être monochrome comme c'est le cas des grisailles. La plupart des peintures, surtout lorsqu'elles sont figuratives, sont préalablement dessinées, ou dessinées en cours d'élaboration. On dessine aussi bien avec une brosse large qu'avec un crayon affûté, même si la matière est différente. On parlera donc de dessin lorsque les contours, les tracés, demeurent apparents, par rapport à des œuvres où dominent taches colorées, aplats de couleur. Le dessinateur Alfred Kubin, traitant du dessin, non comme projet, mais , écrit : . C'est, pour lui, cette modestie qui distingue le dessinateur, qui l'amène à limiter son domaine d'exploration au papier et à l'encre de Chine, à la plume et au pinceau, qu'il étudie à fond. . Conservation des dessins Les dessins ne sont pas conçus pour être conservés et exposés ; ces objectifs entraînent des procédés qui en entraveraient la légèreté et la spontanéité . Ceci n'empêche que depuis la Renaissance, on a conservé comme des reliques précieuses les dessins et notes d'artistes vénérés comme Léonard de Vinci. Pour les conservateurs, ce qui caractérise le dessin, c'est sa fragilité. L'exposition à l'air et à la lumière jaunit les papiers et décolore les encres ; la flamme le détruit instantanément, l'humidité y favorise la moisissure ; sali, le dessin est difficilement nettoyé ; les pigments poudreux des crayons, fusains, craies et sanguines passent d'une page sur l'autre ; le papier se plisse définitivement en cas de mauvaise manipulation . Les vernis dits fixatifs pénètrent le papier, et ne peuvent, s'ils ont jauni, être éliminés et remplacés. La conservation des dessins sur papier implique en général un traitement biocide chimique ou par rayonnement ionisant . Dans les collections des musées, les dessins sont conservés dans des locaux spécialement prévus, et ne sont présentés qu'occasionnellement, dans des salles à l'éclairage atténué. La mise en valeur du dessin inclut souvent un large passe-partout et une vitre de protection ; les originaux non montés se présentent sur un champ, dans une vitrine peu inclinée. Les conservateurs doivent encore, pour organiser et valoriser les collections, identifier les auteurs. Les artistes n'ont souvent pas signé ce qu'ils considéraient comme des documents de travail. Les inscriptions peuvent être le fait de marchands ou de collectionneurs qui ont attribué à un maître ce qui est en fait une copie. Dessin et gravure Le dessin est généralement plus que le projet d'une gravure. Un maître comme Dürer pouvait dessiner sur le bois, et laisser à un de ses compagnons, anonyme, le soin de le creuser ; mais il avait tracé chacune des lignes de la gravure. Dans le cas où la gravure prenait pour sujet des tableaux célèbres, l'interprétation revenait au graveur, qui lui donnait parfois, bien que le dessin soit dans l'ensemble conforme à l'original, un caractère assez différent, comme Marcantonio Raimondi pour Raphaël. L'eau-forte reproduit directement (inversés gauche-droite) les traits qu'un artiste a dessinés sur le support. Au , la lithographie sur pierre grenée permet aux artistes de dessiner au crayon en vue de la reproduction. Cependant, la contrainte de l'inversion du sujet, qui sera reproduit la droite à gauche, l'interdiction de poser la main sur le support, car elle le marque, poussent la plupart à dessiner d'abord sur papier un projet, et certains artistes laisser à des spécialistes l'interprétation sur la pierre. La production de lithographies connaît une première spécialisation des dessinateurs ; la fabrication d'une lithographie des Voyages pittoresques et romantiques dans l'ancienne France peut faire appel à un dessinateur d'après nature, un lithographe pour le paysage, un pour les figures, un pour la lettre. La photogravure affranchit le dessinateur de la plupart des difficultés techniques ; il lui suffit de connaître les limites propres à la technique d'impression pour laquelle il travaille. En dessin de presse et en bande dessinée, l'artiste produit en général un dessin linéaire « au trait », encre noire sur papier blanc ; la reproduction photographique élimine la mise en place au crayon et les repères posés en bleu. Les dessins originaux, avec toutes ces marques ou l'on sent , sont devenues des pièces de collection. Technique La technique du dessin évolue avec les supports et les outils. Les hommes préhistoriques dessinent sur des parois, sur des roches, des os, en utilisant d’une part l’incision et d’autre part les pigments colorés appliqués au moyen d’outils rudimentaires. Le dessin plus proche des conceptions actuelles apparaît avec les supports tels que le papyrus, le parchemin, puis le papier, et les outils de traçage comme le calame (roseau), la plume d’oiseau taillée. En Orient prédomine le pinceau. Les Romains utilisent les pointes de métal, ancêtres de la mine de crayon moderne sur un support préparé, enduit d'un mélange, généralement constitué de pigments, de blanc d’Espagne, de gomme arabique et de poudre d’os. À la fin du , Jules Adeline définit le dessin comme représentation des objets à l'aide de traits de plume ou de crayon, parmi lesquels se distinguent les dessins aux deux et aux trois crayons, qui sont la pierre noire, la craie blanche et la sanguine, mais aussi le fusain. On distingue aussi les instruments annexes du dessin, règles et compas dont on se passe dans le dessin à main levée. Le dessin profite aujourd'hui de matériel et de logiciel informatiques qui, l'affranchissant de la réalisation matérielle, permettent des tracés lissés et des possibilités de correction infinies . Éléments matériels Le support est le plus souvent du papier, mais peut être toute autre matière. Le dessin au tableau noir a, plus encore que les autres, vocation à l'impermanence. On dessine soit sur des feuilles libres, soit sur des carnets ou cahiers, au crayon ou au fusain pour les techniques sèches, tandis que les techniques humides y déposent de l'encre à la plume ou au pinceau. Tout ce qui est susceptible de laisser une trace peut servir d'outil, à commencer par les doigts. Les craies, les fusains, les crayons, les plumes, les pinceaux, les stylographes (à bille, à plume, tubulaires), les feutres déposent de la matière sur le support ; les pointes, burins ou canifs en enlèvent, pour le dessin gravé ou le graffiti. Depuis la fin du , on dessine sur ordinateur. Systèmes de représentation Selon une conception classique, dessiner consiste essentiellement à délimiter par des traits les contours de l'objet à représenter. C'est une des différences essentielles que Heinrich Wölfflin distingue dans ses Principes fondamentaux de l'histoire de l'art entre le graphique (dessin) et le pictural (peinture). Ceci implique une démarche d'interprétation et de synthèse : passer d'un objet en volume à un dessin plat nécessite un choix de représentation. Soit l'articulation des éléments graphiques peut éviter la perspective, soit celle-ci peut être empirique et spontanée, soit celle-ci obéit à un système de placement des lignes : perspective cavalière, perspective « italienne » conforme à une vision basée sur la projection, comme si le dessin était une fenêtre sur l'objet représenté ainsi que l'écrivit Alberti. L'application des règles de la perspective à des figures humaines ou animales s'appelle le raccourci . Le dessin peut obéir à des notions qui ne tiennent pas compte des lois géométriques de l'optique ou qui ne les considèrent pas comme primordiales. Représenter une montagne plus petite qu'un personnage peut paraître illogique, bien que la perspective puisse l'exiger. Les personnages sont quelquefois représentés à proportion de leur importance dans la société. Les conventions des différentes civilisations tentent de concilier les aspects qu'on considère primordiaux. Quand les traits caractéristiques du sujet priment, on parle d'aspectivité. Le dessin obéit à des conventions et des codes : pour les Égyptiens, un œil est représenté de face, mais un visage de profil, un torse de face et les jambes de profil. Jean Fouquet dessine l’Arrivée des croisés à Constantinople vue par un spectateur central : à gauche les cavaliers de face, au centre de profil, et à droite de dos, comme si le spectateur tournait la tête, la route étant droite. Plus près de nous, l'apparition de la photographie a permis de représenter exactement un instant de la course d'un cheval au galop ; toutes les représentations passées étaient « fausses » anatomiquement, mais restent expressives. Le dessin peut reporter les contours de manière précise et fidèle (considérant qu'il est vu par un système optique tel que la chambre claire ou l'appareil photographique), ou le trait peut subir des déformations et des distorsions qui vont accentuer certains caractères du modèle, possiblement jusqu'à la caricature, ou exprimer simplement les goûts et la sensibilité du dessinateur. La représentation du volume se fait généralement par le raccourci, renforcé par les modulations de la lumière et les ombres. Ces modulations de luminosité, qu'on appelle valeur dans le contexte du dessin et de la peinture, s'obtiennent par traits successifs formant hachures, par remplissage avec variation de la pression selon l'intensité souhaitée, estompage en frottant à la main ou avec un outil, gommage pour éclaircir, etc. ; certaines techniques étant adoptées par certains et réprouvées par d'autres. Types de dessin Croquis, études, esquisses La rapidité d'exécution caractérise le croquis, dessiné face au sujet. Les esquisses sont les premières idées pour un travail important. Les études, généralement plus élaborées, servent à l'apprentissage général ou à celui d'un élément difficile d'un projet. Le croquis doit saisir l’essentiel sans s’attarder sur les détails. Il sert de notation et d’exercice. Sa rapidité d’exécution fait du « geste » graphique un élément important de son caractère. Croquis et esquisses servent dans tous les types de dessin. Dessin d'art Le dessin d'art utilise toutes les techniques graphiques possibles dans une démarche ou une intention artistiques et à destination du marché de l'art. Dessin technique Le dessin technique s'est détaché du dessin artistique pendant l'essor de l'industrie, vers la fin du . Le dessin technique, ou dessin industriel, est une discipline transversale fondement de la communication technique, de la conception et de l'analyse systémique. Il est utilisé principalement en génie mécanique (bureau d'études, bureau des méthodes) et en génie civil (architecture). Le dessin industriel conserve le sens d'origine du mot dessin : il est l'expression d'un projet, . Quand le dessinateur conçoit l'apparence du projet, il s'appelle . Le français naturalisé américain Raymond Loewy a lancé cette activité comme profession indépendante des fabricants sous le nom d', traduit encore en 1953 par dessin industriel ; il proposait qu'on l'appelle en français esthétique industrielle. Dessin d’architecture Le dessin est à la base du métier d’architecte, même si l’utilisation de l’outil informatique réduit l'importance des habiletés manuelles. C’est en dessinant, d’abord sous forme d’esquisse et de croquis, puis de dessins plus élaborés, que l’architecte trouve et précise son projet. Cette étape préliminaire de dessin à main levée est à peu près universellement pratiquée. L’étape suivante consiste à disposer les éléments indépendants de l'aspect visuel, comme les conduites de fluide, et effectuer les calculs de résistance des matériaux. On revient ensuite au dessin pour tracer les plans nécessaires aux constructeurs. Cette étape est maintenant effectuée par dessin assisté par ordinateur avec les logiciels propres à l’architecture. Elle se faisait au moyen des outils du dessin technique, le crayon ou le portemine à mine dure, la règle, l’équerre, le té, sur une table à dessin, puis un passage à l'encre au tire-ligne et plus tard au stylo technique. L'architecte fournit aussi au commanditaire des plans de façades et des vues en perspective réalistes, en couleurs, avec des ombres qui indiquent le relief, et les éléments de décor qui vont donner vie à l’ensemble : plantes, personnages, véhicules L’architecte devait donc avoir une connaissance poussée de la perspective, rigoureusement construite. Selon le degré de précision de ces dessins, les accessoires pouvaient être traités d’une manière simplifiée, afin de ne pas prendre le pas sur l’essentiel, l’architecture. Chaque architecte pouvait avoir sa façon personnelle de traiter arbres, véhicules et personnages (dénommés grouillots dans le jargon des architectes). Les architectes ont dessiné de véritables œuvres d’art, souvent mises en couleurs à l’aquarelle. De nos jours, les logiciels 3D dispensent de la partie technique de ce travail, tandis que des illustrateurs spécialisés réalisent d’après les plans ou perspectives fournis par les architectes des dessins de présentation pour des projets non encore construits, pour la publicité et l'information des acheteurs potentiels. Dessin de sculpteur Le dessin sert au sculpteur pour effectuer ses recherches. Il n’est pas une fin en soi, mais une étape de son travail, pour lui permettre de visualiser ses projets en vue d’une réalisation en volume, dont le rendu est donc prépondérant, par des zones ombrées avec ou sans dégradés, et l’absence ou la neutralité du fond. Tous les dessins de sculpteurs ne sont pas des chefs-d’œuvre du strict point de vue de la qualité du dessin, mais ils sont les témoins du travail de leur auteur, et certains sont des œuvres d’art à part entière. Dessin de mode Le dessin dit de mode est employé dans tous les domaines de la création, des vêtements aux accessoires : chaussures, chapeaux, sacs, bijoux. Le dessin sert à préciser l’idée générale puis à l’affiner au niveau de la conception, avant de passer à la réalisation proprement dite. Le dessin de mode requiert une connaissance minimale de l’anatomie basée sur le squelette, qui détermine les positions et postures du corps, et parfois sur un traitement particulier des matières (textiles et autres). Un autre aspect du dessin de mode est la représentation des modèles selon le style propre au dessinateur, sans qu’il en soit lui-même le créateur, ce qui peut être alors une des formes du dessin de presse. Le dessin est aussi à la base des créations de motifs pour les tissus, imprimés ou jacquards. Dessin de presse et caricature Le dessin de presse, et souvent la caricature, ont pour destination la reproduction imprimée. On n'attend du spectateur qu'un bref moment d'attention. Le dessin de presse professe la simplification et l'exagération, et dépend le plus souvent de codes graphiques locaux. Bande dessinée La bande dessinée combine l'art de raconter des histoires à celui de les représenter par le dessin. Souvent un scénariste s'associe avec un dessinateur. Une maison d'édition de bande dessinée peut aussi confier le dessin et le scénario à plusieurs artistes. Dans ce cas, les dessinateurs respectent un style graphique, et les scénaristes le caractère des histoires et de leurs personnages. Une série peut ainsi durer, comme celle des Pieds Nickelés, pendant plusieurs générations. À partir du dernier tiers du , aussi bien en Europe qu'au Japon où le manga est très populaire, les dessinateurs de bande dessinée ont cherché à produire un style graphique personnel et caractéristique, qui contraste avec l'effacement de l'artiste pour la production d'un style défini par les éditeurs, fréquent auparavant. Dessin animé Le dessin animé consiste à reproduire le mouvement en faisant se succéder des images représentant chacune un instant successif d'une action, comme au cinéma, à la différence que ces images sont dessinées. Le dessin animé est un processus très long et industriel, qui implique le plus souvent de nombreux graphistes spécialisés. Certains définissent les personnages et leurs mouvements par des esquisses au crayons, mis au propre avec la qualité de superposition nécessaire par des traceurs-gouacheurs sur des feuilles transparentes. D'autres se consacrent au dessin des décors. Le dessin animé recourt souvent, au , aux techniques de dessin assisté par ordinateur. Dessin d'enfant Le dessin est souvent l'une des activités spontanées de l'enfant. Le développement de ses capacités graphiques suit un schéma régulier qui passe du gribouillage, pendant lequel l'enfant fait l'expérience du matériel, au symbolisme, pendant lequel il représente les sujets par des traits caractéristiques. L'enfant poursuit en général son exploration en direction du dessin d'observation. Jean Piaget a notamment observé et décrit cette séquence reliée au développement cognitif général et à constitution de l'individu. Les pédagogues observent les produits de l'activité de dessin en tant que témoin de cette évolution. Dès le stade du symbolisme, le dessin permet à l'enfant de s'exprimer. Quand il parle suffisamment bien pour communiquer avec son entourage, le dessin lui permet d'extérioriser ce qu'il ne peut exprimer verbalement. Les psychologues recherchent de ce fait souvent dans les dessins d'enfant des indices des sentiments des enfants. Dessin selon les différents outils Dessin au fusain Le fusain, tige de charbon de bois, est l'un des instruments de dessin les plus anciens. Il est largement utilisé dans la réalisation de croquis et d'études . Plus que le crayon, la pierre noire ou la sanguine, le fusain se prête aux aplats et au rendu du modelé. Le trait varie en largeur et en noirceur, il se brouille au doigt ou au chiffon, s'allège ou se corrige à la mie de pain. Il se reporte sur la feuille voisine s'il la touche. Il a l'inconvénient d'être fragile, à moins d’utiliser un fixatif appliqué généralement avec un pulvérisateur. Dessin au crayon En dessin, le « crayon » désigne tout instrument marquant à sec qui se présente sous forme d'un bâton. On parle ainsi de « crayon à bille » . Le crayon à mine de graphite (autrefois mine de plomb) offre une gamme de possibilités très étendue, selon le type de mine, son affûtage, le grain du papier et les techniques possibles, du contour simple aux nuances de dégradés obtenues par des hachures, frottages, estompages. Le trait peut être allégé ou corrigé à la gomme à effacer, bien que le gommage affecte le papier, et les traits suivants sur la partie modifiée. Cependant, il est difficile d'en obtenir des forts contrastes. Des artistes ont complété le dessin au crayon en marquant le trait fort à la plume. Dans la bande dessinée, le dessin au crayon, dit crayonné, est, dans la production sans ordinateur, la première étape de la production d'une planche. L'artiste, ou parfois un assistant, termine ensuite le dessin pour qu'il soit prêt pour une reproduction au trait, à l’encre avec une plume ou un pinceau : une fois l’encrage sec, le dessin préliminaire au crayon peut être effacé. Le trait de crayon dépend, pour une dureté donnée, de la force d'appui sur la mine. Le dessinateur peut utiliser des crayons graphite de plusieurs duretés dans un même dessin. Le dessin d'académie et le portrait se font fréquemment aux trois crayons. Si la craie et la sanguine s'atténuent et s'effacent à la gomme mie de pain, le trait de pierre noire est définitif. Le crayon de couleur permet tous les intermédiaires entre le dessin linéaire et la peinture ; certains sont « aquarellables », permettant de combiner le dessin au trait à une technique proche de l'aquarelle. Dessin au stylo à bille Le stylo à bille, diffusé à partir de 1950, et autorisé dans les écoles en France en 1965, y sert souvent aux élèves pour dessiner dans les marges des cahiers. Il peut également être un véritable outil d'art. De la simple esquisse pour capturer un mouvement jusqu’à l’illustration précise et au dessin d’architecture, le stylo à bille s'adapte à tous les genres. Dans le dessin artistique, le stylo à bille se distingue par le fait qu'il ne s'efface pas ; le trait est à peu de chose près uniforme, et plutôt léger. Le trait fort s'obtient en repassant plusieurs fois. Dessin à la plume La plume est un instrument de dessin autant que d'écriture au moins depuis la Renaissance. Elle produit un trait fin ou gras selon la pression exercée. Les traits de plume tracés à l'encre indélébile se combinent aussi avec le lavis et l'aquarelle, qui ne les perturbent pas. Elle sert autant pour le croquis de terrain, pour lequel elle a l'avantage de produire un dessin rapide et contrasté, solide dès que l'encre a séché, que pour les projets élaborés, dans lesquels les hachures peuvent indiquer les valeurs. Sur un dessin ou un croquis au crayon, la plume peut marquer le trait fort ; on efface parfois le crayon pour ne conserver que cette décision finale. La plume a été l'instrument principal de l'encrage en bande dessinée jusque dans les années 1970. Dessin au pinceau Le pinceau est l’outil de base du dessin en Extrême-Orient, mais il est largement utilisé également en Occident. Sa souplesse permet au dessinateur d'effectuer des déliés très fins et des aplats impossibles à reproduire avec d'autres techniques comme la plume. Le pinceau est souvent l'outil de prédilection pour l'encrage en bande dessinée. Il est très utilisé par des artistes de styles très différents, comme André Franquin, connu pour son trait expressif et nerveux, ou Milton Caniff qui jouait sur les contrastes du noir et du blanc. Dessin aux feutres Les stylos-feutres, marqueurs ou , existent en de nombreuses couleurs et épaisseurs de trait. Des gammes professionnelles permettent de créer ses propres nuances à partir d’encres liquides et de solvants divers. Ils ont trouvé une application spécifique dans le ou utilisé en publicité pour réaliser des simulations de photographies à réaliser ultérieurement. On utilise un papier spécial, sans grain et semi-transparent, qui ne diffuse pas les solvants et permet de travailler par transparence. Les spécialistes, ou «  », peuvent atteindre des résultats de qualité picturale. Dessin sur ordinateur Le matériel informatique fournit aux dessinateurs des outils pour un dessin qui n'aura quelquefois aucune autre existence que numérique. L'ordinateur sert largement pour la conception assistée par ordinateur et le dessin technique. Les fabricants de matériel informatique ont progressivement produit des périphériques mieux adaptés que la souris au dessin d'illustration, pour lequel le regard et la main ont plus d'importance que les abstractions du dessin industriel. On peut dessiner à l'aide d'un stylet sur la tablette graphique ; cela implique d'apprendre à regarder l'écran de l'ordinateur alors que sur la surface sur laquelle on pose le stylet est ailleurs. L'écran tactile résout cette difficulté. Des capteurs transmettent à l'ordinateur ou à la tablette tactile la position du stylet, son inclinaison, la force d'appui Un logiciel éditeur d'image matricielle ou d'image vectorielle transforme ces données en « vecteurs » générateurs de graphisme avec des paramètres que regroupent des « outils » nommés par analogie à ceux du dessin et de la peinture. Dessins aux pastels Les pastels sont des petits bâtons de pigments servant à colorier sur des papiers, on les utilise le plus souvent en arts graphiques. Il existe différents types de pastels, gras ou à l'eau. Les pastels d'initiation scolaire s'achètent généralement en set. Droit Propriété intellectuelle Le dessin est soumis, comme les autres œuvres de l'esprit, aux règles de la propriété intellectuelle. En France, il doit aussi obéir, s'il est publié et représente une personne, aux règles du droit à l'image. La caricature , mais cette exception au droit à l'image n'est pas toujours reconnue . Dessins et modèles En droit des affaires, le mot « dessin » ne désigne pas un objet matériel, mais la forme, reconnaissable par le consommateur, d'un objet (). En droit français qui transpose une directive communautaire du 13 octobre 1998 relative à la protection des dessins et modèles : . Il profite alors d'une protection d'une durée maximale de 25 ans par période de 5 ans sous réserve qu'il . Une protection communautaire existe également au profit de tout dessin original. Un règlement communautaire de 2001 confère une protection opposable à l'échelle de l'Union européenne. Pour les dessins enregistrés à l'Office de l'Union européenne de la propriété intellectuelle (EUIPO), la protection est dans le temps la même qu'en France (de 5 à 25 ans). Pour le dessin (ou modèle) non enregistré, cette protection naît de la première divulgation pour une durée de trois ans. Il existe enfin à l'échelle internationale une protection qui est opposable à compter de l'enregistrement international des dessins et modèles industriels à l'Office mondial de la Propriété intellectuelle. Voir aussi Bibliographie Articles connexes Bande dessinée Caricature Dessin animé Dessin assisté par ordinateur Dessin géométrique Dessin technique Dessinateur Esquisse FID, Foire Internationale du Dessin Liens externes Notes et références Technique picturale
967
https://fr.wikipedia.org/wiki/Liste%20de%20danses
Liste de danses
Cette page recense une liste non exhaustive des danses, le classement se fait selon le pays, puis par ordre alphabétique. Danses anciennes Antiquité Chorea Cordax Pyrrhique Danse extatique Moyen Âge Renaissance Période baroque Danses modernes Danses de démonstration Danses de salon Danses populaires Afrique Afrique du Sud Ukusina Xibelani Algérie Angola Bénin Cameroun Cap-Vert Batuque (ou Batouka) Funaná Kizomba Kuduro Pasada République démocratique du Congo Kwasa kwasa Mutuashi Ndombolo (ou N'dombolo) Rumba congolaise Soukous République du Congo Kebe-kebe Rumba congolaise Soukous Côte d'Ivoire Égypte Baladi (Danse orientale (ou danse du ventre)) Danse orientale Saidi Tanoura Gabon Ghana Azonto Guinée Madagascar Maroc Île Maurice Séga Mayotte Mgodro Mozambique Timbila Xibelani Niger Bitti Guéréwol Gumbe (voir Gumbe) Tandé Yéta-yéta La Réunion Maloya Séga Valse créole Sénégal Mbalax Sabar Somalie Wilwile Tunisie Mezoued Rboukh Amérique Amérique latine Antilles Biguine Bouyon Calypso (voir Calypso (musique)) Zouk Argentine Bolivie Bailecito Chacarera Cueca Diablada Tinku Tundiqui Brésil Canada Bastringue Cotillon (Quadrille, Québec) Danse en ligne (Québec) Sets carrés (Québec) Chili Cueca Colombie Cuba États-Unis Équateur Pasillo Guyane Haïti Bamboula Calinda Compas (ou Kompa) Gouyad Méringue Rara Jamaïque Dancehall Mexique Danse du volador Danza de los Viejitos Matachines Rutuburi Panama Cumbia Pérou Danse Huaylas Danza de la Huanca Danza de las tijeras Diablada Festejo Huaconada Matachines Tundiqui Wititi Uruguay Candombe (ou Candombé) Milonga pampeana (aussi en Argentine) Murga Tango (aussi en Argentine) Valse criollo (aussi en Argentine) Asie Lezginka Arménie Tamzara Halay Azerbaïdjan Danses azerbaïdjanaises Mirzayi Bhoutan Cham Cambodge Danse cambodgienne Romvong Chine Cham (au Tibet et en Mongolie-Intérieure) Danse Baishou Danse du dragon Danse du lion Danse de place Errenzhuan Corée Géorgie Adjarouli Danse traditionnelle géorgienne Lezginka Tsekva kartouli (ou Cekva kartuli) Inde Indonésie Iran Chub bazi Danse lori Danse persane Israël Debka Hora Mayim Mayim Mitzvah Tantz Japon Butō (moderne) Nihon-buyō (traditionnel) Odori (folklorique) Para Para Shishi-odori Yosakoi Liban Dabkeh Zaffeh Malaisie Zapin Mongolie Cham Philippines Pangalay Tinikling Sri Lanka Danses de Kandy (sacrées) Thaïlande Danse thaïlandaise Khon Ram Muay Romvong Viêt Nam Chèo Europe Allemagne Ländler Schuhplattler Zwiefacher Autriche Eurythmie Polka (originaire de Bohême et née à Prague) Valse viennoise Belgique Bosnie-Herzégovine Kolo Bosansko Bulgarie Croatie Kolo Espagne Finlande Humppa Letkiss Pols Tango finlandais France Bretagne Grande-Bretagne Grèce Hongrie Irlande et Irlande du Nord Céilí Figure team dancing Hornpipe (ou Harlapatte en québécois) Jig Reel (aussi en Écosse) Set dance Italie Ballu tundu (Sardaigne) Bergamasque Forlane Passamezzo Sicilienne Tarentelle Zumbarella Kosovo Čoček Macédoine Čamče Čoček Lesnoto Oro Pajduška Moldavie Alunel Brîul Hora Învîrtita Jiana Sîrba Norvège Gangar Halling Springar Springleikpringleik Pologne Portugal Roumanie Alunel (ou Alunelul) Brîul (ou Brâul) Hora Învârtita (ou Învîrtita) Jiana Sîrba (ou Sârba) Russie Kazatchok Khorovod Troïka Trepak Serbie Kolo Suède Suisse Eurythmie Picoulet Turquie Ukraine Gopak (aussi Hopak ou Khopak) Kazatchok Khorovod Océanie Australie Melbourne shuffle Fidji Cibi Nouvelle-Calédonie Pilou Tchap Nouvelle-Zélande Haka Polynésie française Hakamanu (Îles Marquises) Maha'u (Îles Marquises) Rikuhi (Îles Marquises) Tamure (Tahiti) Tonga Lakalaka Wallis-et-Futuna Soa Mako Notes et références Articles connexes Danse Danse traditionnelle Liste de métiers de la danse Danses Danses
968
https://fr.wikipedia.org/wiki/D%C3%A9veloppement%20durable
Développement durable
Le développement durable (, parfois traduit par développement soutenable) est une conception du développement qui s'inscrit dans une perspective de long terme et en intégrant les contraintes écologiques et sociales à l'économie. Selon la définition donnée dans le rapport de la Commission mondiale sur l'environnement et le développement de l'Organisation des Nations unies, dit rapport Brundtland, où cette expression est apparue pour la première fois en 1987, . Cette notion s'est imposée à la suite de la prise de conscience progressive, depuis les années 1970, de la finitude écologique de la Terre, liée aux limites planétaires sur le long terme. La notion fait toutefois l'objet de critiques, notamment de la part des tenants de la décroissance, pour lesquels cette notion reste trop liée à celle de la croissance économique, mais aussi de la part de ceux qui y voient un frein au développement. Définition La première définition du développement durable apparaît en 1987 dans le rapport Brundtland publié par la Commission mondiale sur l'environnement et le développement : Le développement durable est un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures de répondre aux leurs. Deux concepts sont inhérents à cette notion : le concept de « besoins », et plus particulièrement des besoins essentiels des plus démunis, à qui il convient d'accorder la plus grande priorité, et l'idée des limitations que l'état de nos techniques et de notre organisation sociale impose sur la capacité de l'environnement à répondre aux besoins actuels et à venir. En 1991, Ignacy Sachs propose une définition proche de ce qu'il nomme l'écodéveloppement : . En France, l'AFNOR définit le développement durable comme un état où . Dans cette définition, . Parmi les besoins essentiels, représentés par la pyramide des besoins de Maslow, figurent en premier lieu les besoins indispensables à l'être humain en tant qu’élément de base vivant dans un environnement défini, que l'on appelle les besoins primaires ou physiologiques. Parmi ceux-ci figure notamment le besoin de se reproduire, qui établit pour l'homme et la femme une filiation et assure de la sorte le renouvellement des générations. Face à la crise écologique et sociale qui se manifeste désormais de manière mondialisée (réchauffement climatique, raréfaction des ressources naturelles, pénuries d'eau douce, rapprochement du pic pétrolier, écarts entre pays développés et pays en développement, sécurité alimentaire, déforestation et perte drastique de biodiversité, croissance de la population mondiale, catastrophes naturelles et industrielles), le développement durable est une réponse de tous les acteurs (États, acteurs économiques, société civile), culturels et sociaux, du développement. Tous les secteurs d'activité sont concernés par le développement durable : l'agriculture, l'industrie, l'habitat, l'organisation familiale, mais aussi les services (finance, tourisme). Il s'agit enfin, en s'appuyant sur de nouvelles valeurs universelles (responsabilité, participation écologique et partage, principe de précaution, débat) d'affirmer une approche double : dans le temps : nous avons le droit d’utiliser les ressources de la Terre, mais le devoir d'en assurer la pérennité pour les générations futures ; dans l’espace : chaque humain a le même droit aux ressources naturelles de la Terre (principe de destination universelle des biens). Historique Histoire du mot L'expression sustainable development, traduite par développement durable, apparaît dans la littérature scientifique au début des années 1980 (voir par exemple, les articles par Vinogradov ou Clausen de 1981), et pour la première fois dans une publication destinée au grand public en 1987 dans le rapport intitulé Our Common Future (Notre avenir à tous) de la Commission mondiale pour le développement et l'environnement de l'Organisation des Nations unies rédigé par la Norvégienne Gro Harlem Brundtland. Une controverse sémantique portant sur la question de savoir s'il fallait parler de développement durable ou soutenable a existé depuis la deuxième traduction en français où l'éditeur canadien a traduit sustainable par le mot français soutenable. Les tenants du terme « durable » plutôt que du mot « soutenable » insistent sur la notion de durabilité définie comme cohérence entre les besoins et les ressources globales de la Terre à long terme, plutôt que sur l'idée d'une recherche de la limite jusqu'à laquelle la Terre sera capable de nourrir l'humanité. Cependant, la traduction du terme par soutenable, plutôt que durable, peut s'expliquer aussi par de vieilles traces du mot en langue française. En effet, on trouve le mot soutenir employé dans une optique environnementale dès 1346, dans l'ordonnance de Brunoy, prise par Philippe VI de Valois, sur l'administration des forêts, recommandant de les « soutenir en bon état ». Ainsi, en matière forestière, la notion de forêt cultivée soumise à une exigence de soutenabilité, un renouvellement perpétuel de la ressource, capable d'approvisionner une flotte navale, existe en France depuis plus de six siècles. Chronologie L'émergence du concept de développement durable remonte au début du . L'idée d'un développement pouvant à la fois réduire les inégalités sociales et réduire la pression sur l'environnement a fait son chemin. Nous pouvons en retracer quelques jalons majeurs : 1909 : émergence du concept de géonomie en Europe centrale. 1909 : Theodore Roosevelt tient un discours dans lequel il se préoccupe de la destruction des ressources naturelles et des générations futures : « Avec la croissance constante de la population et l’augmentation encore plus rapide de la consommation, notre peuple aura besoin de plus grandes quantités de ressources naturelles. Si nous, de cette génération, détruisons les ressources, […] qui seront nécessaires à nos enfants, si nous réduisons la capacité de notre terre à soutenir une population, nous diminuons le niveau de vie, nous enlevons même le droit à la vie des générations futures sur ce continent ». 1949 : le président des États-Unis, Harry S. Truman, dans son discours sur l'état de l'Union, popularise le mot « développement » en prônant une politique d'aide aux pays sous-développés, grâce à l'apport de la connaissance technique des pays industrialisés. Il affirme que « tous les pays, y compris les États-Unis, bénéficieront largement d'un programme constructif pour une meilleure utilisation des ressources mondiales humaines et naturelles ». 1950 : Convention internationale sur la protection des oiseaux, conclue à Paris le 18 octobre 1950. 1951 : L'Union internationale pour la conservation de la nature publie le premier rapport sur l'état de l'environnement dans le monde. Convention internationale pour la protection des végétaux, conclue à Rome le 6 décembre 1951. 1954 : Convention internationale pour la prévention de la pollution des eaux de mer par les hydrocarbures, conclue à Londres le 12 mai 1954. 1961 : création du WWF (World Wildlife Fund) au Royaume-Uni. 1962 : publication du livre L'Afrique noire est mal partie par l'agronome français René Dumont ; publication du livre Printemps silencieux par Rachel Carson. 1967 : publication du livre de , Wilderness and the American Mind, parfois considéré comme le texte fondateur de l’histoire de l'environnement. 1968 : 8 avril : création du Club de Rome regroupant quelques personnalités occupant des postes relativement importants dans leurs pays respectifs et souhaitant que la recherche s'empare du problème de l'évolution du monde pris dans sa globalité pour tenter de cerner les limites de la croissance économique après la croissance ininterrompue des Trente Glorieuses ; 4-13 septembre : l'Organisation des Nations unies pour l'éducation, la science et la culture (Unesco) organise à Séville le colloque « Utilisation et conservation de la biosphère », conférence intergouvernementale d'experts sur les bases scientifiques de l'utilisation rationnelle et de la conservation des ressources de la biosphère ; Michel Batisse initie le Programme sur l'homme et la biosphère (Man & Biosphere, MAB) précurseur du concept de développement durable. 1969 : David R. Brower, transfuge du Sierra Club, fonde aux États-Unis l'association Friends of the Earth (Les Amis de la Terre). 1971 : création en France du Ministère de la protection de la nature et de l'environnement, attribué à Robert Poujade ; création officielle du Programme sur l'homme et la biosphère (MAB) à l'Unesco ; fondation au Canada de Greenpeace, organisation militante écologiste, en même temps qu'une action d'opposition à des essais nucléaires ; 2 février : signature de la Convention de Ramsar pour la conservation et l'utilisation durable des zones humides. 1972 : Le Club de Rome publie le rapport The limits to growth (Les Limites à la croissance, traduit en français sous le titre Halte à la croissance ?, et également connu sous le nom de rapport Meadows), rédigé à la demande du Club de Rome par une équipe de chercheurs du Massachusetts Institute of Technology. Ce premier rapport donne les résultats de simulations informatiques sur l'évolution de la population humaine en fonction de l'exploitation des ressources naturelles, avec des projections jusqu'en 2100. Il en ressort que la poursuite de la croissance économique entraînera au cours du une chute brutale des populations à cause de la pollution, de l'appauvrissement des sols cultivables et de la raréfaction des énergies fossiles. Le modèle n'est cependant pas encore à ce stade sectorisé par régions comme il le sera ensuite. Selon Bjørn Lomborg, nombre de ses prévisions se sont révélées fausses. Au contraire, les auteurs eux-mêmes, dans leur mise à jour de 2004 intitulée Limits to Growth. The 30-Year Update, traduit en 2012 en français, estiment que la réalité est relativement conforme à leurs prévisions de 1972. De nombreux autres travaux critiques de certaines limites du système économique de l'époque sont publiés : citons entre autres Nicholas Georgescu-Roegen et sa comparaison entre systèmes économique et thermodynamique, l'économiste français Ignacy Sachs ou encore l'économiste britannique Ernst Friedrich Schumacher qui prône des solutions plus locales et moins technologiques et technocratiques, et insiste sur la permanence et la durabilité, dans son livre Small is beautiful. 15 février : signature à Oslo de la Convention pour la prévention de la pollution marine par les opérations d'immersion effectuées par les navires et aéronefs. 5 au 16 juin : la Conférence des Nations unies sur l'environnement de Stockholm expose notamment l'écodéveloppement, les interactions entre écologie et économie, le développement des pays du Sud et du Nord. Il sera rétrospectivement qualifié de premier Sommet de la Terre. C'est un échec relatif, sans compromis clair, mais la problématique semble dès lors posée : l'environnement apparaît comme un patrimoine mondial essentiel à transmettre aux générations futures. Création du Programme des Nations unies pour l'environnement (PNUE), organisation dépendant des Nations unies. 1973 : Convention sur le commerce international des espèces de faune et de flore sauvages menacées d'extinction (Convention de Washington) ; Premier choc pétrolier ; 1975, 13-22 octobre : parution du livre de Joël de Rosnay Le Macroscope (sous titré Vers une vision globale), ouvrage français d'initiation à l'analyse systémique, incluant les aspects écologie, économie, ville; colloque sur l'éducation relative à l'environnement, à l'issue duquel a été adoptée à l'unanimité la charte de Belgrade. 1976 : Convention de Barcelone, sur la protection de la mer Méditerranée contre la pollution. 1977, 14-26 octobre : conférence intergouvernementale sur l'éducation relative à l'environnement, organisée par l'Unesco à Tbilissi. 1979 : : l'économiste français René Passet publie L'Économique et le vivant ; Convention relative à la conservation de la vie sauvage et du milieu naturel de l'Europe (Convention de Berne) ; Le philosophe Hans Jonas exprime cette préoccupation dans son livre Le Principe responsabilité ; Deuxième choc pétrolier ; Première conférence mondiale sur le climat, à Genève (Suisse). À cette occasion, un Programme de recherche climatologique mondial est lancé, sous la responsabilité de l’Organisation météorologique mondiale (OMM), du Programme des Nations unies pour l'environnement (PNUE) et du Conseil international des unions scientifiques (CIUS). 1980 : l'Union internationale pour la conservation de la nature publie un rapport intitulé La stratégie mondiale pour la conservation où apparaît pour la première fois la notion de « développement durable », traduite de l'anglais . 1985 : Convention de Vienne sur la protection de la couche d'ozone. 1986 : catastrophe nucléaire de Tchernobyl. 1987 : une définition du développement durable est proposée par la Commission mondiale sur l'environnement et le développement (rapport Brundtland). Le protocole de Montréal relatif aux substances qui appauvrissent la couche d'ozone est signé le 16 septembre. 1988 : création du groupe d'experts intergouvernemental sur l'évolution du climat (Giec). 1989 : La Coalition for Environmentally Responsible Economies (CERES) définit des principes pour l'environnement, qui constituent le premier code de conduite environnemental. Le patriarche orthodoxe Bartholomée Ier de Constantinople institue une prière pour la sauvegarde de la Création. 1990 : le premier rapport du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) commence à alerter la communauté internationale sur les risques du réchauffement climatique dus à la concentration dans l'atmosphère de gaz à effet de serre. 1991 (22 mai) : le Premier ministre français Édith Cresson évoque le terme de développement durable dans son discours de politique générale. 1991 : l'économiste Manfred Max-Neef affine la définition du Rapport Brundtland avec sa théorie des besoins humains fondamentaux qui sert désormais de base à la réflexion sur un développement durable stratégique. 1992 (3 au 14 juin) : troisième conférence des Nations unies sur l'environnement et le développement (sommet de la Terre), à Rio de Janeiro. Consécration du terme « développement durable », le concept commence à être largement médiatisé devant le grand public. Adoption de la Convention sur la diversité biologique et naissance de l'Agenda 21. La définition Brundtland, axée prioritairement sur la préservation de l'environnement et la consommation prudente des ressources naturelles non renouvelables, sera modifiée par la définition des « trois piliers » qui doivent être conciliés dans une perspective de développement durable : le progrès économique, la justice sociale, et la préservation de l'environnement. 1994 : Convention des Nations unies sur la lutte contre la désertification ; Publication de la charte d'Aalborg sur les villes durables, au niveau européen ; , au Caire. 1995 : mars : conférence générale de l'Organisation des Nations unies pour l'éducation, la science et la culture (Unesco) à Séville, établissant un cadre statutaire pour les réserves de biosphère ; première Conférence des parties (COP) à Bonn. 1996 : réintroduction des loups dans le parc national de Yellowstone (États-Unis) : dans les deux décennies qui suivent, la régulation des populations d'herbivores par ce prédateur permet de faire reverdir les paysages, la forêt repousse, trembles et saules stabilisent à nouveau les berges des rivières, castors et poissons reviennent… c'est un exemple spectaculaire de réussite d'un plan de gestion intégrée d'un territoire. 1997 ( au 12 décembre) : conférence des Nations unies sur les changements climatiques, à Kyoto, au cours duquel sera établi le protocole de même nom. 1998 : Nations unies, Convention d'Aarhus sur l'accès à l'information, la participation du public au processus décisionnel et l'accès à la justice en matière d'environnement. 2000 : Les Nations unies adoptent les Objectifs du millénaire pour le développement. Le Pacte mondial des Nations unies adopté par le Forum économique mondial affirme la « responsabilité sociétale des entreprises » relative à la corruption autant qu'aux conditions de travail et aux droits de l'homme. 2001 : la Déclaration universelle de l'UNESCO sur la diversité culturelle affirme pour la première fois que la diversité culturelle est « gage d'un développement humain durable ». 2002 : (26 août au 4 septembre) : Sommet mondial sur le développement durable (Sommet de Johannesburg) ; en septembre, plus de cent chefs d'État, plusieurs dizaines de milliers de représentants gouvernementaux et d'ONG ratifient un traité prenant position sur la conservation des ressources naturelles et de la biodiversité. Quelques grandes entreprises françaises sont présentes. 2004 : Le 8 mai Cités et Gouvernements locaux unis approuve l'Agenda 21 de la culture, qui relie les principes du développement durable l'Agenda 21 avec les politiques culturelles ; Adoption, en France, d'une charte de l'environnement, insistant sur le principe de précaution ; 2005 : Entrée en vigueur du protocole de Kyoto sur la réduction des émissions de gaz à effet de serre dans l'Union européenne ; Publication de l'évaluation des écosystèmes pour le millénaire ; La conférence générale de l'Unesco adopte la Convention sur la protection et la promotion de la diversité des expressions culturelles où la diversité culturelle est réaffirmée comme « un ressort fondamental du développement durable des communautés, des peuples et des nations » ; Premier article de Glenn Albrecht sur la solastalgie, forme de détresse psychique causée par les changements environnementaux. 2006 : publication du rapport Stern sur l'économie du changement climatique (en anglais Stern Review on the Economics of Climate Change), compte rendu sur l'effet du réchauffement global sur la planète rédigé par l'économiste britannique Nicholas Stern pour le gouvernement du Royaume-Uni. 2008 : lancement de l'initiative internationale Reducing Emissions from Deforestation and Forest Degradation des Nations unies, en vue de réduire les émissions dues à la déforestation et à la dégradation des forêts. 2009 : conférence de Copenhague de 2009 sur les changements climatiques. 2010 : conférence de Cancún de 2010 sur les changements climatiques ; conférence mondiale sur la biodiversité de Nagoya. 2011 : le 5 ou 12 décembre, le Canada se retire du protocole de Kyoto. 2012 : 20 au 22 juin : nouveau Sommet de la Terre à Rio (Brésil) aussi appelé Rio+20 ; le terme officiel est Conférence des Nations unies sur le développement durable ; 21 avril : création de la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES). 2015 : 18 juin : publication de l'encyclique Laudato si' du pape François « sur la sauvegarde de la maison commune » ; François s'empare de la question écologique et propose une démarche fondée sur l'écologie intégrale ; 17 aout : en France, loi relative à la transition énergétique pour la croissance verte ; : première journée mondiale de prière pour la sauvegarde de la Création ; 28 et 29 novembre : premières marches mondiales pour le climat ; 30 novembre au 12 décembre : conférence de Paris de 2015 sur les changements climatiques (COP21) ; Publication par l'ONU des Objectifs de développement durable, prenant la suite des Objectifs du millénaire pour le développement. 2016, 26 juillet : le Solar Impulse achève avec succès son tour du monde ; c'est le premier avion à avoir effectué un tour du monde sans carburant ni émission polluante pendant le vol. 2017 : : les États-Unis décident de se retirer de l'accord de Paris sur le climat. 12 décembre : One Planet Summit, réunion internationale sur les changements climatiques qui s'est tenue à La Seine Musicale, sur l'île Seguin, à Boulogne-Billancourt (France). 2018 : 28 août : en France, démission du ministre de la Transition écologique Nicolas Hulot, qui met en cause un « modèle économique responsable de tous ces désordres climatiques ». 8 septembre : première marche pour le climat organisée en France. 2019 : 15 mai : en France, création du Conseil de défense écologique lors d'un Conseil des ministres, annoncée par le président Emmanuel Macron, lors de sa conférence de presse du 25 avril faisant suite au grand débat national. 22 mai : en France, la Loi relative à la croissance et la transformation des entreprises (dite loi Pacte) introduit dans le droit des sociétés français le statut d'entreprise à mission, qui donne à l'entreprise une finalité d’ordre social ou environnemental en plus du but lucratif. 25 novembre : à l'occasion de la Conférence de Madrid de 2019 sur les changements climatiques (COP25), déclaration relative à l’urgence climatique du Conseil œcuménique des Églises. 2020 : 29 juin : en France, la Convention citoyenne pour le climat est reçue par le président de la République Emmanuel Macron pour entendre l'exposé et communiquer ses réponses. Enjeux et objectifs Crise écologique et sociale La révolution industrielle du introduit des critères de croissance essentiellement économiques, principal critère aisément mesurable : ainsi le produit intérieur brut dont l'origine remonte aux années 1930 est souvent vu comme l'indicateur de la richesse d'un pays. Des corrections ont été apportées dans la deuxième moitié du sur le plan social, avec d'importantes avancées sociales. L'expression « économique et social » fait depuis partie du vocabulaire courant. Mais les pays développés ont pris conscience depuis les chocs pétroliers de 1973 et de 1979 que leur prospérité matérielle reposait sur l'utilisation intensive de ressources naturelles finies, et que par conséquent, outre l'économique et le social, un troisième aspect avait été négligé : l'environnement (comme dans l'exemple de l'impact environnemental du transport routier). Pour certains analystes, le modèle de développement industriel n'est pas viable ou soutenable sur le plan environnemental, car il ne permet pas un « développement » qui puisse durer. Les points cruciaux en faveur de cette affirmation sont l'épuisement des ressources naturelles (matières premières, énergies fossiles pour les humains), la pénurie des ressources en eaux douces susceptible d'affecter l'agriculture, la destruction et la fragmentation des écosystèmes, notamment la déforestation qui se manifeste par la destruction des forêts tropicales (forêt amazonienne, forêt du bassin du Congo, forêt indonésienne), ainsi que la diminution de la biodiversité qui diminuent la résilience de la planète ou encore le réchauffement climatique dû aux émissions de gaz à effet de serre et de manière générale la pollution due aux activités humaines. Les catastrophes industrielles de ces trente dernières années (Seveso (1976), Bhopal (1984), Tchernobyl (1986), Exxon Valdez (1989)) ont interpellé l'opinion publique et les associations telles que le WWF, les Amis de la Terre ou encore Greenpeace (Voir aussi Chronologie de l'écologisme). En faisant le pari du « tout technologique » dans l'optimisation de la consommation énergétique et la lutte contre le changement climatique, notre civilisation recourt de façon accrue aux métaux que nous ne savons pas bien recycler. La déplétion de ces ressources pourrait devenir un enjeu mondial au même titre que la déplétion du pétrole. Au problème de viabilité subsiste une pensée humaine à adapter. Ce qui s'ajoute à un problème d'équité : les pauvres subissent le plus la crise écologique et climatique, et il est à craindre que le souhait de croissance des pays les moins avancés ou en développement vers un état de prospérité similaire à celui des pays les plus développés, fondé sur des principes équivalents, n'implique une dégradation encore plus importante et accélérée de l'habitat humain et peut-être de la biosphère. Ainsi, si tous les États de la planète adoptaient lAmerican way of life (qui consomme près de 25 % des ressources de la Terre pour 5 % de la population), il faudrait cinq planètes pour subvenir aux besoins de tous selon l'association écologiste WWF. Le développement actuel étant consommateur de ressources non renouvelables et considéré par ces critiques comme très gourmand en ressources compte tenu de la priorité donnée aux objectifs patrimoniaux à courte vue, tels que la rentabilité des capitaux propres, voire inéquitable, une réflexion a été menée autour d'un nouveau mode de développement, appelé « développement durable ». En 2020, les économistes Jérôme Ballet et Damien Bazin plaident pour une meilleure prise en compte du pilier social dans les politiques de développement durable, sur la base de trois critères, la cohésion sociale, l'équité et la sécurité. Ils recommandent la prise en compte de ces critères dans les politiques qui s'intéressent plus spécifiquement à la durabilité environnementale. Responsabilité à l'égard des générations futures C'est le philosophe allemand Hans Jonas qui a le premier théorisé la notion de développement durable dans Le Principe responsabilité (1979). Selon lui, il y a une obligation d'existence des générations futures, qui pourrait être remise en cause par la forme qu'a prise le progrès technique à l'époque contemporaine. Il s'agit donc pour les générations présentes de veiller, non aux droits des générations futures, mais à leur obligation d'existence. « Veiller à l'obligation des générations futures d'être une humanité véritable est notre obligation fondamentale à l'égard de l'avenir de l'humanité, dont dérivent seulement toutes les autres obligations à l'égard des hommes à venir ». Le problème du développement durable ne se pose donc pas seulement sous l'angle des droits, mais aussi des obligations et des devoirs. Nouvelle démarche : « penser global, agir local » Les aspects essentiels du développement durable, sur les capacités de la planète et les inégalités d'accès aux ressources posent des questions philosophiques et éthiques. Hans Jonas avança l'idée selon laquelle le modèle économique de l'Occident pourrait ne pas être viable sur le long terme s'il ne devenait pas plus respectueux de l'environnement. En effet, Jonas posa l'idée d'un devoir vis-à-vis des êtres à venir, des vies potentielles et « vulnérables » que nous menaçons et il donne à l'homme une responsabilité. Depuis, l'un des thèmes de la philosophie qui interpelle le plus nos contemporains est celui de la philosophie de la nature, qui interroge sur la place de l'homme dans la nature. Ainsi, en 1987, Michel Serres décrit l'homme comme signataire d'un contrat avec la nature, reconnaissant les devoirs de l'humanité envers celle-ci. À l'inverse, le philosophe Luc Ferry souligne, dans Le Nouvel Ordre écologique, que l'homme ne peut pas passer de contrat avec la nature et estime que cette vision qui consiste à donner des droits à la nature participe d'une opposition radicale à l'Occident, de nature révolutionnaire et non réformiste, doublée d'un anti-humanisme prononcé. Jean Bastaire voit l'origine de la crise écologique chez René Descartes selon qui l'homme devait se « rendre comme maître et possesseur de la nature ». Au contraire, la géographe Sylvie Brunel critique le développement durable, car elle y voit une conception de l'homme comme un parasite, et la nature comme un idéal. Or, pour elle, l'homme est souvent celui qui protège la biodiversité, là où la nature est le règne de la loi du plus fort, dans lequel « tout milieu naturel livré à lui-même est colonisé par des espèces invasives ». Sans en aborder tous les aspects philosophiques, le développement durable comporte également des enjeux très importants en matière d'éthique des affaires. André Comte-Sponville entre autres, aborde les questions d'éthique dans Le capitalisme est-il moral ?. Paul Ricœur et Emmanuel Levinas le firent aussi sous l'angle de l'altérité et Patrick Viveret et Jean-Baptiste de Foucauld sur celui de la justice sociale. Le philosophe français Michel Foucault aborde ces questions sur le plan épistémologique. Il parle de changements de conception du monde, qui se produisent à différentes époques de l'Histoire. Il appelle ces conceptions du monde, avec les représentations qui les accompagnent, des épistémès. Selon certains experts, le développement durable correspondrait à un nouveau paradigme scientifique, au sens que Thomas Kuhn donne à ce terme. La formule « penser global, agir local », employée pour la première fois par René Dubos en 1977, puis par Jacques Ellul en 1980, est souvent invoquée dans les problématiques de développement durable. Elle montre que la prise en compte des enjeux environnementaux et sociaux nécessite de nouvelles heuristiques, qui intègrent le caractère global du développement durable. Elle fait penser à la philosophie de Pascal, plutôt qu'à celle de Descartes, celle-ci étant davantage analytique. En pratique, elle devrait se traduire par des approches systémiques. Elle est très bien illustrée par le concept de réserve de biosphère créé par l'Unesco en 1971. L'expert américain Lester R. Brown affirme que nous avons besoin d'un bouleversement analogue à celui de la révolution copernicienne dans notre conception du monde, dans la manière dont nous envisageons la relation entre la planète et l'économie : « cette fois-ci, la question n'est pas de savoir quelle sphère céleste tourne autour de l'autre, mais de décider si l'environnement est une partie de l'économie ou l'économie une partie de l'environnement ». Le philosophe français Dominique Bourg estime que la prise de conscience de la finitude écologique de la Terre a entraîné dans nos représentations un changement radical de la relation entre l'universel et le singulier, et remet en cause le paradigme moderne classique du fait que dans l'univers systémique de l'écologie, la biosphère (le planétaire) et les biotopes (le local) sont interdépendants. Depuis quelques décennies, les ONG environnementales et des leaders d'opinion comme Nicolas Hulot ont sensibilisé l'opinion publique sur les enjeux de l'environnement et du développement durable. La démarche d'action locale pour un impact global est également la thèse du film de Coline Serreau : Solutions locales pour un désordre global (voir filmographie). Trois piliers : environnemental, social et économique Le premier à avoir révélé la dimension multi-dimensionnelle et systémique des problèmes de notre époque est l'économiste français René Passet dans un ouvrage devenu classique : L'économique et le vivant (1979). L'objectif du développement durable est de définir des schémas viables qui concilient les trois aspects environnemental, social et économique des activités humaines : « trois piliers » à prendre en compte par les collectivités comme par les entreprises et les individus. La finalité du développement durable est de trouver un équilibre cohérent et viable à long terme entre ces trois enjeux. En anglais, on parle des 3 P, « People, Planet, Profit », pour désigner ces trois piliers : People pour le social, Planet pour l'environnement, et Profit pour l'économie. Ils sont associés à la notion de triple performance des entreprises (triple bottom line en anglais). À ces trois piliers s'ajoute un enjeu transversal, indispensable à la définition et à la mise en œuvre de politiques et d'actions relatives au développement durable : la gouvernance. La gouvernance consiste en la participation de tous les acteurs (citoyens, entreprises, associations, élus…) au processus de décision ; elle est de ce fait une forme de démocratie participative. Ainsi, plusieurs pays d'Afrique ont adopté des plans socio-économiques impliquant les collectivités locales via des moyens de production autonomes. Selon les termes du rapport Brundtland (1987), . Prendre en compte le temps long Intégrer les enjeux environnementaux et les besoins des générations futures implique d'adopter une approche écosystémique, qui repose sur 12 principes de gestion adoptés à Malawi en 2000. Il conviendrait notamment, selon le huitième principe, de se fixer des objectifs à long terme : Pour Michel Rocard, qui a été ambassadeur de France chargé de la négociation internationale pour les pôles arctique et antarctique, « le court-termisme nous conduit dans le mur ». Trois types d'acteurs La prise en compte des enjeux de développement durable nécessite un système impliquant trois types d'acteurs : le marché, l’État et la société civile : les acteurs du marché sont les entreprises ; les acteurs des États sont des autorités publiques, au niveau mondial et au niveau de chaque grande zone économique (Union européenne…), au niveau national, et au niveau territorial (régions, intercommunalités, communes) ; les acteurs de la société civile sont des représentants des associations et des Organisations non gouvernementales. La société civile est le cadre le plus approprié pour une économie de don et de la fraternité. Elle est indissociable des deux autres types d'acteurs. Répondre aux besoins des générations actuelles et à venir « Le développement durable est un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures de répondre aux leurs ». Rapport Brundtland La définition classique du développement durable provient du rapport Brundtland de la Commission mondiale sur l’environnement et le développement. Ce rapport rappelle une citation célèbre, mais à l'attribution incertaine et très débattue (entre autres, sont fréquemment donnés comme son auteur, soit le chef amérindien Seattle dont il existe pourtant seulement des transcriptions apocryphes et très douteuses de son célèbre et mythique discours, soit Antoine de Saint-Exupéry, à moins qu'il s'agisse de la traduction d'un proverbe traditionnel indien ou africain) : « Nous n’héritons pas de la Terre de nos ancêtres, nous l’empruntons à nos enfants ». Ce rapport insiste sur la nécessité de protéger la diversité des gènes, des espèces et de l'ensemble des écosystèmes naturels terrestres et aquatiques, et ce, notamment, par des mesures de protection de la qualité de l'environnement, par la restauration, l'aménagement et le maintien des habitats essentiels aux espèces, ainsi que par une gestion durable de l'utilisation des populations animales et végétales exploitées. Cette préservation de l'environnement doit être accompagnée de la « satisfaction des besoins essentiels en ce qui concerne l’emploi, l’alimentation, l’énergie, l’eau, la salubrité ». Cela étant, on se heurte à une difficulté, qui est de définir ce que sont les besoins des générations présentes, et ce que seront les besoins des générations futures. On pourrait retenir par exemple les besoins élémentaires pour se nourrir, se loger, et se déplacer. Dans ce contexte, le développement durable a été inséré parmi les objectifs du millénaire pour le développement adoptés en 2000 par 193 États membres de l’Organisation des Nations unies (objectif 7 : assurer un environnement humain durable). Afin de subvenir aux besoins actuels sans pour autant recourir à une utilisation non durable de ressources non renouvelables, un scénario en trois points a été proposé, notamment par des associations comme négawatt dans le domaine de l'énergie : sobriété (techniques utilisées avec parcimonie) ; efficacité (techniques plus performantes) ; utilisation de ressources renouvelables (par exemple : l'énergie solaire ou les éoliennes, au travers de projets d'électrification rurale). Le patrimoine culturel ne doit pas être oublié : transmis de génération en génération et faisant preuve d'une grande diversité, l'UNESCO souhaite la préservation de ce qu'elle nomme patrimoine culturel immatériel. La culture au sens large (ou l'environnement culturel) s'impose d'ailleurs peu à peu comme un quatrième pilier du développement durable. Inégalité planétaire La consommation de ressources et la production de déchets sont très inégalement réparties sur la planète, comme le montre une carte de l'empreinte écologique par habitant des pays du monde. L'empreinte écologique est la plus élevée dans certains pays du Moyen-Orient, pouvant dépasser 8 hag (hectares globaux) par habitant (Qatar, Émirats arabes unis, Bahreïn, Koweït), en Amérique du Nord (environ aux États-Unis), et en Europe, alors qu'elle peut être inférieure à dans certains pays d'Afrique ; la moyenne mondiale se situe à Néanmoins, la détérioration de l’environnement et celle de la société affectent d’une manière particulière les pays les moins avancés de la planète : « Tant l’expérience commune de la vie ordinaire que l’investigation scientifique démontrent que ce sont les pauvres qui souffrent davantage des plus graves effets de toutes les agressions environnementales ». Cela engendre de graves problèmes de justice environnementale. Ainsi, l'inégalité affecte des pays entiers, ce qui oblige à penser à une éthique des relations internationales. Les différences de mode de vie et d'utilisation des ressources naturelles conduisent à parler de dette écologique entre pays développés et pays du Sud. Dans son encyclique Laudato si' « sur la sauvegarde de la maison commune », le pape François insiste sur la nécessité d'« avoir aussi recours aux diverses richesses culturelles des peuples, à l'art, à la vie intérieure et à la spiritualité » pour s'attaquer aux problèmes d'inégalités. Objectifs de développement durable Prenant la suite des Objectifs du millénaire pour le développement (2000), les objectifs de développement durable (ODD) sont approuvés par les Nations unies en . Il s'agit d'une liste de 17 objectifs couvrant tous les aspects de l'activité humaine. Chaque objectif est accompagné de plusieurs cibles et de plusieurs cibles de mise en œuvre (sous-objectifs). Il y a au total 169 cibles qui sont communes à tous les pays engagés et qui répondent aux défis mondiaux auxquels l'humanité est confrontée, notamment ceux liés à la pauvreté, aux inégalités, au climat, à la dégradation de l’environnement, à la prospérité, à la paix et à la justice. En , les 193 États membres de l’ONU ont adopté le programme de développement durable à l’horizon 2030, intitulé « Agenda 2030 ». C’est un agenda pour les populations, pour la planète, pour la prospérité, pour la paix et par les partenariats. L'agenda reprend les 17 objectifs de développement durable. L'Agenda 2030 est assorti d'un dispositif de suivi, reposant sur une liste de 232 indicateurs de suivi mondiaux, stabilisée à l’occasion d’une réunion qui s’est tenue du 7 au 10 mars 2017. Les États sont invités à définir leur propre jeu d’indicateurs pour le suivi des ODD au niveau national en fonction des priorités, des réalités, des capacités de calcul et de la situation de chaque État. Pour le suivi des progrès de la France dans l’atteinte des 17 objectifs de développement durable, à l'issue d'une concertation par un groupe de travail sous l'égide du Conseil national de l’Information statistique (Cnis), il a été proposé mi-2018 un tableau de bord de 98 indicateurs. Agriculture L'activité agricole est habituellement évaluée sur le plan économique seul. Dans une perspective de développement durable, une évaluation écologique est en partie appréhendée par le bilan énergétique en agriculture, qui tient compte de la dimension physique de l'activité de production agricole. Le nombre d'emplois agricoles et leur situation sociale complète l'approche sociale. Santé Parmi les objectifs de développement durable de l'ONU, La santé fait l'objet de l'objectif . L'ONU mentionne parmi les faits et chiffres la santé infantile, la santé maternelle, le syndrome d'immunodéficience acquise (sida, responsable de de morts depuis le début de l'épidémie), le paludisme et d'autres maladies. L'Organisation mondiale de la santé (OMS) appelle à la mobilisation pour lutter contre la pandémie de Covid-19. Principales questions posées Question du modèle de développement Lorsque Harry S. Truman s'est adressé à ses concitoyens lors de son discours d'investiture en 1949, pour évoquer l'aide aux pays « sous-développés », le peuple américain était loin de penser que l'humanité serait un jour confrontée à une limitation des ressources naturelles. Depuis les années 1970 et les deux chocs pétroliers de 1973 et 1979, l'Occident prend peu à peu conscience de cette limite naturelle. Depuis les années 2000, les ONG environnementales, avec à leur tête le WWF, ont conceptualisé ces questions avec la notion d'empreinte écologique. Elles ont mis en évidence que l'impact écologique des activités des pays les plus développés (États-Unis, Europe occidentale…) dépassait largement la capacité biologique de la Terre à renouveler les ressources. Il est dès lors évident que le modèle occidental de développement, hérité de la révolution industrielle, n'est pas généralisable tel quel à l'ensemble de la planète. Cet état de fait amènera certainement une révision nécessaire des modèles utilisés jusqu'à présent en Occident dans un certain nombre de domaines. Il serait présomptueux d'affirmer que le développement durable fournit un modèle de développement. Il s'agit plutôt d'un ensemble de principes, qui fixent des objectifs à atteindre. D'autre part, cette notion fait l'objet, dans les pays développés, d'une communication importante, qui n'est pas, tant s'en faut, toujours suivie d'actions concrètes. Il n'est donc pas possible d'affirmer que l'Occident dispose d'un modèle facilement exportable. D'autre part, comme le soulignait l'Unesco lors du sommet de la Terre de Johannesburg en 2002, dans l'aide au développement, il est nécessaire de tenir compte des spécificités culturelles des pays aidés. Le codéveloppement est apparu comme une évolution du concept d'aide au développement économique, prenant en compte dans une approche globale et coordonnée, non seulement les aspects économiques, mais aussi les évolutions sociales, l'environnement et le fonctionnement démocratique des institutions, tout en contrôlant mieux les flux migratoires. La coopération au service du développement durable et de la solidarité étant l'une des missions que s'est fixées l'Organisation internationale de la francophonie en 2004, la francophonie peut être considérée comme un cadre intéressant pour promouvoir le développement durable. Selon les mots de Léopold Sédar Senghor, « La création d’une communauté de langue française […] exprime le besoin de notre époque où l’homme, menacé par le progrès scientifique dont il est l’auteur, veut construire un nouvel humanisme qui soit, en même temps, à sa propre mesure et à celle du cosmos ». Par exemple, la création de l'université Senghor, l'un des quatre opérateurs directs de la Francophonie, répond au besoin de définir un modèle de développement dans un esprit de diversité culturelle. Le site francophone Médiaterre sur le développement durable permet d'animer un réseau de compétences réparti entre les pays du Nord et les pays du Sud. Question du modèle économique Il existe une relation équivoque entre l'économie et l'environnement. Les économistes voient l'environnement comme une partie de l'économie, alors que les écologues voient plutôt l'économie comme une partie de l'environnement. Selon Lester R. Brown, il s'agit d'un signe qu'un changement de paradigme est à l'œuvre. L'hypothèse de Michael Porter, selon laquelle les investissements des entreprises pour la protection de l'environnement, loin d'être une contrainte et un coût, peuvent apporter des bénéfices par un changement des modes de production et une meilleure productivité, est encore discutée par les experts. Ce qui est en question, c'est le rôle du progrès technique dans le développement économique par rapport aux problèmes environnementaux (mais aussi sociaux), comme le soulignait le philosophe Hans Jonas dès 1979 dans Le Principe responsabilité. Depuis les chocs pétroliers de 1973 et 1979, ainsi que dans la succession des crises économiques et le tassement de la croissance économique observés depuis les années 1970, le modèle du capitalisme productiviste dans lequel les pays occidentaux se sont lancés au cours du semble être en crise. L'économiste Bernard Perret s'interroge sur la question de savoir si le capitalisme est durable. Les modèles qui décrivaient l'accroissement de la productivité des facteurs de production atteignent leurs limites. Alors que les physiocrates considéraient la terre comme le principal facteur créateur de valeur, l'école classique et l'école néoclassique n'ont retenu que les deux facteurs de production capital et travail, négligeant le facteur terre (l'environnement). Certes, dans certains courants néoclassiques, comme le modèle de Solow, la productivité globale des facteurs correspond à une augmentation de la productivité qui n'est pas due aux facteurs de production capital et travail, mais au progrès technique. Encore faut-il que celui-ci respecte les contraintes environnementales. Il faut encore souligner qu'à mesure que les améliorations techniques augmentent l'efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource peut augmenter au lieu de diminuer. Ce paradoxe, connu sous le nom d'effet rebond, ou paradoxe de Jevons, a été vérifié pour la consommation de carburant des véhicules automobiles. Il semble que les problèmes environnementaux que nous rencontrons soient dus au fait que le facteur de production terre n'a pas été suffisamment pris en compte dans les approches économiques récentes, notamment classique et néoclassique. Un modèle de développement qui permet de concilier progrès technique, productivité, et respect de l'environnement est donc à repenser. Selon l'économiste belge Christian Gollier, le taux d'actualisation est une variable cruciale de la dynamique économique, en ce qu'il détermine les décisions d'investissement de tous les agents économiques : ménages, entreprises, État. Une valeur du taux d'actualisation d'environ 1 %, beaucoup plus faible que celle qui est actuellement pratiquée, serait nécessaire pour tenir compte des intérêts des générations futures à des horizons relativement éloignés. Une révision des modèles économiques est en train de s'amorcer, comme le montrent par exemple les travaux du cercle de réflexion Les Ateliers de la Terre. Selon Philippe Bihouix, auteur de L’âge des Low Tech. Vers une civilisation techniquement soutenable, Les « technologies vertes » seraient consommatrices de ressources, feraient appel à des métaux plus rares, et seraient en général moins bien recyclables. Elles feraient croire qu'il serait possible de réduire les émissions de gaz à effet de serre significativement sans réduire massivement notre consommation énergétique. La « croissance verte », qui éluderait la question de nos modes de vie, est pour lui une imposture. En raison de leur besoin de métaux rares, les énergies nouvelles ne seraient pas la panacée : une énergie illimitée et propre serait un mythe, il faudrait donc économiser, recycler, relocaliser, et s'orienter vers la low-tech. Besoin d'une régulation économique et fiscale Selon les économistes Emmanuel Saez et Gabriel Zucman, la (non-)régulation économique depuis le début des années 1980 . Le Brexit, le mouvement des Gilets jaunes et l'émergence de l'extrême droite dans des régions où elle était absente sont perçus comme des manifestations du mécontentement des électeurs face à la montée des inégalités. Différentes approches de la notion de durabilité Si les objectifs du développement durable font l'objet d'un relatif consensus, c'est son application qui demeure source d'oppositions. L'une des questions posées par le terme de « développement durable » est de savoir ce que l'on entend par « durable ». Or, la nature peut être vue de deux manières complémentaires : il existe d'une part un « capital naturel », non renouvelable à l'échelle humaine (la biodiversité par exemple), et d'autre part des « ressources renouvelables » (comme le bois, l'eau…). Cette distinction étant faite, deux conceptions sur la durabilité s'opposent. La première réponse à la question du développement durable est de type technico-économiste : à chaque problème environnemental correspondrait une solution technique, solution disponible uniquement dans un monde économiquement prospère. Dans cette approche, aussi appelée « durabilité faible », le pilier économique occupe une place centrale et reste prépondérant, à tel point que le développement durable est parfois rebaptisé « croissance durable ». C'est ainsi que dans la revue de l'École polytechnique, Jacques Bourdillon exhorte les jeunes ingénieurs à « ne pas renoncer à la croissance […] dont l'humanité a le plus grand besoin, même sous prétexte de soutenabilité ». L'une des réponses apportées du point de vue technologique consiste à rechercher la meilleure technique disponible (MTD, en anglais, best available technology, BAT) pour un besoin identifié, ou des attentes exprimées par un marché, qui concile les trois piliers du développement durable d'une façon transversale. Ce discours est légitimé par la théorie économique néoclassique. En effet, Robert Solow et John Hartwick supposent le caractère substituable total du capital naturel en capital artificiel : si l'utilisation de ressources non renouvelables conduit à la création d'un capital artificiel transmissible de génération en génération, elle peut être considérée comme légitime. La deuxième réponse est de type « environnementaliste » : soutenue notamment par des acteurs non gouvernementaux son point de vue est tout à fait opposé à l'approche technico-économiste. Selon elle, « la sphère des activités économiques est incluse dans la sphère des activités humaines, elle-même incluse dans la biosphère » : le « capital naturel » n'est dès lors pas substituable. Afin d'insister sur les contraintes de la biosphère, les tenants de cette approche préfèrent utiliser le terme de « développement soutenable » (traduction littérale de sustainable development). Les économistes systémiques légitiment cette approche : plutôt que de se concentrer sur l'aspect purement économique des choses, ceux-ci souhaitent avoir une vision « systémique [qui] englobe la totalité des éléments du système étudié, ainsi que leurs interactions et leurs interdépendances ». On peut citer Joël de Rosnay, E.F. Schumacher ou encore Nicholas Georgescu-Roegen. Ces deux approches opposées ne sont bien entendu pas les seules : de nombreuses autres approches intermédiaires tentent de concilier vision technico-économiste et environnementaliste, à commencer par les acteurs publics. On pourra voir à ce sujet la typologie dressée par Aurélien Boutaud. Une autre approche est reconnue par le monde académique : celle de la valorisation du social (). On parle de développement socialement durable (DSD). Une telle approche demande à ce qu'un principe de précaution social (voire un principe de responsabilité) soit admis. Les priorités du DSD se focalisent sur la réduction des vulnérabilités des personnes en raison de modifications dans la structure des capacités (cf. les Capabilities Approach d'Amartya Sen). De façon plus globale, le DSD donne la priorité à l'équité intergénérationnelle (niveaux, conditions, qualité de vie…) par rapport à l'équité intragénérationnelle. Il n'y a pas d'antinomie entre les deux versions de la durabilité (écologique versus sociale). La prise en compte de la dimension sociale du développement correspond à l'idée que la protection de la nature ne doit pas se faire au détriment du bien-être des populations vivant au contact direct de celle-ci. Révision des modes de production et de consommation La stratégie de l'Union européenne en faveur du développement durable demande de promouvoir des modes de production et de consommation plus durables. Il convient pour cela de briser le lien entre la croissance économique et la dégradation de l'environnement, et de tenir compte de ce que les écosystèmes peuvent supporter, notamment en ce qui a trait aux ressources naturelles par rapport au capital naturel disponible, et aux déchets. L'Union européenne doit pour cela promouvoir les marchés publics écologiques, définir avec les parties concernées des objectifs de performance environnementale et sociale des produits, accroître la diffusion des innovations environnementales et des techniques écologiques, et développer l'information et l'étiquetage approprié des produits et services. Modes de gouvernance du développement durable Le développement durable peut se décliner de manières complémentaires : au niveau politique, sur les territoires, dans les entreprises, voire dans sa vie personnelle. Le développement durable a d'abord été mis en application sur les territoires (lors du sommet de la Terre de Rio de Janeiro en 1992), puis au sein de l'entreprise et de leurs parties prenantes (lors du sommet de la Terre de Johannesburg). Gouvernance mondiale Historiquement, le développement durable a émergé après une longue période de négociations à l'échelle mondiale. La première conférence mondiale concernant le développement durable, a posteriori rebaptisée « Sommet de la Terre », a eu lieu à Stockholm en 1972. En 1992, au cours du sommet de la Terre de Rio de Janeiro, sont proclamés les 27 principes de la déclaration de Rio sur le développement durable. Les trois piliers du développement durable sont énoncés pour la première fois au niveau international, et l'agenda 21 pour les collectivités territoriales est élaboré. En 2002, lors du sommet de la Terre de Johannesburg, les grandes entreprises sont pour la première fois représentées. Lors de ces rencontres, des représentants des parties prenantes (ONG, États, puis entreprises) discutent des grands enjeux mondiaux, mais aussi des modes de pilotage à mettre en place dans les collectivités et les entreprises pour décliner concrètement le concept de développement durable. En plus de ces sommets « généralistes » ont lieu des sommets sur des sujets plus ciblés, comme les sommets mondiaux de l'eau, ou la Conférence des parties, qui ont lieu à des échéances plus rapprochées. Toutefois, les ONG et les associations écologistes, appuyées par plusieurs personnalités, estiment que ces sommets ne sont pas suffisants, et que, pour mettre en œuvre les plus de 300 conventions et traités de droit de l'environnement et faire contrepoids à l'OMC, il faudrait se doter d'un gendarme international aux pouvoirs contraignants, qui pourrait s'appeler « Organisation mondiale de l'environnement ». Gouvernance dans les États Union européenne Dans l'Union européenne, une partie du droit de l'environnement s'est progressivement déplacé des États membres vers le niveau européen qui est apparu subsidiairement plus adapté pour traiter certaines de ces questions, et ceci en plusieurs étapes : L'Acte unique européen, en 1987, a transféré à la CEE certaines compétences des États : l'environnement, la recherche et développement, et la politique étrangère, À la création de l'Union européenne, en 1993, l'environnement a été traité d'une façon transversale dans le premier pilier de l'Union européenne, celui qui est le plus intégré, à travers les règlements européens et les directives européennes. L'expression développement durable apparaît pour la première fois dans un texte communautaire avec le traité d'Amsterdam en 1997, qui inclut également un protocole sur le principe de subsidiarité. Au Conseil européen de Göteborg, en 2001, il a été décidé que la stratégie sur l'économie de la connaissance définie au conseil européen de Lisbonne l'année précédente intégrerait explicitement l'objectif de développement durable. Par conséquent, au moins sur le papier, la relation entre développement durable et ingénierie des connaissances a été reconnue. Ce conseil réoriente la stratégie de Lisbonne vers le développement durable, et un livre vert de la Commission européenne aborde le sujet de la responsabilité sociétale pour les entreprises. L'impact de l'environnement sur des domaines aussi vitaux que l'eau, l'énergie, les services, l'agriculture, la chimie… est connu depuis très longtemps : ainsi, on trouve en France dès le l'obligation de faire des enquêtes publiques d'impact préalables à l'implantation d'industries polluantes (enquêtes de comodo incomodo pour les tanneries), ainsi qu'une administration des eaux et forêts beaucoup plus ancienne, dotée d'un pouvoir règlementaire et coercitif autonome. L'Union européenne a capté certaines compétences des États nationaux, afin d'établir une nouvelle réglementation européenne qu'elle veut uniforme (directives cadres, directives, règlements) et que les États membres doivent transposer dans leurs règlements et leurs normes. L'Union européenne a demandé à chacun des États-membres de définir et de mettre en œuvre une stratégie nationale de développement durable. C'est vers les années 2001-2002 que le développement durable apparaît en France comme la nécessité pour les entreprises de rendre compte des conséquences sociales et environnementales de leurs activités, par rapport aux exigences de la société civile. Cela s'est traduit par une disposition législative sur la communication dans la loi relative aux nouvelles régulations économiques (NRE), poussant à l'élaboration de rapports de développement durable. L'ancien président Jacques Chirac a poussé à la rédaction d'une charte de l'environnement en 2004, soulignant dans un discours que la France était le premier pays au monde à inclure l'environnement dans sa Constitution. États-Unis Dans le même temps, les entreprises anglo-saxonnes tissent des réseaux d'influence autour des institutions internationales, en s'appuyant sur les réseaux des organisations non gouvernementales. Ceci permet de collecter une quantité importante d'informations, qui sont structurées puis gérées dans les réseaux internationaux d'entreprises, d'universités, de centres de recherche (voir par exemple le World Business Council for Sustainable Development – WBCSD). La stratégie américaine consiste aussi à tisser des liens avec les enceintes normatives privées comme la chambre de commerce internationale, située à Paris. La CCI rédige des « rules », règles types dans tous les domaines de la vie des affaires, reprises comme modèles dans les contrats financés par les organismes internationaux. La CCI a joué un rôle important au sommet de la Terre de Johannesburg à l'été 2002 en créant, conjointement avec le WBCSD, le Business Action for Sustainable and Resilient Societies. Ministères Plusieurs États consacrent explicitement un ministère à la question du développement durable. Les États en question et leurs ministres respectifs, en , sont les suivants : Gouvernance sur les territoires Depuis le sommet de la Terre de Rio de Janeiro (1992) et la signature de la charte d'Aalborg (1994), les territoires sont au cœur du développement durable. À l'aide de l'Agenda 21 - véritable plan d'action de la politique de développement durable des collectivités - les réseaux de villes et les communautés urbaines sont à même d'exprimer les besoins et de mettre en œuvre des solutions. Pour cela, les collectivités territoriales peuvent coopérer avec les entreprises, les universités, les grandes écoles en France, ainsi qu'avec les centres de recherche, pour imaginer des solutions innovantes pour l'avenir. Les Agendas 21 locaux, déclinaisons de l'Agenda 21 localement, sont réalisables à l'échelle d'une commune, d'un département, d'une région, d'une communauté de communes ou d'une communauté d'agglomération. Ils sont définis en concertation avec les acteurs locaux, dans un cadre de démocratie participative et se déroulent en plusieurs phases : définition des problématiques et priorités sociales, environnementales et économiques du territoire ; établissement d'un plan d'action précis ciblant ces problématiques ; mise en œuvre du plan d'action ; évaluation et ajustements des actions mises en œuvre. Les initiatives locales se multiplient en France et, en juin 2011, le label environnemental EcoJardin pour la gestion des espaces verts des grandes villes a été lancé officiellement. Ce label consiste à bannir l'utilisation de produits phytosanitaires dans les jardins publics, en vue de préserver la qualité de l'eau et la biodiversité. Un « référentiel écologique » a vu le jour ; il définit le cahier des charges à respecter pour l'obtention du label « jardin écologique ». Ce label s'ajoute à un autre label européen EVE attribué par Ecocert et déjà opérationnel. En France, la loi du 12 juillet 2010 dite Grenelle II (article 255) oblige les communes et les EPCI à fiscalité propre de plus de , les conseils généraux et les conseils régionaux à élaborer un rapport annuel de développement durable (RADD). Le Commissariat général au développement durable a publié en août 2016 des éléments méthodologiques pour l’élaboration de ce rapport. Gouvernance dans les entreprises : responsabilité sociétale des entreprises (RSE) Puissantes au niveau international, créatrices de richesses et consommatrices de ressources, les entreprises ont une capacité d’intervention qui peut se révéler particulièrement efficace en faveur du développement durable : elles participent directement au développement économique par leurs investissements ; à travers les conditions de travail qu’elles proposent à leurs salariés, elles participent à créer ou réduire des inégalités sociales ; consommatrices de ressources naturelles, productrices de déchets et génératrices de pollutions, leurs activités modifient plus ou moins profondément l’environnement. Pour le respect d'objectifs de développement durable par les entreprises, spécifiquement on parle de responsabilité sociale des entreprises (corporate social responsability) ou plus précisément de responsabilité sociétale des entreprises puisque le volet de responsabilité ne correspond pas uniquement au volet « social ». La responsabilité sociétale des entreprises est un concept par lequel les entreprises intègrent les préoccupations sociales, environnementales, voire de bonne gouvernance dans leurs activités et dans leur interaction avec leurs parties prenantes sur une base volontaire. En effet, à côté des obligations réglementaires et législatives existe tout un champ d'actions possibles sur la base du volontariat et qui peut s'appuyer notamment sur des normes : à citer cependant en France, une loi relative aux nouvelles régulations économiques (NRE) qui incite les entreprises cotées en bourse à inclure dans leur rapport annuel une série d'informations relatives aux conséquences sociales et environnementales de leurs activités. La notion de développement durable humain en entreprise devient actuelle à la suite des nombreux problèmes d'absentéisme, de stress et de burn-out. Elle est en lien direct avec le comportement managérial responsable en interne et en externe. Depuis le début des années 2000, bon nombre d'entreprises se sont dotées de directions du développement durable. Elles ont engagé des politiques souvent ambitieuses pour faire évoluer les comportements internes et incarner de manière tangible leurs responsabilités sociale et environnementale. En août 2019, François-Henri Pinault présente le « Fashion pact » au G7 de Biarritz, un pacte regroupant 147 marques de l'industrie de la mode et visant à agir dans les domaines du climat, de la biodiversité et des océans. Éducation au développement durable Dans l'enseignement En mars 2005, lors d'une réunion de haut niveau des ministères de l'environnement et de l'éducation à Vilnius (Lituanie), a été adoptée une stratégie européenne pour l'éducation en vue du développement durable. L’éducation a été présentée non seulement comme un droit de l'homme, mais également comme une condition sine qua non du développement durable et comme un outil indispensable à une bonne gouvernance, à des décisions éclairées et à la promotion de la démocratie. L'éducation au développement durable (EDD) conduit à une prise de conscience plus grande et une autonomie accrue permettant l’exploration de nouveaux horizons et concepts et l’élaboration de méthodes nouvelles. En août 2004 avait déjà été défini un cadre de mise en œuvre de cette stratégie pour l'Europe. Des cadres de mise en œuvre ont également été définis pour l'Afrique, les États arabes, l'Asie/Pacifique, l'Amérique latine et les Caraïbes. En septembre 2005 a été approuvé le plan international de mise en œuvre de la Décennie des Nations unies pour l’éducation en vue du développement durable, lors d'une session de l’Unesco. Ce plan a défini un cadre pour la décennie 2005-2014. Dans les différents États-membres de l'Union européenne, des actions sur l'éducation ont été intégrées dans la stratégie nationale de développement durable. En France, l'éducation au développement durable a été intégrée dans les enseignements de collège et lycée. Avec la réforme des programmes de terminale en 2019 qui vient clore le changement de tous les programmes du secondaire (accessibles sur Eduscol), une vision globale des programmes est désormais possible. Il apparaît que les sciences de la vie et de la Terre (SVT) sont la matière la plus mobilisée, tout au long du collège, en seconde et en spécialité SVT au lycée, avec des thèmes tels que le réchauffement climatique, l'érosion, la biodiversité et la gestion des ressources naturelles. La géographie est aussi impliquée, avec la question de la gestion des ressources et du réchauffement climatique (seconde). Le préambule du programme de seconde s'appuie sur le concept de « transition » pris dans un sens opératoire, commun à toutes les sciences humaines. Il est à noter que cet enseignement peut aussi s'appuyer sur une série de dispositifs soutenant les actions concrètes mises en œuvre au sein des établissements. Le ministère de l'Éducation nationale français a également développé des méthodes d'éducation utilisant les technologies de l'information et de la communication pour l'enseignement (TICE). En France aussi, il a été créé en 2011 pour la session 2013 une filière préparant au Baccalauréat sciences et technologies de l'industrie et du développement durable ou cette dernière notion y est intégrée totalement aux programmes. En France, une dimension de développement durable est généralement intégrée dans l'enseignement supérieur. Dans les écoles d'ingénieurs par exemple, les élèves sont informés de leurs obligations futures à travers la diffusion de la charte d'éthique de l'ingénieur, selon laquelle : « L'ingénieur inscrit ses actes dans une démarche de « développement durable ». L’article 55 de la Loi Grenelle 1 du 3 août 2009 stipule : « Les établissements d’enseignement supérieur élaboreront, pour la rentrée 2009, un « Plan vert » pour les campus. Les universités et grandes écoles pourront solliciter une labellisation sur le fondement de critères de développement durable ». Un canevas de plan vert d'établissement a été préparé par la Conférence des Grandes Écoles, le Réseau français des étudiants pour le développement durable et la Conférence des présidents d'université. Le canevas respecte l'architecture de la stratégie nationale de développement durable en structurant les actions selon neuf défis clés. Des formations en ligne ouvertes à tous (MOOC, massive open online course en anglais) sur le thème du développement durable ont été développées sur les plateformes FUN, Coursera et l'université des Colibris. Dans les entreprises et les administrations Les entreprises ont en général adopté dans leur stratégie des chartes de développement durable. La communication en interne sur ce sujet a cependant souvent laissé sceptiques les employés, en raison de distorsions avec les pratiques sociales observées sur le terrain. En France, un certain nombre de dirigeants sont formés régulièrement dans différents organismes, comme le Collège des hautes études de l'environnement et du développement durable, l'institut Cap Gemini sur les aspects informatiques, ou échangent des informations dans le cadre de groupes d'anciens élèves d'écoles (X-environnement pour l'École polytechnique, ISIGE Alumni pour l'ISIGE-MINES ParisTech). En France toujours, les ingénieurs sont tenus, au moins théoriquement, de respecter la charte d'éthique de l'ingénieur élaborée par Ingénieurs et scientifiques de France. Dans la société civile Dans la société civile, ce sont les associations et les organisations non gouvernementales qui contribuent le plus à la sensibilisation du grand public. Les grandes ONG (WWF, Les Amis de la Terre, Secours catholique, CCFD-Terre solidaire, Action contre la faim, Amnesty International…) mettent en œuvre des démarches de responsabilité sociétale et organisent régulièrement des campagnes de sensibilisation sur des aspects particuliers du développement durable. Les sites internet de ces associations sont par ailleurs des outils de mobilisation remarquables. Les outils de calcul de l'empreinte écologique, librement accessibles sur la Toile, permettent de faire prendre conscience du problème environnemental. Organisations internationales Les Nations unies organisent chaque année des Journées mondiales de sensibilisation et consacrent chaque année à un thème lié à la protection de l'environnement. En 2010, elles mettent l’accent sur la biodiversité. 2011 est instituée année internationale des forêts. Outils et mesure du développement durable PIB et développement durable Le produit intérieur brut est un indice très employé dans les comptabilités nationales pour mesurer la croissance économique, au point de conditionner une grande part des raisonnements et stratégies économiques. On dit que l'on est en croissance ou en récession selon que le PIB est en augmentation ou en diminution. Le PIB est censé mesurer la croissance économique sur le long terme, mais il prend mal en compte la variation du capital naturel (éventuellement fossiles) qui est un effet de long terme. C'est notamment la raison pour laquelle le PIB est critiqué par certains auteurs, qui en soulignent les limites pour la mesure effective de la richesse d'un pays. Le PIB est calculé par agrégation de la valeur ajoutée des entreprises, elle-même calculée en comptabilité nationale en fonction de la production et des consommations intermédiaires. Les indicateurs de développement durable tels que ceux qui figurent dans le Global Reporting Initiative ou les indicateurs demandés par la loi relative aux nouvelles régulations économiques en France, ne sont pas intégrés dans ces calculs. La question se pose donc de savoir si le PIB est vraiment une mesure fiable de développement durable. Les insuffisances du PIB comme mesure de la croissance sur le long terme sont à l'origine des réflexions sur le PIB vert. En France, l'Insee fait néanmoins figurer le PIB comme l'un des onze indicateurs de la stratégie nationale de développement durable. La France a une réflexion sur l'utilisation de nouveaux indicateurs dont l'empreinte écologique. L'Europe a annoncé qu'elle publierait dès 2010 un indice présentant la pression exercée sur l'environnement (émissions de gaz à effet de serre, réduction des espaces naturels, pollution atmosphérique, production de déchets, utilisation des ressources, consommation d'eau et pollution de l'eau), qui accompagnera la publication du PIB. Indices agrégés Les instruments macroéconomiques classiques (PIB par exemple) s'avèrent insuffisants, voire dans certains cas déficients pour mesurer le développement durable : la croissance économique apparaît ainsi dans certains cas comme déconnectée, voire opposée aux objectifs du développement durable. Il s'agit donc de construire un indicateur agrégé qui permet de rendre compte au mieux de l'efficacité d'une politique de développement durable. Plusieurs indices ont été établis, qui concernent chacun un ou plusieurs « piliers » du développement durable : Sur le plan économique, il est possible de donner une valeur monétaire à l'environnement (on parle alors de capital naturel) ou de PIB vert ; Sur le plan environnemental, il existe les indicateurs suivants : l'indice de performance environnementale, le bilan carbone ou les tonnes de émises (bilan carbone personnel pour les particuliers), la consommation énergétique, l'empreinte écologique, la biocapacité et le déficit écologique - différence entre l'empreinte écologique et la biocapacité - (ou excédent écologique si la biocapacité est supérieure à l'empreinte écologique) ; l'indice planète vivante (The Living Planet Index ou LPI pour les anglophones), indicateur d'état de la biodiversité mondiale, qui montre une diminution de 58 % entre 1978 et 2012 des populations mondiales de vertébrés (poissons, oiseaux, mammifères, amphibiens et reptiles), Sur le plan social, on parle d'indice de développement humain (qui mesure la richesse, le taux d'alphabétisation et la santé d'une population), de coefficient de Gini, d'indice de bien-être durable ou d'indicateur de progrès véritable… Tout indice est néanmoins sujet à caution : la manière d'agréger les données exprime un parti-pris. Qu'est-ce qu'un pays « avancé en développement durable » ? Est-ce un pays qui consomme peu de ressources (comme le Bangladesh), ou est-ce un pays avec de nombreux parcs nationaux protégés (comme les États-Unis) ? Outils d'aide à la décision pour le développement durable L’OQADD, outil de questionnement et d’aide au développement durable, est une grille de questionnement permettant de susciter des débats sur les problématiques relatives au développement durable, en mettant en avant les points-clefs d'un projet. Ils se réclament à la fois de l’évaluation des politiques et de l’analyse multicritère, mais sont plutôt utilisés pour questionner des politiques ou des projets au regard des critères de développement durable. Ce sont des grilles de critères en arborescence, déclinants les principales dimensions du développement durable (économie, écologie, social, gouvernance…). Cet outil peut être soumis aux différents acteurs intervenant dans la mise en place d’un nouveau projet : des élus, des industriels, des associations de défense de l’environnement, des syndicats… Indicateurs et normes La mesure microéconomique du développement durable pour les entreprises peut se faire par l'intermédiaire des critères du Global Reporting Initiative, comportant 79 indicateurs économiques. Par ailleurs l'OCDE a effectué des travaux importants sur les indicateurs environnementaux, et a développé pour cela le modèle pression-état-réponse. Les principales normes et certifications qui peuvent être appliquées par les entreprises sont la norme environnementale ISO 14001, la norme sur le management de l'énergie ISO 50001, la norme sur la qualité ISO 9001, la norme ISO 45001 sur la santé et sécurité au travail, et le standard SA 8000 sur l'éthique et le social. Il existe également un guide SD 21000 (en France) pour la prise en compte des enjeux du développement durable dans les petites entreprises. Une nouvelle norme sur la responsabilité sociétale des entreprises, l'ISO 26000, a été mise en application en 2010. Cette norme intègre la responsabilité sociétale, la gouvernance et l'éthique d'une manière plus élargie. Par ailleurs, les entreprises peuvent être notées par des agences de notation sociétale, qui prennent en compte dans leur notation des critères extra-financiers (environnementaux et sociaux). Les entreprises sont jugées par ces agences sur la base de leurs rapports de développement durable, ou de tout document permettant d'apprécier les performances économiques, environnementales et sociales. La notation sociétale est ensuite utilisée par les investisseurs pour constituer des portefeuilles de valeurs appelés investissements socialement responsables (ISR). Indicateurs clés pour le suivi de l'économie circulaire La transition vers une économie réellement économe en ressources passe par l'utilisation optimale des ressources naturelles, dans ce que l'on appelle un modèle d'économie circulaire, dans lequel les déchets sont réutilisés comme matières premières de l'industrie. La France retient en 2021 11 indicateurs clés pour le suivi de l'économie circulaire, comme par exemple la consommation intérieure de matières par habitant, et la productivité matières. Application opérationnelle dans les entreprises La mise en œuvre d'une démarche de développement durable dans une entreprise est un processus complexe, qui a pour objectif la triple performance (économique, sociale et écologique) de l'entreprise. Elle engage tous les domaines de l'entreprise. Il s'agit de mettre en place une véritable gestion de programme transverse, avec des correspondants dans les principales entités de l'organisation, en impliquant les parties prenantes dans un modèle d'entreprise durable. Nous donnons ci-dessous quelques exemples de domaines d'application particulièrement concernés par la mise en œuvre d'une démarche de développement durable ou de responsabilité sociétale. Ventes et logistique Les ventes et la logistique sont particulièrement impactées par les questions de développement durable. La fonction administration des ventes des entreprises est en effet responsable de la livraison au client final, qui fait appel le plus souvent au transport routier, fortement consommateur de produits pétroliers. Marketing Il s'agit d'identifier les opportunités et les menaces dans le contexte d'une sensibilité accrue des consommateurs et du marché aux enjeux du développement durable, en accord avec les parties prenantes. Le marketing doit aussi véhiculer vers les autres domaines de l'entreprise les valeurs demandées par le marché. Certaines sociétés se contentent parfois d'opérations de communication plutôt que de vraiment changer le fonctionnement de l'entreprise ; on parle alors d'écoblanchiment (en anglais : greenwashing). Élizabeth Reiss montre que les entreprises ont intérêt à créer des produits et des services responsables, parce que les clients le demandent, et parce que c'est rentable. Elle donne des pistes pour revoir les modes de production et de communication. L'entreprise peut dans certains cas y gagner en productivité et fidéliser ses équipes de salariés et ses clients. Christophe Sempels et Marc Vandercammen analysent le comportement du consommateur responsable, et soulignent le rôle du marketing dans la mise en œuvre d'innovations durables et dans leur acceptation par les marchés. Ils cherchent à créer le lien entre une demande et une offre plus responsables, en passant d'une logique « produit » à une logique « service ». Plusieurs programmes de fidélisation ayant pour but la modification des comportements de consommations au travers d'outils marketing ont vu le jour ces dernières années. C'est par exemple le cas de aux États-Unis ou encore du programme en France. Ces types de programme utilisent le principe de prime pour motiver le consommateur à changer ses habitudes de consommation. Recherche et développement Les caractéristiques du développement durable que sont les échelles temporelles et spatiales multiples, et l'interconnexion des problèmes, conduisent à des problématiques nouvelles de recherche et développement, à la recomposition de certains champs de recherche, et à l'apparition de nouvelles disciplines. La réponse aux demandes du développement durable passe par un accroissement des travaux de nature interdisciplinaire, entre sciences de la nature et sciences humaines et sociales. Il est nécessaire de structurer la recherche scientifique de manière plus fédérative, en organisant des institutions transversales et internationales. La demande d'expertise nécessite souvent la coopération de disciplines différentes. La recherche pour le développement durable nécessite de meilleures données, plus abondantes, et des outils plus performants dans le domaine de la modélisation et de la prospective. La recherche doit imaginer de nouvelles formes de coopération avec les autres acteurs, responsables politiques, entreprises, associations, syndicats, et autres composantes de la société civile. Le marketing doit répondre à la question de savoir s'il faut investir dans le recyclage ou investir dans de nouveaux produits propres, ce qui impose des choix dans la recherche et développement. La recherche peut se faire dans des laboratoire de recherche internes aux entreprises, ou en partenariat avec des laboratoires publics, par exemple dans le cadre de pôles de compétitivité. La recherche et développement peut avoir besoin d'outils de gestion des connaissances pour améliorer l'efficacité de ses recherches. Elle doit procéder à une veille technologique orientée vers des objectifs de développement durable. Aspects juridiques Sur le plan règlementaire, le développement durable se traduit par un ensemble de textes juridiques, qui peuvent être établis soit au niveau européen (directives de l'Union européenne), soit au niveau des États. Quelques exemples de règlements européens sont le règlement REACH sur les substances chimiques, ou la directive sur les déchets d'équipements électriques et électroniques (DEEE), pour ce qui concerne le pilier environnemental. Au niveau des États, le droit de l'environnement et le droit social s'appliquent sur chacun de ces piliers environnemental et social (en France le code de l'environnement et le code du travail). En France : La charte de l'environnement, de valeur constitutionnelle, stipule à l'article 6 que « les politiques publiques doivent promouvoir un développement durable. À cet effet, elles concilient la protection et la mise en valeur de l'environnement, le développement économique et le progrès social ». Les marchés publics, soumis à une réglementation stricte, peuvent intégrer des clauses environnementales et sociales, en vertu des articles L.2111-1 et L.2112-2 du code de la commande publique. Le code de la commande publique concerne les entreprises en tant que fournisseurs des organismes publics. La loi relative aux nouvelles régulations économiques, dans son article 116, impose aux entreprises cotées en bourse de produire des rapports d'activité qui rendent compte des conséquences environnementales et sociales de leur activité. Les services juridiques des entreprises doivent procéder à une veille juridique, éventuellement pour les petites et moyennes entreprises (PME) avec l'aide des chambres de commerce et d'industrie. Outre cette veille, les services juridiques sont amenés à vérifier la conformité des actions de développement durable de l'organisation dans ses déclinaisons économiques, sociales et environnementales par rapport aux normes applicables et la communication extra-financière qui l'accompagne. Achats Le respect de critères environnementaux, sociaux, et économiques dans l'élaboration des produits d'une entreprise dépend non seulement de ses processus internes, mais aussi de la qualité des produits achetés auprès des fournisseurs de l'entreprise, des services inhérents à ces achats, en particulier le transport, ainsi qu'en amont de ceux-ci. La performance en matière de développement durable dépend donc de l'intégration progressive de la chaîne d'approvisionnement dans le référentiel de responsabilité sociétale des entreprises concernées. Il est nécessaire de revoir la stratégie achats (réduction des coûts, élimination des déchets, augmentation de l'efficacité énergétique, conservation des ressources), en faisant participer les partenaires fournisseurs de l'entreprise. Gérer le développement durable dans les achats des entreprises, des organismes publics ou encore des collectivités locales peut se faire en tenant compte du coût global d'acquisition qui, outre le prix d'achat, intègre le transport des produits achetés, le dédouanement, les garanties, les coûts de stockage, l'obsolescence, les déchets générés lors de la production et en fin de vie. L'engagement d'un plan d'action développement durable aux achats répond généralement à des arguments de quatre natures différentes : un argument citoyen, comme moyen d'action en vue de permettre aux générations du présent de répondre à leurs besoins sans compromettre la capacité des générations futures de répondre aux leurs ; un argument économique, relatif aux économies d'achat qui proviennent d'une meilleure conception produit ; un argument communication, relatif aux risques sur l'image (réputation) ; un argument légal, consistant en la réponse aux obligations règlementaires (code de la commande publique dans le secteur public en France). Finance La mise en œuvre d'une politique de développement durable dans les entreprises dépend largement de l'utilisation des ressources de l'entreprise. Ces ressources peuvent être des actifs physiques (immobilisations au sens classique du terme), mais aussi des actifs immatériels (immobilisations incorporelles) ou tout simplement des ressources humaines, c'est-à-dire des salariés et des partenaires de l'entreprise. L'atteinte des objectifs de développement durable dépend en grande partie de la façon dont les entreprises vont orienter l'action de l'ensemble de ces ressources (employés, parties prenantes, organisation…). Des réflexions apparaissent sur de nouvelles méthodes d'estimation de la valeur financière des entreprises à travers la notion de capital immatériel. Les actifs financiers que sont les investissements socialement responsables (ISR) permettent d'orienter les portefeuilles de valeurs financières vers des actifs qui respectent des critères à la fois environnementaux, sociaux et économiques. L’ISR a une vision à long terme de nature à donner des résultats meilleurs que ceux des sociétés qui agissent dans la perspective d'objectifs financiers à court terme. Selon une définition officielle donnée en juillet 2013 par le Forum pour l'investissement responsable (FIR), association réunissant les acteurs de l'ISR en France, et l'Association française de la gestion financière (AFG), association des acteurs du métier de la gestion, « L'ISR est un placement qui vise à concilier performance économique et impact social et environnemental en finançant les entreprises et les entités publiques qui contribuent au développement durable quel que soit leur secteur d'activité. En influençant la gouvernant et le comportement des acteurs, l'ISR favorise une économie responsable ». L’ISR est encore trop récent et le recul insuffisant pour le vérifier de façon tangible et assez large, mais l’observation des fonds ISR les plus anciens laisse penser que leur rentabilité est comparable, voire parfois meilleure que celle des autres fonds. Il faut également signaler le développement de toute une branche de la finance, la finance du carbone, liée aux enjeux des gaz à effet de serre. Le projet Bluenext s'inscrit dans ce type d'activités. Durant le mois de janvier 2019, seize très grandes entreprises européennes (ENEL, EDF, ENGIE, EDP, Ferrovie dello Stato Italiane, Iberdrola, Icade, Ørsted, RATP, SNCF Réseau, Société du Grand Paris, SSE, Tennet, Terna, Tideway, Vasakronan) lancent le Corporate Forum on Sustainable Finance, un réseau tourné vers le développement d'outils du financement vert. Systèmes d'information, numérique Il existe une croyance selon laquelle l'informatique serait « virtuelle » ou « immatérielle ». La « dématérialisation », qui consiste à faire passer les flux d'information d'un support papier à un support électronique, est trompeuse, puisque la matière n'a fait que changer de forme. Elle est pourtant souvent présentée, y compris par les spécialistes du développement durable, comme un avantage du point de vue environnemental, car elle supprimerait la consommation de papier. Dans les faits, le « zéro papier » est . Une analyse qualitative des avantages et des inconvénients de la dématérialisation du point de vue du développement durable montre en effet que les choses ne sont pas si simples. En particulier, ce processus n'améliore pas la qualité environnementale des produits. L'informatisation massive de l'économie depuis une cinquantaine d'années, que l'on appelle aujourd'hui en France transformation numérique, nous a fait passer dans une économie de l'« immatériel », dans laquelle l'augmentation des flux de gestion pilotés par l'informatique s'est accompagnée d'une augmentation parallèle des flux de biens marchands, donc des quantités de ressources naturelles consommées, comme le montre Jean-Marc Jancovici. La transformation numérique concerne de plus en plus des usages de particuliers. Elle s'accompagne d'un impact environnemental important correspondant, selon un rapport de l'association française The Shift Project publié en octobre 2018, à 3,7 % des émissions de gaz à effet de serre mondiales, soit plus que le trafic aérien. Selon un rapport de juillet 2019 de la même association, la vidéo en ligne, ou streaming vidéo, représente à elle seule 1 % des émissions de gaz de effet de serre mondiales. Selon Frédéric Bordage (GreenIT), la multiplication exponentielle des objets connectés (internet des objets) est la principale responsable de l'impact environnemental du numérique au tournant des années 2020. Les initiatives actuelles sur l'application des principes de développement durable en informatique concernent le plus souvent le matériel informatique proprement dit (recyclage et consommation électrique). Il existe une certification internationale pour les équipements, la certification TCO, ainsi qu'une directive européenne sur les substances dangereuses, la directive RoHS. L'informatique durable () se concentre essentiellement sur les bonnes pratiques portant sur le matériel informatique. Plus fondamentalement, le développement durable pose de nouveaux défis : faire face à l'augmentation des connaissances, gérer une nouvelle relation avec les clients, respecter des réglementations de plus en plus complexes. Pour cela, il est nécessaire de restructurer les systèmes d'information selon une nouvelle architecture : celle du système d'information durable, combinant gestion des données de référence (MDM), système de gestion de règles métier (BRMS) et gestion des processus métiers (BPM). L'application aux processus d'affaires vertueuse sur le plan du développement durable pose le problème du partage de l'information environnementale et sociale entre les entreprises et les administrations publiques, ainsi qu'avec leurs parties prenantes. Concernant l'application au volet environnemental proprement dit, on parle d'éco-informatique (les Américains emploient l'expression Green IT 2.0). Les systèmes d'information actuels sont très hétérogènes et n'ont le plus souvent pas été conçus pour gérer une information à caractère sociétal. Ainsi, les exigences de développement durable nécessitent-ils de structurer les informations utiles pour la gestion des programmes concernés, et plus particulièrement pour la gestion des données et la structuration de réseaux de compétence. Le Royaume-Uni a mis en place une régulation publique de l'information environnementale. La France mise sur l'effet de la loi relative aux nouvelles régulations économiques pour réguler l'économie. D'une façon générale, le développement durable pose le défi de gérer une grande quantité d'informations non structurées ; pour cela, plusieurs méthodes sont apparues : les techniques du web sémantique s'appuyant sur des ontologies et des métadonnées ; les projets d'ingénierie des connaissances ; les systèmes wiki comme l'encyclopédie Ékopédia. Un autre problème crucial qui se pose est de savoir quels sont les impacts de la course à la puissance informatique en matière environnementale, et si la fameuse loi de Moore est véritablement pertinente à long terme. On constate que les ordinateurs et les logiciels sont généralement surdimensionnés par rapport aux besoins et que l'arrivée incessante de nouvelles versions de matériels et de logiciels a pour effet de diminuer la durée d'amortissement des équipements, donc de générer des déchets. La convergence entre l'internet et le développement durable fait l'objet des réflexions du forum TIC21. L'Association pour le développement des outils multimédias appliqués à l'environnement (ADOME) a développé un moteur de recherche du développement durable, Ecobase 21, composé de . Communication Avec la mise en place de programmes de développement durable dans les entreprises et de l’agenda 21 dans les collectivités territoriales, s’est posée, à partir de 2002, la question de la « communication sur le développement durable ». Autrement dit, comment sensibiliser l’opinion au développement durable, impliquer les professionnels, et parfois convaincre les décideurs ? Cette question a en partie trouvé sa réponse dans la création d'une direction du développement durable, qui est désormais perçue comme un poste stratégique dans l'entreprise. Une association loi de 1901, le Collège des Directeurs du développement durable (C3D), participe à faire évoluer la fonction du directeur de développement durable. Plusieurs autres pistes et éléments de réponse sont donnés par des professionnels : « Il n’y a pas de communication miracle, mais un travail sur la durée ». En outre, il est souhaitable : « d’impliquer les associations, d'impliquer physiquement les citoyens (événements festifs, comités citoyens, témoignages), et d’agir plus sur l’émotionnel, car on convainc souvent mieux avec des événements festifs que des arguments scientifiques ». Concernant éco-produits et éco-services, la communication doit mettre « simultanément en avant l’aspect environnement/social et les égo-promesses (être en meilleure santé, avoir une plus jolie peau) », sous peine de ne pas convaincre et de ne pas vendre. « On passe d'une logique de conformité à une logique d'innovation », explique Michel Rios. Service après-vente La mise en œuvre d'une démarche de développement durable dans le domaine du service après-vente se traduit le plus souvent par une politique de réparabilité des produits, qui peut permettre à l'entreprise de fidéliser ses clients et éviter l'obsolescence programmée, source de coûts économiques et environnementaux élevés. Application opérationnelle dans les administrations En France La charte de l'environnement, de valeur constitutionnelle, stipule à l'article 6 que « les politiques publiques doivent promouvoir un développement durable. À cet effet, elles concilient la protection et la mise en valeur de l'environnement, le développement économique et le progrès social ». Les marchés publics, soumis à une réglementation stricte, peuvent intégrer des clauses environnementales et sociales, en vertu des articles L.2111-1 et L.2112-2 du code de la commande publique. Tableau synthétique Le développement durable reste un concept pouvant être décliné selon de nombreux axes : ses fondements peuvent être vus comme étant philosophiques et/ou scientifiques, ses applications touchent tout autant le droit que les techniques de pointe ou la gouvernance. Le tableau ci-dessous présente les domaines dans lesquels le développement durable est appliqué, ainsi qu'une liste, non exhaustive, des articles associés. Critiques de la notion Le terme de « développement durable » a été critiqué pour le flou qui l'entoure. Luc Ferry écrit ainsi : « Je sais que l'expression est de rigueur, mais je la trouve si absurde, ou plutôt si floue qu'elle ne dit rien de déterminé. (…) qui voudrait plaider pour un « développement intenable » ! Évidemment personne ! […] L'expression chante plus qu'elle ne parle ». Le concept rencontre des critiques à plusieurs niveaux. Ainsi, considère que la notion de développement durable est dangereuse, car débouchant sur des mesures aux effets inconnus et potentiellement néfastes. Il écrit ainsi : . À l'opposé de cette notion, il défend l'efficacité de la propriété privée pour inciter les producteurs et les consommateurs à économiser les ressources. Selon Baden, . Elle permet de maintenir l'exercice effectif de la responsabilité individuelle et de développer les mécanismes d'incitation à la protection de l'environnement. L'État peut dans ce contexte . Certains auteurs, tels que les économistes américains et Turner, par exemple, soutiennent en 1990, que la dégradation du capital naturel est irréversible, en soulignant que la capacité de l'environnement à assimiler les pollutions est limitée. D'autres auteurs, comme en 2003, appartenant au courant de l'économie écologique, mettent en avant le caractère irremplaçable de certaines ressources naturelles, qui rend le capital naturel non substituable. Le développement durable est également critiqué en ce qu'il peut n'être qu'un outil des pays du Nord contre les pays en développement : la géographe spécialiste du Tiers-Monde Sylvie Brunel, estime que les idées de développement durable peuvent servir comme paravent aux idées protectionnistes des pays du Nord pour empêcher le développement par le commerce des pays du Sud. Selon elle, le développement durable . En offrant ainsi un prétexte au protectionnisme des pays développés, . Certains auteurs dénoncent une dimension religieuse ou irrationnelle du développement durable. Sylvie Brunel parle ainsi de et souligne ainsi que . Pour Claude Allègre, il s'agit d'une religion de la nature, qui a oublié que la préoccupation essentielle devait être l'homme : . D'autres penseurs soulignent encore les menaces potentielles pour les libertés individuelles que les idées au fondement du développement durable peuvent représenter. Le philosophe Luc Ferry voit par exemple dans les idées de Hans Jonas des idées potentiellement totalitaires et souligne les risques du développement durable à cet égard. Cette crainte est également partagée par nombre de libéraux : . Le philosophe Dominique Bourg craint une dérive vers des modèles de substitution à durabilité faible, qui admettent que la destruction du capital naturel – qui découle immanquablement des activités économiques – peut être compensée par la création de capital reproductible et donc de techniques diverses. Les tenants de l'écologie politique considèrent que le terme de développement durable est un oxymore car les ressources naturelles sont finies alors que le mot « développement » présuppose, selon eux, une exploitation toujours plus importante, voire infinie, de ces ressources. Ainsi, Serge Latouche, sous un angle économique, ou Jean-Christophe Mathias, sous un angle philosophico-juridique, critiquent ce concept. Jean-Christophe Mathias estime que le concept de développement durable est car il propose de régler des problèmes environnementaux par ce qui en est, selon lui, l'origine, à savoir la croissance économique continue. Il considère que le développement durable, de même que le principe de précaution, n'est pas adapté à une politique volontariste de protection de la nature car il donne à ses yeux la primauté à l'économie sur les questions sociale et environnementale. Serge Latouche, de son côté, interroge les différentes dénominations du concept, à savoir développement durable, soutenable ou supportable et conclut que le développement serait problématique du fait de la finitude de la planète. Il propose de sortir de l'« économicisme » et d'organiser la décroissance. L'éleveur Xavier Noulhianne critique la notion de développement durable car, selon lui, et qu'en particulier cette notion ne remettrait pas en cause l'industrialisation en cours des activités humaines et notre statut assigné d'administré ; elle concourrait même plutôt à renforcer leur légitimité. D’autres critiques estiment que les trois dimensions, écologique, sociale et économique, ne suffisent pas à refléter la complexité de la société contemporaine. C'est ainsi que l'organisation Cités et Gouvernements locaux unis (CGLU) a approuvé en 2010 la déclaration « La culture : quatrième pilier du développement », fruit du travail réalisé dans le cadre de l'Agenda 21 de la culture. Enfin, la définition classique du développement durable issue de la commission Brundtland (1987) peut apparaître à certains dépassée. En effet, il ne s'agirait aujourd'hui plus de viser, comme dans les années 1980, la satisfaction des besoins lointains de générations futures. C'est la satisfaction actuelle des besoins qui est maintenant compromise par les crises environnementales et sociales que connaît le . Il ne s'agit plus, selon cette critique, d'anticiper les problèmes, mais de les résoudre. Le développement durable pourrait alors laisser place à la notion de « développement désirable », terme employé par le designer Thierry Kazazian, qui regroupe l'ensemble des solutions économiquement viables aux problèmes environnementaux et sociaux que connaît la planète. Ce nouveau mode de développement, facteur de croissance économique et d'emplois, serait une véritable « économie verte », fondée sur l'économie sociale et solidaire, l'écoconception, le biodégradable, le bio, la dématérialisation, le réemploi-réparation-recyclage, les énergies renouvelables, le commerce équitable ou la relocalisation. Notes et références Notes Références Voir aussi Bibliographie Par ordre alphabétique d'auteur : . Damien Bazin, Sauvegarder la Nature. Une introduction au principe responsabilité de Hans Jonas, Ellipses, coll. « philo », 128 p., 2006 . Dominique Bidou, La Dynamique du développement durable, Presses de l'université du Québec, 2002. Farid Baddache, Le Développement durable au quotidien, Éditions d'organisation, 2006 . Philippe Bihouix, L'Âge des low tech, Vers une civilisation techniquement soutenable, Seuil, 2014. Lester R. Brown, Éco-économie, une autre croissance est possible, écologique et durable, Seuil, 2001. Jared Diamond, Effondrement. Comment les sociétés décident de leur disparition ou de leur survie, Gallimard, NRF essais, 2006 . Serge Dufoulon, Le développement durable : la domestication de l’environnement, colloque international de Bratislava. (GREG – Pays de Vysegrad). 2009 (Lire en ligne). Geneviève Férone, Dominique Debas, Anne-Sophie Genin, Ce que développement durable veut dire, Éditions d'Organisation, 1995. . Gérard Granier, Yvette Veyret, Développement durable. Quels enjeux géographiques ?, dossier , Paris, La Documentation française, 2006, . André Jean Guérin et Thierry Libaert, Le développement durable, Dunod, coll. « Topos ». 2008. Hans Jonas, Le Principe responsabilité, 1979. Serge Latouche, Faut-il refuser le développement ?, PUF, 1986. Jean-Frédéric Morin, Amandine Orsini, Maya Jegen, Politique internationale de l'environnement, les Presses de Sciences Po, 2015, , . Bryan G. Norton, Sustainability: a philosophy of adaptive ecosystem management, University of Chicago Press, 2005. René Passet, L'économique et le vivant, Payot 1979, Économica 1995. Les fondements bioéconomiques d’un développement durable, In : Économie appliquée (Paris), 65, , juin 2012, . Gilles Pennequin, Antoine-Tristan Mocilnikar, L'Atlas du développement durable et responsable, Éditions d'Organisation, 2011, 450 p. . Emmanuelle Raynaud, Florence Depoers, Caroline Gauthier, Jean-Pascal Gond, Grégory Schneider-Maunoury, Le développement durable au cœur de l'entreprise : pour une approche transversale du développement durable, Dunod, 2006. Revue Développement durable et territoires. Nicholas Georgescu-Roegen (1906-1994), Economics and mankind’s ecological problem, in U.S. Economic Growth from 1976 to 1986: Prospects, Problems, and Patterns, vol. 7, The Limits to Growth, Joint Committee, Congress of the United States, Washington, U.S. Government Printing Office, 1976, . Naomi Klein, Tout peut changer : Capitalisme et changement climatique, Actes Sud, 2015. Filmographie Articles connexes Voir . Concepts Durabilité Facteur 4 Aspects philosophiques et éthiques Hypermodernité Planétarisation Sémiocratie Éthique, Éthique des affaires, Éthique de l'environnement, Naturphilosophie Pilotage Sommet de la Terre Objectifs de développement durable Gouvernance Agenda 21, agenda 21 local (collectivités locales) Responsabilité sociétale des entreprises (entreprise) Aménagement du territoire Géonomie Direction régionale de l'Environnement, de l'Aménagement et du Logement Organisation mondiale de l'environnement Aspects politiques et juridiques Charte de l'environnement Droit de l'environnement Droits de la nature Pilier environnemental Environnement Écologie Écologie industrielle Empreinte écologique Énergie renouvelable, Cogénération Évaluation des écosystèmes pour le millénaire Équilibre ponctué Extinction de l'Holocène Jour du dépassement Risques d'effondrements environnementaux et sociétaux Planétarisation Qualité environnementale Recyclage Sustainable Building Alliance Pilier social Sciences humaines et sociales Capital humain Intelligence sociale Investissement socialement responsable Maldéveloppement Planification familiale Pilier économique Bioéconomie/Économie écologique Commerce éthique Commerce équitable Écomodernisme Finance du carbone Fiscalité écologique Taxe Tobin Économie post-industrielle Éco-communication Écoblanchiment Bonus-malus écologique Écotaxe Groupement régional d'animation et d'information sur la nature et l'environnement Management environnemental Transition énergétique Transition alimentaire Éducation à l'environnement et au développement durable Collège des hautes études de l'environnement et du développement durable Fondation pour l'éducation à l'environnement Responsabilité environnementale Éducation relative à l'environnement Centre permanent d'initiatives pour l'environnement Pilier culturel Éducation au développement Programme de communication, d'éducation, de sensibilisation et de participation du public Aspects religieux Pape Benoît XVI, encyclique Caritas in veritate Pape François, encyclique Laudato si' (2015) Sauvegarde de la Création Écologie intégrale Liens externes Bibliothèque nationale de France : portail du développement durable A Good Life For All Within Planetary Boundaries, Université de Leeds Économie du développement Altermondialisme Socioéconomie Discipline académique Pédagogie
969
https://fr.wikipedia.org/wiki/Direction%20r%C3%A9gionale%20de%20l%27Environnement
Direction régionale de l'Environnement
En France, les directions régionales de l'Environnement (DIREN) étaient des services déconcentrés de l'État français qui, sous l'autorité du préfet de région et des préfets de département, exerçaient certaines des attributions relevant du ministère de l'Écologie, de l'Énergie, du Développement durable et de la Mer (MEEDDM). Historique Les 26 DIREN, une par régions françaises métropolitaines et d'outre-mer, ont été créées en 1991 à la suite de la fusion des délégations régionales à l'Architecture et à l'Environnement (DRAE), des services régionaux d'aménagement des eaux, des délégations de bassin et des services hydrologiques centralisateurs. Entre 2009 et 2011, la réorganisation du MEEDDM a conduit à la création de nouvelles directions régionales : les directions régionales de l'Environnement, de l'Aménagement et du Logement (DREAL) par fusion des directions régionales de l'Équipement (DRE), des directions régionales de l'Industrie, de la Recherche et de l'Environnement (DRIRE) et des DIREN dans chaque région. Missions Les missions des DIREN étaient les suivantes : organiser, coordonner et, le cas échéant, assurer le recueil, le regroupement, l'exploitation et la diffusion de l'ensemble des données et des connaissances relatives à l'environnement ; participer à la définition et à la mise en œuvre des méthodes d'étude, d'aménagement, de gestion et de protection des milieux naturels et de leurs ressources, en veillant à l'adaptation de ces méthodes aux conditions régionales ; évaluer les besoins en eau ainsi qu'élaborer et suivre les documents de planification dans le domaine des eaux superficielles, souterraines et des milieux aquatiques ; coordonner l'action des services extérieurs chargés de la cartographie des risques naturels majeurs et de l'information sur ces risques ; émettre des avis sur certaines études d'impact et veiller à une bonne insertion des grands équipements dans le milieu environnant ; faire appliquer des législations relatives à l'eau, à la protection des sites, à la protection de la nature, aux études d'impact, à la publicité et aux enseignes et à la protection des paysages, notamment pour le littoral et la montagne, et, en lien avec les services départementaux de l'Architecture et du Patrimoine (SDAP) et les directions régionales des Affaires culturelles (DRAC), à celles relatives à l'architecture et à la protection et à la mise en valeur du patrimoine architectural et urbain ; assurer des missions d'inspection et de police relatives à la mise en œuvre de mesures de protection ; participer à la formation du conseil scientifique régional du patrimoine naturel de la région et en assurer le secrétariat ; instruire les demandes d'autorisation de travaux dans les sites inscrits et classés et rapporter devant la commission départementale de la nature, des paysages et des sites (CDNPS), réunie en formation « sites et paysages », les dossiers qui lui sont soumis ; instruire les affaires relatives aux réserves naturelles et aux biotopes protégés qui sont examinées par la commission départementale de la nature, des paysages et des sites réunie en formation « nature » ; rapporter devant la CDNPS les projets d'ouverture à l'urbanisation des espaces proches du rivage, tels que les prévoient les articles L. 146-4, alinéa 2, et L. 146-6 du code de l'urbanisme. Références Bibliographie Articles connexes Chronologie du droit de l'environnement en France Liste des services déconcentrés de l'État français Direction régionale de l'Environnement, de l'Aménagement et du Logement (DREAL) Liens externes Site du Ministère de la Transition écologique et solidaire Organisme relevant du ministère de l'Écologie (France) Direction régionale Organisme public disparu en 2009 Environnement en France Droit de l'environnement en France
971
https://fr.wikipedia.org/wiki/Deraeocoris
Deraeocoris
Deraeocoris est un genre d'insectes hémiptères prédateurs du sous-ordre des hétéroptères (punaises), de la famille des Miridae, de la sous-famille des Deraeocorinae, de la tribu des Deraeocorini. Les larves et les adultes ont pour proies principalement les acariens, les psylles, les pucerons et les thrips sur les arbres fruitiers, la vigne et les cultures légumières. Systématique Le genre Deraeocoris a été décrit par l'entomologiste allemand Carl Ludwig Kirschbaum en 1856. Espèces rencontrées en Europe Deraeocoris (Camptobrochis) pallens (Reuter, 1904) Deraeocoris (Camptobrochis) pallens pallens (Reuter, 1904) Deraeocoris (Camptobrochis) punctulatus (Fallén, 1807) Deraeocoris (Camptobrochis) serenus (Douglas & Scott, 1868) Deraeocoris (Deraeocoris) annulipes (Herrich-Schaeffer ,1842) Deraeocoris (Deraeocoris) cardinalis (Fieber, 1858) Deraeocoris (Deraeocoris) cordiger (Hahn, 1834) Deraeocoris (Deraeocoris) flavilinea (A. Costa, 1862) Deraeocoris (Deraeocoris) morio (Boheman, 1852) Deraeocoris (Deraeocoris) olivaceus (Fabricius, 1777) Deraeocoris (Deraeocoris) punctum (Rambur, 1839) Deraeocoris (Deraeocoris) ribauti Wagner, 1943 Deraeocoris (Deraeocoris) ruber (Linnaeus, 1758) Deraeocoris (Deraeocoris) rutilus (Herrich-Schaeffer, 1838) Deraeocoris (Deraeocoris) schach (Fabricius, 1781) Deraeocoris (Deraeocoris) scutellaris (Fabricius, 1794) Deraeocoris (Deraeocoris) trifasciatus (Linnaeus, 1767) Deraeocoris (Deraeocoris) ventralis Reuter, 1904 Deraeocoris (Deraeocoris) ventralis ventralis Reuter, 1904 Deraeocoris (Knightocapsus) lutescens (Schilling, 1837) Deraeocoris (Knightocapsus) putoni (Montandon, 1885) Deraeocoris (Plexaris) martini (Puton, 1887) Deraeocoris (Plexaris) martini martini (Puton, 1887) Liste des espèces Selon : Galerie Liens externes Notes et références Genre d'Hétéroptères (nom scientifique) Miridae Taxon décrit en 1856
975
https://fr.wikipedia.org/wiki/D%C3%A9claration%20universelle%20des%20droits%20de%20l%27homme
Déclaration universelle des droits de l'homme
La Déclaration universelle des droits de l'homme (DUDH) est adoptée par l'Assemblée générale des Nations unies le à Paris, au palais de Chaillot, par la . Elle précise les droits fondamentaux de l'homme. Sans véritable portée juridique en tant que tel, ce texte est une proclamation de droits ; par conséquent, il n'a qu'une valeur déclarative. Sur les 58 États membres de l'ONU à l'époque, quarante-huit ont adopté cette charte universelle. Aucun État ne s'est prononcé contre, mais huit se sont abstenus et deux n'ont pas pris part au vote. Parmi les huit abstentionnistes, l'Afrique du Sud, qui appliquait alors l'apartheid, refusait l'affirmation du droit à l'égalité devant la loi sans distinction de naissance ou de race et l'Arabie saoudite contestait l'égalité homme-femme. La Pologne, la Tchécoslovaquie, la Yougoslavie, l'Union soviétique, l'Ukraine et la Biélorussie se sont quant à eux abstenus en raison d'un différend concernant la définition du principe fondamental d'universalité tel qu'il est énoncé dans l' de l'. Enfin, les deux États n'ayant pas pris part au vote sont le Yémen et le Honduras. Le texte énonce les droits fondamentaux de l'individu, leur reconnaissance, et leur respect par la loi. Il comprend aussi un préambule avec huit considérations reconnaissant la nécessité du respect inaliénable de droits fondamentaux de l'homme par tous les pays, nations et régimes politiques, et qui se conclut par l'annonce de son approbation et sa proclamation par l'Assemblée générale des Nations unies. Le texte du préambule et de la Déclaration est invariable, on ne peut pas le modifier. Sa version en français, composée de 30 articles, est un original officiel, signé et approuvé par les membres fondateurs de l'Organisation des Nations unies, et non une traduction approuvée. Cependant, depuis 1948 et sa promulgation, le terme de « droits humains » est d'usage courant dans la plupart des langues dans lesquelles il a été traduit. Genèse et rédaction De 1946 à 1948, les délégués des Nations unies se sont consacrés à l'élaboration de la Déclaration. Créée en 1946 par le Conseil économique et social, la Commission nucléaire des droits de l'homme a fixé comme principal mandat de la nouvelle Commission des droits de l'homme l'élaboration d'une charte internationale. Au début de l'année 1947, lors de sa première session, la Commission des droits de l'homme a établi un Comité de rédaction. Initialement composé de la présidente, Eleanor Roosevelt, du vice-président, P.C. Chang, et du rapporteur, Charles Malik, le Comité de rédaction sera élargi dans un second temps. Il se compose des membres suivants : Eleanor Roosevelt, 1884-1962, États-Unis, présidente du Comité de rédaction ; P. C. Chang, 1893-1957, Chine, vice-président du Comité de rédaction ; Émile Saint-lot, 1904-1976, Haïti, rapporteur du Comité de rédaction. La lecture de la DUDH a été faite pour la première fois devant l'assemblée générale de l'ONU par son rapporteur, Émile Saint-Lot ; Charles Malik, 1906-1987, Liban, rapporteur de la Commission des droits de l'homme ; William Roy Hodgson, 1892-1958, Australie, membre de la Commission des droits de l'homme ; Hernán Santa Cruz, 1906-1999, Chili, membre de la Commission des droits de l'homme ; René Cassin, 1887-1976, France, membre de la Commission des droits de l'homme ; Alexandre Bogomolov, 1900-1969, URSS, membre de la Commission des droits de l'homme ; , 1880-1948, Royaume-Uni de Grande-Bretagne et d'Irlande du Nord, membre de la Commission des droits de l'homme ; John Peters Humphrey, 1905-1980, Canada, directeur de la Division des droits de l'homme des Nations unies. Le Comité de rédaction se réunit pour sa première session du 9 au 25 juin 1947, puis pour une deuxième session du 3 au 21 mai 1948. Le projet de Déclaration rédigé par le Comité et transmis pour discussion à la Commission des droits de l'homme, puis au Conseil économique et social, et enfin à l'Assemblée générale. De nombreux amendements et propositions seront encore proposés par les États membres de l'ONU au sein de ces différents organes. Structure La structure qui sous-tend la Déclaration apparaît dans sa seconde version préparatoire, élaborée par René Cassin. Se démarquant du premier jet de John Peters Humphrey, simple liste de droits conforme au modèle du de nombreux États américains, ce texte commence par un préambule . Il consacre ensuite ses premiers articles à l'énoncé de principes généraux, destinés à guider l'interprétation des dispositions détaillées qu'ils précèdent, imitant sur ce point le Code civil français, dont les six premiers articles répondent au même objectif. Cette structure a par ailleurs été comparée par René Cassin à celle du portique d'un temple grec : une succession de considérations comparables à des marches, quatre colonnes constituées par les droits individuels, familiaux, sociaux et politiques et un fronton unifiant l'ensemble dans une même vision de l'humanité, composé des trois derniers articles du texte. Précurseurs possibles Certains affirment que la première déclaration des droits de l'homme connue serait celle transcrite sur le cylindre de Cyrus, rédigé par Cyrus le Grand, fondateur de l'Empire perse en l'année . Théories du contrat social Certains auteurs, tels Norberto Bobbio, affirment que la Déclaration de 1948 trouve ses sources dans l'émergence du droit naturel, des théories du contrat social (en particulier celle de Locke) et dans l'individualisme qui aurait remplacé l'holisme des communautés antérieures. Il y aurait ainsi une filiation directe entre le jusnaturalisme de certaines philosophies du siècle des Lumières, et l'adoption de documents comme la Déclaration des droits anglaise, la Déclaration des Droits américaine et la Déclaration des droits de l'homme et du citoyen française. D'autres soulignent toutefois des divergences considérables entre les « théories contractualistes » (Hobbes, Locke et Rousseau — théories qui d'ailleurs divergent entre elles, Hobbes et Rousseau pouvant être assimilés au positivisme juridique) et la formulation de la Déclaration de 1789. Seconde Guerre mondiale Lors de la Seconde Guerre mondiale, les alliés adoptèrent les « quatre libertés » : la liberté d'expression, la liberté de religion, la liberté de vivre à l'abri du besoin et la liberté de vivre à l'abri de la peur, comme leurs buts fondamentaux dans ce conflit. La Charte des Nations unies réaffirme la , et engage tous les États membres à promouvoir Lorsque les atrocités commises par l'Allemagne nazie furent connues, après la Seconde Guerre mondiale, le consensus au sein de la communauté internationale était que la Charte ne définissait pas suffisamment les droits auxquels elle faisait référence. Une déclaration précisant les droits des individus était nécessaire afin de renforcer les dispositions de la Charte sur les droits de l'homme. Portée juridique Après avoir voté la Déclaration universelle des droits de l'homme, qui n'a, en tant que telle, qu'une valeur déclarative, et ne crée donc pas d'obligations juridiques, l'Assemblée générale a souhaité une Charte des droits de l'homme qui aurait force obligatoire. La Commission des droits de l'homme de l'ONU a été chargée de la rédiger. Après de longues négociations, le projet a abouti, dans le contexte de la guerre froide avec deux textes complémentaires : le Pacte international relatif aux droits économiques, sociaux et culturels et le Pacte international relatif aux droits civils et politiques. Le Conseil constitutionnel français n'accorde pas de statut juridique positif à la Déclaration de 1948, bien que celle de 1789 soit intégrée au bloc de constitutionnalité depuis 1971. En revanche, d'extension géographique moindre, la Convention européenne des droits de l'homme comporte des dispositions contraignantes pour les États signataires. Par ailleurs, l'article 29.1 de la DUDH évoque les devoirs de la personne : sur ce point, voir l'article Droits de l'homme. Traduction de la Déclaration universelle des droits de l'homme Le texte de la Déclaration universelle des droits de l'homme s'est vu décerner par le Livre Guinness des records en 2009, le record mondial de traduction, avec 370 langues et dialectes différents. En 2019, le Haut-Commissariat des Nations unies aux droits de l'homme dénombre 518 traductions, disponibles sur son site internet. Bien que le HCDH s'efforce de sélectionner les traductions officielles ou les meilleures traductions disponibles, et de produire de nouvelles traductions dans des langues de grande diffusion, le HCDH émet néanmoins comme réserve, la qualité et l'exactitude des traductions autres que celles effectuées dans les six langues officielles de l'ONU : anglais, arabe, chinois, espagnol, français (ici, la langue originale officielle du texte de la Déclaration et de son préambule), russe. Critiques Trois critiques principales sont faites à cette Déclaration. D'une part, celle qui concerne l'effectivité des droits de l'homme, et qui s'intéresse aux garanties juridiques positives, ou à l'absence de celles-ci. Cette critique a par exemple été formulée par Jeane Kirkpatrick, représentante permanente des États-Unis auprès des Nations unies de 1981 à 1985, qui mettait sur le même plan la Déclaration et la lettre au père Noël. D'autre part, une autre critique porte sur l'universalité supposée de ces droits de l'homme. Celle-ci rejoint parfois celle-là, ainsi lorsque les pays du Sud dénoncent une application et un intérêt à géométrie variable pour les droits de l'homme, en fonction des pays, des puissances et des conflits. Dans ce dernier cas, ce n'est pas le principe de l'universalité des droits de l'homme qui est contesté en tant que tel, comme peuvent le faire les tenants d'un relativisme culturel radical, mais plutôt l'application différenciée supposée de ceux-ci. Enfin, le texte passe sous silence la peine de mort. L'article 5 mentionne seulement que Nul ne sera soumis à la torture, ni à des peines ou traitements cruels, inhumains ou dégradants. Par ailleurs, les droits liés à la liberté de la presse et la protection des sources d'information des journalistes y sont moins développés que dans d'autres textes, comme la Convention européenne des droits de l'homme et son célèbre article 10. Notes et références Voir aussi Bibliographie . . . Articles connexes Articles généralistes Charte des droits et libertés Droits de l'homme Droit inaliénable Humanisme Journée internationale des droits de l'homme Libertés fondamentales Principe de l'égalité des races Organisation des Nations unies Charte des Nations unies Droit international des droits de l'homme Convention européenne des droits de l'homme Convention américaine relative aux droits de l'homme Charte africaine des droits de l'homme et des peuples Déclaration des droits de l'homme en islam Déclaration des droits de l'humanité (projet) Déclarations des droits de l'homme et du citoyen … de 1789 (la plus connue) … de 1793 … de 1795 Liens externes Texte intégral de la Déclaration universelle des droits de l'homme accompagné de quelques repères sur le site de l'ONU. Déclaration universelle des droits de l'homme : histoire de sa rédaction, Guide de recherche sur le site des Nations unies, Bibliothèque Dag Hammarskjöld. La page des droits de l'homme sur le site de l'ONU. La déclaration universelle des droits de l'homme de 1948 sur le site du ministère français de la Justice. Présentation de la Déclaration universelle des Droits de l'homme sur le Portail des droits de l'enfant. Sur l'histoire de l'adoption de la Déclaration universelle des droits de l'homme. Page consacrée à la Déclaration universelle des droits de l'homme sur le site de la Bibliothèque audiovisuelle de droit international des Nations unies. Texte juridique édictant des libertés fondamentales Traité des Nations unies 1948 en droit Record Liberté d'expression
976
https://fr.wikipedia.org/wiki/Darius%20Milhaud
Darius Milhaud
Darius Milhaud, né le à Marseille et mort à Genève le , est un compositeur français de musique classique. Biographie Darius Milhaud est issu de l’une des plus vieilles familles juives de Provence, originaire du Comtat Venaissin. Cette région de Vaucluse abrite depuis des siècles de nombreuses familles juives surnommées les « Juifs du pape ». Parmi les membres de cette famille, on compte Joseph Milhaud, fondateur en 1840 de la synagogue d’Aix-en-Provence, ainsi que José de Bérys, Francine Bloch (qui demande au musicien, en 1961, de devenir le premier président de la Société des amis de la Phonothèque nationale de France et établit sa phonographie), Marcel Dassault et Pierre Vidal-Naquet. Darius Milhaud est l’unique fils d’un banquier d'Aix et d’une mère née à Marseille. Son grand-père est négociant en amandes. Ses parents sont musiciens amateurs. Son père fonde la Société Musicale d’Aix-en-Provence, et sa mère connaît bien les chants religieux. Darius montre des dons précoces, tout d’abord pour le violon et la composition. À 17 ans, en 1909, il va à Paris pour étudier au Conservatoire de musique et de déclamation, jusqu’en 1915. Ses professeurs sont Xavier Leroux en harmonie, André Gedalge pour le contrepoint, Charles-Marie Widor pour la composition et surtout Paul Dukas pour l'orchestration. Ces années sont l’occasion de multiples rencontres sur le plan musical et littéraire : il se lie d’amitié avec les musiciens Georges Auric et Arthur Honegger, et avec le poète Léo Latil, tué en 1915 lors de la Première Guerre mondiale. Il fait également la connaissance de Francis Jammes et de Paul Claudel en 1912, auteurs dont il met les textes en musique. Sa rencontre avec André Gide exerce aussi une influence importante. Atteint de rhumatismes, Darius Milhaud est réformé. Il compose dans ces années des musiques de scène, notamment sur la trilogie Orestie d’Eschyle, traduite par Claudel. Il recourt alors à la polytonalité, ce qui reste comme l’une des caractéristiques principales de sa musique. Cette amitié entre les deux artistes évolue dans le sens d’une collaboration : Claudel, nommé ministre plénipotentiaire à Rio de Janeiro, propose à Milhaud de devenir son secrétaire. Milhaud accepte. Il s’enthousiasme alors pour les musiques sud-américaines, qu’il insère dans les ballets L'Homme et son désir (1918-1921) et Le Bœuf sur le toit (1919-1920), ainsi que dans la suite de danses Saudades do Brasil (1920-1921). De retour à Paris, il est associé par le critique Henri Collet au Groupe des Six, constitué de Georges Auric, Louis Durey, Arthur Honegger, Francis Poulenc et Germaine Tailleferre. Le mentor de toute cette équipe est l'écrivain et graphiste Jean Cocteau. Fort de cette association, avec laquelle il écrit notamment la musique des Mariés de la Tour Eiffel (1921), unique œuvre collective du Groupe des Six, sur un argument de Cocteau, Milhaud est également reconnu dans le milieu parisien pour ses œuvres de jeunesse imprégnées d’influences sud-américaines. Il officie en tant que chef d’orchestre, critique musical, ou même conférencier, et voyage abondamment, notamment à Londres en 1920, et aux États-Unis en 1922, où il découvre les rythmes du jazz qui vont profondément l’influencer pour son ballet La Création du monde (1923). Il continue à écrire plusieurs opéras sur des livrets de ses amis : Le Pauvre Matelot en 1926 sur un texte de Cocteau, et Christophe Colomb en 1930 sur un texte de Claudel. Il s’intéresse également au cinéma et compose pour le cinéma. Toutefois, ses compositions jouissent d’un succès mitigé, et son opéra Maximilien (1932) est accueilli fraîchement à l’Opéra Garnier. Parallèlement, sa vie sentimentale est comblée par son mariage (le ) avec Madeleine Milhaud, une cousine actrice, qui lui donna en 1930 un fils, Daniel, qui devint artiste-peintre (décédé à Pietrasanta en ). En 1936, il est membre de la rédaction du journal communiste Ce soir, pour lequel il s'occupe de la musique Sa production reste très abondante jusqu’au début de la Seconde Guerre mondiale, date à laquelle il doit fuir la France occupée, cumulant l'« inscription sur deux listes de proscription : comme juif et comme compositeur d'art dégénéré ». En 1940, il part pour les États-Unis, où le chef d'orchestre Pierre Monteux l'aide à trouver un poste de professeur de composition au Mills College d’Oakland (Californie). Milhaud y a notamment comme élèves le pianiste de jazz Dave Brubeck, le compositeur de variétés Burt Bacharach, et les fondateurs du minimalisme américain, Steve Reich et Philip Glass. Après la guerre, il retourne en France en 1947 et se voit offrir un poste de professeur de composition au Conservatoire national de musique à Paris, en alternance avec Jean Rivier, qui compte parmi ses élèves de futurs talents tels Georges Delerue. Il alterne alors son activité de professeur entre Paris et les États-Unis, continuant à enseigner à Oakland jusqu'en 1971, ainsi qu'à l’Académie musicale d’été d’Aspen (Colorado), et dans divers établissements américains. Malgré une santé de plus en plus fragile (des rhumatismes le font beaucoup souffrir), le compositeur reste donc un infatigable voyageur, même si son activité créatrice est ralentie. Sa carrière est couronnée en 1971 par un fauteuil à l’Académie des Beaux-Arts. Il s’éteint le à Genève, à l’âge de 81 ans. Selon ses souhaits, il est enterré au cimetière Saint-Pierre à Aix-en-Provence, sous une modeste pierre du carré juif. Sa femme, Madeleine Milhaud, lui survit plus de trente ans. Elle est décédée le , dans sa , et est enterrée aux côtés de son mari, à Aix-en-Provence. Il avait été membre du Comité de direction de l'Association du Foyer de l’Abbaye de Royaumont. L'œuvre musicale Darius Milhaud s’est intéressé à tous les genres musicaux : opéra, musique de chambre, musique symphonique, concertos, ballets, musique vocale. Il est l’un des compositeurs les plus prolifiques non seulement du , mais aussi de toute l’histoire de la musique. Son style, mélange de lyrisme et de gaieté, emprunte beaucoup aux musiques folkloriques, et au jazz, qu’il affectionne particulièrement pour ses rythmes syncopés. Milhaud explore toutes les possibilités de l’écriture : à la fois fin contrapuntiste, il utilise fréquemment la polyrythmie et la polytonalité, qui rendent son œuvre extrêmement riche et diverse. Quant au Groupe des Six, il s’agit tout autant d’un canular de journaliste que d’un courant musical. Cette pseudo-école rassemblait des musiciens aux styles divers. Parrainée par Jean Cocteau et Erik Satie, elle prôna un retour à la musique légère, simple ou même comique. Parfois, le cirque n’est pas bien loin. D'ailleurs, la création en 1920 du Bœuf sur le toit, son œuvre la plus populaire, s'est fait avec les frères Fratellini sur scène. Il est aussi une manifestation du rejet qui s'exprime, en cet après-guerre, dans l'art et la littérature de certains styles incroyablement "cuisinés" et/ou luxuriants en usage jusque-là. Dans les Années folles, la simplicité, parfois proche de l'art populaire ou du cabaret, s'impose facilement, parallèlement à l'apparition du surréalisme. Georges Maurice expliquait ainsi ces choix esthétiques : « Ayant grandi au milieu de la débâcle wagnérienne et commencé d'écrire parmi les ruines du Debussy, imiter Debussy ne me paraît plus aujourd'hui que la pire forme de la nécrophagie. » (revue le Coq et l’Arlequin). Œuvres principales Opéra Les opéras sont au nombre de seize, dont trois opéras minute (environ 15 minutes chacun) : L'Enlèvement d'Europe L'Abandon d'Ariane La Délivrance de Thésée. Deux opéras d'une durée courte (~ 30 minutes) Le Pauvre Matelot Les Malheurs d'Orphée (1924) Autres opéras : Esther de Carpentras (1925 - 1927) Christophe Colomb Maximilien Médée (Anvers, ) Bolivar David L'Orestie Saint Louis Roi de France (1970) La Mère Coupable (1966) Musique de scène Les Choéphores Les Euménides Le Faiseur de Simone Jollivet, d'après Honoré de Balzac. Opus 145 pour flûte, clarinette, saxophone et batterie. Paris, théâtre de l'Atelier, Christophe Colomb (1960 et 1975) Ballets Au nombre de 14, dont : L'Homme et son désir Le Bœuf sur le toit (1919) La Création du monde (1923) Le Train bleu (1924) Musique symphonique Milhaud attend 1939 pour entamer l’écriture de symphonies. Elles seront au nombre de douze entre 1939 et 1960. Il écrit également des suites de danses, et une variété de concertos, pour piano, violon, violoncelle, alto, etc. Saudades do Brasil, suite de danses Suite provençale (1936) Scaramouche op. 165, pour saxophone alto ou clarinette en si bémol et orchestre (transcrit pour deux pianos op 165b). 12 symphonies : Symphonie op. 210 (1939) Symphonie op. 247 (1944) Symphonie « Te Deum » op. 271 (1946) Symphonie op. 281 (1947) pour célébrer le de la Révolution de 1848 Symphonie op. 322 (1953) Symphonie op. 343 (1955) Symphonie op. 344 (1955) Symphonie « Rhodanienne » op. 362 (1957) Symphonie op. 380 (1959) Symphonie op. 382 (1960) Symphonie op. 384 (1960) Symphonie « La Rurale » op. 390 (1961) Concertos : 2 concertos pour violoncelle et orchestre 3 concertos pour violon et orchestre 3 concerto pour alto et orchestre (dont un extrait des saisons) 5 concertos pour piano et orchestre, ainsi que plusieurs œuvres concertantes pour piano et orchestre et deux piano et orchestre avec soliste 1 concerto pour clarinette et orchestre (1941) 1 Concerto pour harpe et orchestre 1 Concerto pour hautbois (1957) 1 Concerto pour flûte, violon et orchestre (1937) Les quatre saisons, 4 concertinos pour divers instruments, le printemps (1934), L'été (1950), l'automne (1951), l'hiver (1953) Suite française op. 248 (1944) Concerto pour marimba et vibraphone Op. 278 Musique de chambre La production de musique de chambre de Milhaud est tout aussi prolifique : pas moins de dix-huit quatuors à cordes, des quintettes et des suites pour vents, des sonates, des duos, et bien d’autres pièces encore figurent au catalogue de l’artiste. La Cheminée du roi René, pour flûte, hautbois, clarinette, cor et basson. 18 Quatuors à cordes Segoviana, op. 366, oeuvre pour guitare dédicacée à Andrés Segovia (création en 1969) Musique vocale Milhaud a grandement contribué à élargir le répertoire vocal, autant pour voix solo que pour chœur. Les textes mis en musique sont extrêmement divers, provenant aussi bien d’écrivains comme André Gide que du Pape Jean XXIII, dont l'encyclique « Pacem in Terris » de 1963 sera mise en musique par le compositeur. C’est en effet dans la musique vocale que la religion prend une place importante chez Milhaud. C’est là qu’il renoue avec la religion qui est la sienne, le judaïsme. La toute dernière œuvre de Milhaud, qu’il compose l’année de sa mort, est en effet une cantate « Ani Maamin », fondée sur un texte d’Élie Wiesel, déporté à l’âge de quinze ans à Auschwitz. Les questions religieuses deviennent alors existentielles, et confinent à la philosophie. Chants populaires hébraïques Catalogue de fleurs Le Retour de l'enfant prodigue Service sacré du matin du Sabbat Ani Maamin sur un livret d'Elie Wiesel À propos de bottes Un petit peu d'exercice Un petit peu de musique Les Soirées de Pétrograde, 1919 Trois poèmes de Jean Cocteau, 1920 Cantate pour la paix, 1937, texte de Paul Claudel Cantate pour la guerre, 1940, texte de Paul Claudel Piano Saudades do Brasil op. 67 (1920) Scaramouche, suite pour deux pianos op. 165b (1937) Le Candélabre à sept branches op. 315 (1954) Paris op. 284 (1948) Carnaval à la Nouvelle-Orléans op. 275 (1947) Sonate op. 293 (1949) Orgue Darius Milhaud n'a - apparemment - jamais joué d'orgue, mais trouvait l'instrument en soi intéressant, pas seulement pour la multiplicité de ses plans sonores mais surtout pour la grande variété de ses timbres/sonorités. Sonate op. 112 (1931) Pastorale op. 229 (1941) Neuf préludes pour orgue op. 231b (1942) Petite suite op. 348 (écrite en 1955 spécialement pour le mariage de son fils Daniel) Musiques de films (filmographie partielle) 1915 : The Beloved Vagabond d'Edward José 1921 : Le Roi de Camargue d'André Hugon 1924 : L'Inhumaine de Marcel L'Herbier (partition réputée perdue) 1927 : La P'tite Lili d'Alberto Cavalcanti (court métrage) 1933 : Madame Bovary de Jean Renoir 1933 : Hallo Everybody de Hans Richter (court métrage documentaire) 1933 : Terre sans pain (Las Hurdes) de Luis Buñuel (documentaire) 1934 : Tartarin de Tarascon de Raymond Bernard 1934 : L'Hippocampe de Jean Painlevé (court métrage) 1936 : The Beloved Vagabond (Le Vagabond bien-aimé) de Curtis Bernhardt 1937 : La Citadelle du silence de Marcel L'Herbier 1938 : La Tragédie impériale de Marcel L'Herbier 1938 : Mollenard de Robert Siodmak 1939 : Les Otages de Raymond Bernard 1939 : The Islanders de Maurice Harvey (court métrage documentaire) 1940 : Cavalcade d'amour de Raymond Bernard (en collaboration avec Roger Désormière et Arthur Honegger) 1945 : Espoir, sierra de Teruel d'André Malraux 1947 : The Private Affairs of Bel Ami d'Albert Lewin 1949 : La vie commence demain de Nicole Vedrès (documentaire) 1950 : Gauguin d'Alain Resnais (court métrage) 1956 : Rentrée des classes de Jacques Rozier (court métrage) Liste des œuvres Bibliographie Francine Bloch, Hommage public à Darius Milhaud, (Paris, Sorbonne, ), Bulletin de la Phonothèque Nationale, n° spécial hors-série 1974 Francine Bloch, Phonographie de Darius Milhaud, Paris, Bibliothèque Nationale, 1992 Michel Faure, « Milhaud, compositeur de géorgiques », in Pierre Cortot, Darius Milhaud et les poètes, Paris, École des hautes études en sciences sociales (EHESS), Thèse, 2003, diffusion ANRT Filmographie Darius Milhaud et sa musique : de la Provence au monde, film documentaire de Cécile Clairval-Milhaud, France, 2010, 60' Distinctions Chevalier de la Légion d'honneur le . Officier de la Légion d'honneur le . Commandeur de la Légion d'honneur le . Grand officier de la Légion d'honneur le . Commandeur du Nicham Iftikar. Hommages La Ville de Paris a donné son nom à une voie de la capitale ainsi qu'au conservatoire municipal du Un lycée du Kremlin-Bicêtre porte son nom En 1972, son nom est donné au conservatoire de musique d’Aix-en-Provence Son nom est donné aussi à un collège de Marseille Un timbre Europa de France de 1985 lui rend hommage Une allée à Paris dans le porte son nom. Au 53 se trouve l'école maternelle Darius Milhaud, au 80 le théâtre Darius Milhaud Un collège à Sartrouville porte son nom Il a habité au 10 boulevard de Clichy à Paris, de 1923 à 1974 où une plaque a été apposée Notes et références Liens externes Association des amis de Darius Milhaud Personnalité française du XXe siècle Compositeur français de musique classique de la période moderne Compositeur français d'opéra Compositeur français de ballet Compositeur français de symphonie Musique juive Compositeur français de musique de film Académie des beaux-arts (France) Élève du Conservatoire national supérieur de musique et de danse de Paris Enseignant au Conservatoire national supérieur de musique et de danse de Paris Professeur au Mills College Personnalité liée à Aix-en-Provence Chevalier de la Légion d'honneur Officier de la Légion d'honneur Commandeur de la Légion d'honneur Grand officier de la Légion d'honneur Commandeur de l'ordre du Nichan Iftikhar Naissance en septembre 1892 Naissance à Marseille Décès en juin 1974 Décès à Genève Décès à 81 ans Personnalité inhumée dans les Bouches-du-Rhône
979
https://fr.wikipedia.org/wiki/Daish%C5%8D
Daishō
Le » est un terme japonais désignant la paire de sabres traditionnels portée par les samouraïs de l'ère féodale. Description Les deux armes composant le daishō sont le et le , le premier étant le plus long, il correspond à l'arme d'attaque, tandis que l'autre s'apparente plutôt à une arme de parade. Ainsi c'est ce qui explique l'étymologie même du mot qui provient des termes et : daitō associé à shōtō donne daishō. Cependant, à l'origine, le daishō désignait le port de n'importe quels uchigatana longs et courts réunis, et non spécifiquement celui d'un katana et d'un wakizashi. Il arrive aussi que l'on considère une paire de tantō comme un daishō, et finalement le terme daishō désigne parfois tout simplement un attirail de deux épées à peu près identiques. Pendant la période des samouraïs, les lames du daishō pouvaient être similaires car réalisées par le même artisan, mais cette pratique était relativement rare car elle était plus chère, et en outre la concordance des deux épées n'avait à l'époque pas une grande importance. Histoire Le concept du daishō est né au cours de la période Muromachi (1336-1573), durant laquelle il arrivait de croiser l'association d'une épée courte avec une autre de n'importe quelle longueur. À une certaine époque, le tachi et le tantō auraient été maniés ensemble, tout comme plus tard deux uchigatana de tailles différentes. Avec l'apparition du katana, le wakizashi a finalement été choisi par les samouraïs pour remplacer le tantō. Dans son livre intitulé The Japanese Sword, Kanzan Satō note qu'il ne semblait pas y avoir de besoin particulier en ce qui concerne le wakazaishi, et suggère que ce dernier est sans doute devenu plus populaire que le tantō parce qu'il était plus adapté aux combats en intérieur. Selon la plupart des écoles traditionnelles de kenjutsu, qui font partie des koryū, seule une seule des deux lames du daishō était utilisée pour combattre. Cependant, durant la première moitié du , le célèbre escrimeur Miyamoto Musashi favorisa l'utilisation de la prise à une main qui permettait de manier deux épées simultanément. Cette technique, appelée , constitue un des éléments de base du style de Hyoho Niten Ichi Ryu, école enseignant l'art de manier l'épée fondée par Musashi. À la suite de la « chasse aux épées » ordonnée par Toyotomi Hideyoshi en 1588, le port du daishō est exclusivement réservé à la classe des samouraïs et devient ainsi un symbole de leur rang. Le daishō est sans doute devenu populaire durant les dernières années de la période Muromachi puisque les premiers exemples de son utilisation datent de la fin du . Par la suite en 1629, un édit définissant les droits des samouraïs est instauré et exige le port du daishō. Durant l'ère Meiji un second édit rédigé en 1871 annule le premier, et en 1876 le port de l'épée en public est banni pour la plupart de la population japonaise, ce qui en fera définitivement le symbole des samouraïs. La fin de l'époque d'Edo voit arriver l'interdiction des épées et par conséquent la disparition de la classe des samouraïs. Présentation Lorsque le katana est sur son présentoir, il est placé : dans son fourreau (saya) ; tranchant vers le haut ; face publique (omote) visible ; à gauche de soi. Le plus souvent, seule la « monture » du sabre est exposée ainsi (tsuka, tsuba et saya, maintenus ensemble par une lame en bois). En effet la lame est souvent rangée dans une monture de protection hermétique en bois blanc dite de shirasaya (qui ne sont pas destinées au combat). En temps de paix, le katana se pose sur le présentoir, la tsuka côté gauche, alors qu'en temps de guerre, la tsuka est à droite, ceci afin de permettre une sortie plus rapide du katana en cas de danger. Références Voir aussi Bibliographie . . . Articles connexes Histoire du sabre japonais Katana Sabres japonais Wakizashi Bushido Kenjutsu
980
https://fr.wikipedia.org/wiki/Dolmen
Dolmen
Un dolmen est une construction mégalithique préhistorique constituée d'une ou plusieurs grosses dalles de couverture (tables) posées sur des pierres verticales qui lui servent de pieds (les orthostates). Le tout était originellement recouvert, maintenu et protégé par un amas de pierres et de terre nommé tumulus. Les dolmens sont généralement interprétés comme des tombes à chambre, des monuments funéraires ayant abrité des sépultures collectives. Les dolmens européens ont été construits entre le milieu du et la fin du , ceux d'Extrême-Orient au Pour certains chercheurs, à côté de ces mégalithes, leurs équivalents en bois appelés, faute de terme créé pour les désigner, dolmens en bois, pourraient avoir existé. Étymologie Il semble que Théophile Malo Corret de La Tour d'Auvergne soit le premier à avoir utilisé le terme « dolmen », dans son ouvrage Origines gauloises. Celles des plus anciens peuples de l’Europe, puisées dans leur vraie source ou recherche sur la langue, l’origine et les antiquités des Celto-Bretons de l’Armorique, pour servir à l’histoire ancienne et moderne de ce peuple et à celle des Français, publié entre 1792 et 1796. Le terme « dolmen » est repris par Pierre Jean-Baptiste Legrand d'Aussy (1737-1800) qui propose une interprétation différente de la fonction du dolmen, en y voyant, non plus une table de sacrifice ou un autel comme le pensait Malo Corret, mais bien une sépulture. Le , Legrand d’Aussy fait, à l’Institut National des Sciences et Arts, une lecture de son ouvrage, Des sépultures nationales, publié par la suite en 1824 : Le terme semblerait forgé à partir des mots bretons : t(d)aol (apparenté au latin tabula), « table », et maen, « pierre ». Cependant, on dit généralement « liac’h ven », « liaven », « lieven » ou « leven » dans les composés. Certains dictionnaires étymologiques avancent que ce terme aurait été forgé outre-manche, à partir du cornique tolmen, qui aurait désigné à l’origine un cercle de pierres ou une pierre trouée. Description Dans leur état actuel de dégradation, les dolmens se présentent souvent sous l'apparence de simples tables. Ils ont longtemps pu faire penser à des autels païens, mais il s'agit bien de chambres sépulcrales et de galeries de tumulus (buttes artificielles), dont la partie meuble (remblai) a été érodée au cours des siècles. Leur architecture comporte parfois un couloir d'accès qui peut être construit en dalles ou en pierres sèches. La chambre sépulcrale, aux formes variables (rectangulaire, polygonale, ovale, circulaire…), peut aussi être précédée d'une antichambre. Dans certains dolmens, l'entrée présente une porte taillée dans une ou plusieurs dalles verticales. La morphologie des dolmens peut varier en fonction des régions ; ainsi observe-t-on, par exemple en Loire-Atlantique, des dolmens dont le couloir central dessert plusieurs chambres, de part et d'autre, formant ainsi un ou deux transepts et compliquant notablement le plan de la sépulture. En Bretagne, en région parisienne et dans d'autres pays, dans certains dolmens démesurément longs, la chambre et le couloir ont la même largeur et se confondent. Ils sont recouverts de plusieurs tables et sont appelés « allées couvertes ». La complexité et l'importance des monuments peuvent être telles que certains tumuli recouvrent plusieurs dolmens, comme le grand cairn de Barnenez (Finistère, France) qui couvre onze sépultures à couloir, les unes mégalithiques, et d'autres avec voûtes de pierres sèches, en encorbellement… À l'opposé, la région des Cévennes est riche en tombes du genre coffre, souvent en dalles de schiste et pierres sèches, sans couloir, et sous un cairn assez bas, parfois réunis en nombre dans une nécropole de crête. Les dolmens de plan simple (sans couloir) abondent dans tout le sud de la France avec plusieurs milliers d'unités. Types de dolmens Il existe trois types fondamentaux de dolmens. Chaque type principal peut se décliner en variantes locales caractérisant une culture néolithique spécifique ou résultant d'une phase transitoire résultant de différentes influences. Dans les dolmens simples, la chambre ouvre directement sur l'extérieur. Ils sont généralement composés de deux à trois orthostates et d'une dalle de chevet. La chambre ainsi définie est de forme rectangulaire (dolmen dit de « type A ») ou polygonale (dolmen dit de « type B »). Ce type de dolmens est très répandu dans le sud-ouest (Aveyron, Lot) et le centre (Puy-de-Dôme) de la France. Ce type de construction connaît parfois des adaptions spécifiques très localisées : dolmens avec chambre compartimentée (Nécropole mégalithique de la Pointe du Souc'h) ; dolmens à cabinets latéraux où de petites cellules sont adossées à la chambre. Les dolmens à couloir, parfois aussi appelés tombes à couloir, ou dolmens à galerie (Passage Grave en anglais), sont des dolmens où l'entrée de la chambre communique avec l'extérieur par un couloir, axial ou non, de dimensions très variables. Ce type de dolmen connaît de nombreuses déclinaisons locales : les sépultures en V qui se caractérisent par une chambre trapézoïdale, où la largeur interne et la hauteur sous dalle s'accroît depuis l'entrée vers le fond, raccordée sans rupture au couloir d'accès ; les dolmens transeptés qui se caractérisent par un couloir conduisant à une chambre terminale précédée d'un double jeu de chambres latérales dessinant une croix de Lorraine (Tumulus des Mousseaux, Dolmen de la Joselière) ; les dolmens coudés, où la chambre et le couloir dessinent une équerre, se rencontrent fréquemment dans le Morbihan ; les dolmens angevins, ou dolmens à portique, construction de taille monumentale composée d'une grande chambre précédée d'une antichambre surbaissée (La Roche-aux-Fées) ; les dolmens angoumoisins (Bougon dans les Deux-Sèvres). Les dolmens en allée couverte se caractérisent par une chambre très allongée, distincte ou non du couloir. L'allée couverte est emblématique de la culture Seine-Oise-Marne mais elle se retrouve avec des adaptations régionales en Bretagne (Côtes-d'Armor, Finistère) et jusqu'en Provence. Fonction Les dolmens étaient des sépultures collectives à caractère réutilisable. Cela explique que, dans certains dolmens, on ait pu découvrir les restes humains de plusieurs centaines d'individus et du mobilier de périodes différentes (Néolithique, âge du cuivre, du bronze, du fer, ou même périodes plus tardives). Un peu à l'image des caveaux familiaux de l'époque contemporaine, les dolmens pouvaient servir bien plus longtemps qu'aujourd'hui, et il est sûr que certaines tombes ont dû servir durant des siècles. Les ossements pouvaient être superposés en plusieurs couches et, pour faire de la place, subir une ou une évacuation dans les couloirs. L'expression « sépulture collective » n'implique pas forcément qu'il s'agisse d'un tombeau pour tous : au vu de la quantité d'ossements parfois assez faible découverte dans des sépultures de grande taille , on se demande si certaines n'étaient pas réservées à un groupe de privilégiés de la communauté. L'interprétation, comme tombeau, ne doit peut-être pas être généralisée. Certains dolmens n'ont pas livré de restes humains de type sépulcral, mais cela peut être une conséquence de phénomènes taphonomiques, de l'érosion, de pillages, de fouilles anciennes peu méthodiques, ou de fouilles clandestines. Lors de son ouverture, le dolmen sous tumulus de Mané-er-Hroeh, à Locmariaquer ne contenait pas de restes humains. Quant au tumulus, il n'avait pas qu'une utilité protectrice de la chambre funéraire, mais sans doute aussi une fonction de signalisation, voire d'ostentation : un grand tumulus, parementé, imposait sa masse au visiteur, devait inspirer le respect du lieu et conférer un prestige certain à la communauté qui l'avait érigé. Par ailleurs, plusieurs trouvailles archéologiques (offrandes, autel, allées, etc.) font penser que ces monuments funéraires ont pu avoir une fonction religieuse. Même bien après la grande période d'érection des mégalithes en Europe, les peuples celtes les ont, semble-t-il, parfois utilisés à des fins religieuses, mais n'en sont pas pour autant les constructeurs, comme l'affirmèrent les premiers chercheurs celtomanes des et , qui rattachaient systématiquement les mégalithes aux Gaulois et aux Bretons. Localisation Cinquante mille dolmens auraient été recensés dans le monde, dont vingt mille en Europe. Ils étaient très nombreux dans certaines régions de France et, si certains ont disparu, il en reste plus de , disséminés dans une soixantaine de départements. Pour schématiser l'implantation des dolmens en France, on peut partir de l'ouest du pays, avec la Bretagne, les Pays de la Loire, puis en descendant par le Poitou, pour ensuite rejoindre, plus au sud, les causses du Quercy et de l'Aveyron et, enfin, arriver en bord de mer Méditerranée, au Languedoc (voir carte), et en Roussillon ( Campoussy - Arboussols, etc.). Ils sont nombreux en Aveyron (, Bretagne, Pays de la Loire, Quercy (), Ardèche ( dans ce seul département), Poitou, Charentes et en Languedoc (au moins ). La Provence en compte une centaine. On en trouve aussi en Irlande, au Pays de Galles avec, notamment, les ou (Tombe à couloir), dans les comtés anglais du Devon et de Cornouailles. Au Portugal, on recense les sites spectaculaires du Haut-Alentejo, près de la ville d'Evora. Dans le sud de l'Espagne, les sites remarquables d'Antequera, qui comptent parmi les dolmens les plus imposants et les plus anciens au monde. En Belgique, où l'on recense 120 vestiges de dolmens et de menhirs, tels que ceux d'Oppagne et de Barvaux-sur-Ourthe, les mégalithes du domaine de Wéris, près de Durbuy (dont le dolmen de Weris et les menhirs et cromlechs qui ont subsisté dans la même région), ainsi que des sépultures en grotte sous rocher, les Blancs Cailloux de Mousny, les pierres levées de Neerwinden et de Manderfeld, la tombelle de Tourinnes-Saint-Lambert, et jusque dans une commune bruxelloise, avec le Tomberg, tumulus détruit au , mais dont il existe des traces de l'inventaire des objets qu'il contenait. En Scandinavie, en Allemagne du Nord et aux Pays-Bas, ces vestiges sont appelés hunebed ou hunegraf. L'Afrique du Nord et l'Inde contiennent de tels vestiges et, plus modestement, la Syrie, l'Éthiopie et la Crimée (Ukraine). En Tunisie, la nécropole à dolmens du Djebel Gorra, située près de la petite ville de Thibar, sur la route qui mène à Téboursouk, présente deux à trois cents sépultures mégalithiques bien reconnaissables. Sur le continent américain, le livre-référence très détaillé, "Les découvertes des Amériques avant Colomb" de Hans-Joachim Zillmer, détaille les structures mégalithiques telles que les dolmens, menhirs, cromlechs, cairns, et autres tumulus. Celles-ci sont nombreuses sur le territoire nord-américain, principalement dans le Nord-Est, Massachusetts, New Jersey, New-York, Connecticut, et les états côtiers. Des photos d'archives, souvent en noir et blanc, figurent dans l'ouvrage. En Amérique du Sud, ces structures sont aussi présentes, par exemple en Argentine. Galerie Notes et références Voir aussi Bibliographie Roger Joussaume, Des dolmens pour les morts, éditions Hachette, 1985. Gwenc’hlan Le Scouëzec & Jean-Robert Masson, Bretagne mégalithique, éd. Seuil, 1987 . Jean Markale, Dolmens et Menhirs: la civilisation mégalithique, ed. Payot & Rivages, 1994, illustrations Môn Rigole (présentation sur Google Book) Salvatore, Piccolo (2013). Ancient Stones: The Prehistoric Dolmens of Sicily. Abingdon/UK: Brazen Head Publishing. . Jean-Sébastien Pourtaud et Yves Olivet, Dolmens, menhirs, tumulus et pierres de légendes de Charente-Maritime. Ed.Le Croît vif.2015 Articles connexes Mégalithisme Mégalithe Allée couverte Cairn dolménique Liste des dolmens de France protégés aux monuments historiques Liens externes Petit lexique du mégalithisme de Jean Arnal, sur Persée Dolmens & Menhirs du sud de la France La France des mégalithes État d’avancement de la carte GoogleMaps des mégalithes du monde organisés par époques
982
https://fr.wikipedia.org/wiki/Dominique%20%28pays%29
Dominique (pays)
La Dominique (), en forme longue le Commonwealth de la Dominique, est un pays et une île de l'archipel des Caraïbes, située entre les îles françaises des Saintes et de Marie-Galante (deux dépendances de la Guadeloupe) au nord, et de la Martinique, au sud. Son nom kalinago est « Wai'tu kubuli », qui signifie « Son corps est grand ». Le premier Européen à l'avoir abordée est Christophe Colomb, lors de son deuxième voyage, en 1493. Avant son indépendance en 1978, la Dominique était un État associé de la couronne britannique () et, avant 1967, une colonie britannique membre de l'éphémère fédération des Indes occidentales (1958-1962). L'île a auparavant connu une présence française jusqu'au traité de Paris de 1763. Toutefois, la France occupe de nouveau brièvement l'île à deux reprises par la suite (1778 et 1814). Histoire Occupation indienne pré-colombienne L’île avait été initialement peuplée par des Indiens arawaks, puis par des Kalinago. Colonisation et conquête espagnole 1493-1625 Le dimanche , lors de son deuxième voyage aux Amériques, Christophe Colomb longe les rivages de l’île qu'il appelle ainsi « Domingo » , d’où proviennent ses noms actuels, Dominique, en français et « Dominica », en anglais. Les Indiens caraïbes doivent leur survie aux reliefs escarpés de la Dominique, ses forêts denses et sauvages. Venus du nord du Venezuela, ils s'étaient installés sur l'île bien avant que Christophe Colomb ne s'y arrête. Mais c'est ici seulement, cachés dans la nature, qu'ils ont échappé à l'extermination. En 1903, la Couronne britannique leur concéda quelques terres en propriété. Souveraineté française 1625-1763 En 1625, lors de la guerre de Trente Ans, les Espagnols laissent la place aux Français puis au cours du , Français et Anglais s’affrontent pour gouverner l'île. Deux fois leurs canonnades détruiront totalement Roseau. En 1660, Français et Anglais abandonnent l’île aux Caraïbes et la déclarent zone neutre ; pour mettre fin aux conflits, un traité de paix est signé entre les Français, les Anglais et les Caraïbes. Déjà installés à la Martinique et à la Guadeloupe, les Français s'implantent petit à petit à la Dominique en y introduisant la culture du café. Ils importent des esclaves africains pour résoudre le problème de main-d'œuvre. Mais les Britanniques s'approprient l'île en 1759. Alternances franco-anglaises 1763-1814 À l'issue de la guerre de Sept Ans, par le traité de Paris de 1763, la France cède la Dominique à la Grande-Bretagne. Par la suite, les Français rompent le traité et s’emparent par deux fois de la Dominique. En 1778, c'est sous le commandement du marquis François Claude de Bouillé que les Français reçoivent la capitulation du gouverneur William Stuart. En 1814, après avoir incendié Roseau, les Français décident de quitter l’île en échange d’une indemnité, et cette dernière redevient britannique. Colonie britannique 1814-1956 L'esclavage est aboli à la Dominique en 1833. Comme il ne le fut qu'en 1848 dans les îles voisines de la Martinique et de la Guadeloupe, de nombreux esclaves s'enfuirent de ces îles pendant cette période, à l'aide de moyens de fortune, pour essayer de trouver refuge à la Dominique. En 1898, l'île reçoit le statut de colonie de la Couronne britannique Ébauches d'indépendances 1956-1978 En 1956, elle acquiert son indépendance au sein de l'éphémère Fédération des Antilles britanniques et, en 1967, elle devient État associé au Commonwealth et entame l’instauration d’un régime démocratique. République indépendante en 1978 L’indépendance de la Dominique est déclarée le 3 novembre 1978, lors du de sa découverte par Christophe Colomb. Aujourd'hui, les des Indiens Caraïbes, derniers héritiers de ces peuples précolombiens, vivent pour la plupart dans le territoire Kalinago, de , autour de la petite ville de Salybia, au nord-est de l'île. Malgré les métissages, ils revendiquent leur identité. Le 19 septembre 2017, à la suite du passage de l'ouragan Maria, le Premier ministre Roosevelt Skerrit déclare : . Politique La Dominique est une république démocratique qui combine des aspects du modèle républicain et du « système de Westminster ». Le président est élu par le parlement pour un mandat de cinq ans (18 de la Constitution). En accord avec l'article 59 de la Constitution, il choisit comme Premier ministre un député qui a l'appui d'une majorité au sein du Parlement. La Dominique est membre du Caricom, de l'AEC, de l'OECO, du Commonwealth, de l'OEA, de l'ALBA, de l'ONU, et de la Francophonie. Le président actuel de la Dominique est Charles Savarin. Roosevelt Skerrit est Premier ministre depuis 2004. Géographie L’île de la Dominique est située en plein cœur des Petites Antilles, à au nord-nord-ouest de la Martinique, à au sud-est des Saintes et autant au sud-sud-ouest de Marie-Galante, ces dernières constituant deux des dépendances de la Guadeloupe. Elle mesure de longueur, sur de largeur, pour une superficie de . L'île est composée d'une chaîne de hauts pitons depuis son extrémité septentrionale à sa pointe méridionale ; le plus élevé, le morne Diablotins, culmine à . La Dominique jouit d’un climat tropical avec des pluies abondantes qui alimentent les chutes d’eau. Il y a environ trente chutes d’eau formant des piscines naturelles, des sources d’eaux chaudes, 365 rivières et dont la forêt tropicale humide. Le parc national de Morne Trois Pitons est classé au patrimoine mondial naturel par l’Unesco. L'île témoigne d'un volcanisme de type récent, d'intense activité, comme l'attestent les sites du «  » (« Lac en ébullition »), et de la « vallée de la Désolation ». Cette dernière est constituée de , contrastant ainsi avec les forêts tropicales environnantes. Les habitants de l’île, les Dominiquais et Dominiquaises, au nombre de , sont concentrés essentiellement sur la côte ouest, à Roseau, la capitale, forte de , et à Portsmouth ( en 2006), au nord. Il demeure encore , préservant leurs traditions, sur la côte est. Milieu naturel Les richesses écologiques de l'île ont été affectées par le développement de l'agriculture et des bananeraies, ainsi que par l'introduction de nombreuses espèces exogènes, devenant parfois invasives. Après une économie basée sur l'agriculture et l'exportation de bananes, qui a rendu l'île vulnérable aux catastrophes climatiques et aux crises du marché, la Dominique a souhaité développer un programme d'écotourisme, récompensé par la certification Green Globe 21 validant la qualité écotouristique de cette destination, attribuée à une île des Caraïbes. La Dominique veut aller plus loin avec, depuis 2007, un programme de dix ans visant à transformer l'île en une « île biologique » par la conjugaison de l’écotourisme, de l’agrotourisme et d'un tourisme de santé, avec la conversion de l'agriculture à la production biologique, un commerce éthique et équitable ne nécessitant pas de consommation excessive des ressources naturelles. L'« île nature » a ouvert en janvier 2011 un sentier de randonnée, inédit dans les Caraïbes, le Waitukubuli National Trail (WNT). Long de , partagé en quatorze segments, il traverse le territoire du sud au nord en reprenant les chemins tracés par les anciens habitants, explique Edison Henry, le chef du projet. La flore typique comprend manguiers, corossols et gommiers. La faune typique est représentée par le « sisserou » (Amazone impériale), un grand perroquet au ventre pourpre et aux ailes vertes, unique au monde, emblème national de la Dominique. Certaines rivières débouchent sur des chutes d'eau (Victoria, Sari Sari, Middelham…). La Dominique abrite le deuxième plus grand lac bouillonnant de la planète, au cœur du parc national de Morne Trois Pitons, classé au patrimoine mondial. Subdivisions La Dominique est divisée en dix paroisses. Économie L'économie dominiquaise dépend surtout du tourisme et de l'agriculture. En effet, l'agriculture, principalement la banane, représente 18 % du PIB et emploie 28 % de la main-d'œuvre. Les services (dont le tourisme) représentaient 58 % du PIB et 40 % de la main-d'œuvre en 2002. Des réformes ont été entreprises afin de développer les services financiers off-shore à l'instar d'autres îles de la région. C'est également un pavillon de complaisance. Projet géothermique Caraïbes À partir de 2003, le gouvernement de la Dominique, les régions Guadeloupe et Martinique, l'Agence française de développement (AFD), l'Agence de l'environnement et de la maîtrise de l'énergie (ADEME) et le Bureau de recherches géologiques et minières (BRGM) ont envisagé de conduire en coopération un projet de développement des ressources géothermales de la Dominique. Il s'agirait d’exporter l'essentiel de la production électrique via des câbles sous-marins vers les deux îles françaises voisines (Guadeloupe et Martinique) qui constituent deux pôles de consommation électrique en forte croissance dans la Caraïbe. En 2005, une étude préliminaire de cadrage technique et économique a eu lieu entre la Dominique et EDF pour la France, mais aussi plusieurs intervenants économiques. À partir de 2013, une nouvelle phase s'est ouverte avec le forage des premiers puits. Cette phase de préfiguration de la production doit aboutir à l'évaluation de la production et, par la suite, la mise en place d'une centrale de production. Les prévisions économiques de 2018 menées par The Economist font de la Dominique le pays à plus forte croissance du PIB par rapport à l'année précédente, avec une progression de 8,8 %. Démographie La population de la Dominique est de selon le recensement de 2011. En 2001, la population s'identifiait à 86,8 % en tant que descendants d'Africains/noirs, 9,1 % se disaient d'origine « mixte », 2,9 % Amérindiens (Kalinago) et 0,8% Caucasiens/blancs, l'île comptait également de petites communautés d'Indiens, de Chinois et de Syriens/Libanais. La population de l'île croît peu, en partie du fait de l'émigration. La population des Kalinagos, comptant , est l'une des dernières présences indigènes des Antilles. Ces derniers vivent aujourd'hui dans une réserve créée spécialement pour eux en 1903, le Territoire Kalinago. Langues Bien que la langue officielle du pays soit l'anglais, 80 % des citoyens s'expriment en créole dominiquais, créole à base lexicale française. D'après les derniers recensements de 2014 (OIF) 10 % de la population parle en tant que langue principale le français (). La Dominique est devenue membre de l'Organisation internationale de la francophonie en décembre 1979. Religions Dans un recensement fait en 2001, sur , 91,2 % des Dominiquais affirmaient leur appartenance à différentes branches du christianisme, 61,4 % de la population se disaient catholiques, 28,6 % étaient affiliés à différentes églises protestantes (dont 6,7 % se disant protestants évangéliques, 6,1 % adventistes, 5,6 % pentecôtistes, 4,1 % baptistes, 3,7 % méthodistes et 2,4 % d'autres églises protestantes), et 1,2 % déclarait être Témoins de Jéhovah. Par ailleurs, 1,3 % de la population (897 Dominiquais) se revendiquaient du rastafarisme, et l'islam (0,2 %) et l'hindouisme (0,1 %) comptaient quelques dizaines de fidèles. 6,1 % de la population enfin ne revendiquaient aucune affiliation religieuse. Selon l'institut privé Pew Research Center, en 2010, 94,4 % des habitants de la Dominique étaient chrétiens, principalement répartis entre catholiques (58,1 %) et protestants (35,5 %), et 3,0 % de la population pratiquaient une religion populaire. Culture Cinéma caribéen, liste de films caribéens Fêtes et jours fériés La fête nationale du Commonwealth de la Dominique est le jour de l'indépendance soit le 3 novembre. Musées Ordres et décorations Ordre du Sissérou (Sisserou Award of Honour). Ordre de la Dominique (Dominica Award of Honour), la plus haute distinction. Littérature Phyllis Shand Allfrey Lennox Honychurch Elma Napier Jean Rhys Codes La Dominique a pour codes : Communications et infrastructures Notes et références Voir aussi Liens externes Site du bureau du président du Commonwealth de la Dominique Site officiel du gouvernement Conférences en ligne La figure du dictateur dénoncée : art et politique dans les années 1970 à la Dominique, Marvin Fabien, 2017 L'écotourisme au cœur du projet territorial de l'île de la Dominique (Petites Antilles), Christelle Murat, 2011
983
https://fr.wikipedia.org/wiki/D%C3%A9partement
Département
Un département peut être une circonscription administrative, ou une division d'un ensemble administratif plus grand. Collectivité territoriale Origine du nom Le terme de « département » apparaît pour la première fois au en France dans un projet de découpage territorial du Royaume soumis au roi Louis XIV en 1665 par Marc-René d'Argenson. Ce terme est alors entendu en tant que répartition fiscale ou circonscription territoriale pour les Ponts et Chaussées. En 1787, les assemblées régionales d'Ile-de-France sont convoquées par « département » afin de clarifier les échanges. Un découpage en entités similaires du territoire semble un atout pratique pour l'administration. Ainsi l'on retrouve cette demande dans les cahiers de doléances de 1788 qui souhaitent la formation de circonscriptions uniformes avec un chef-lieu accessible. Le carnet du Puy-en-Velay parle explicitement de . Le décret du 22 décembre 1789 pris par l'Assemblée constituante de 1789 consacrera la création des départements français. Leur nombre exact et leurs limites seront fixés le , et leur mise en place prendra effet le . Anciens départements Des pays ont utilisé anciennement cette division administrative : Départements actuels Aujourd'hui, un certain nombre de pays utilisent ce terme pour nommer une division administrative de leur territoire. Il s'agit, soit d'anciennes colonies françaises, soit de pays d'Amérique Latine : Division gouvernementale Le terme de « département » désigne également dans certains pays les secteurs ministériels d'un gouvernement. Ainsi : aux États-Unis, l’« Administration fédérale » (Gouvernement) est divisé en « U.S. Department » dirigé par un « U.S. Secretary » (« secrétaire fédéral ») ; en Suisse, l'exécutif fédéral désigné par « Conseil fédéral » est composé de sept « départements fédéraux, chacun dirigé par un « conseiller fédéral ». Notes et références Voir aussi Département français Liste des départements français de 1790 Liste des départements français de 1811 Départements des Pays-Bas Administration territoriale par type
984
https://fr.wikipedia.org/wiki/Dictionnaire
Dictionnaire
Un dictionnaire   est un ouvrage de référence contenant un ensemble des mots d’une langue ou d’un domaine d’activité généralement présentés par ordre alphabétique et fournissant pour chacun une définition, une explication ou une correspondance (synonyme, antonyme, cooccurrence, traduction, étymologie). Le présent article concerne les dictionnaires unilingues qui décrivent ou normalisent une langue. Ceux-ci sont à distinguer d'autres types d'ouvrages de référence : les dictionnaires de noms propres ; les encyclopédies ou dictionnaire de choses ; les dictionnaires de traduction bilingues ; les dictionnaires des synonymes ; les dictionnaires thématiques spécialisés (dictionnaire du droit, du commerce, dictionnaire de géographie, dictionnaire humoristique, etc.). Étymologie Le substantif masculin dictionnaire est un emprunt au latin médiéval , dérivé du latin . D'abord écrit avec un seul n, il est dérivé du latin dictio : « action de dire, propos, mode d'expression ». Sa première utilisation remonte à Jean de Garlande dont le Dictionarius cum commento paraît en 1220. Dictionnaire est attesté au : d'après le Trésor de la langue française informatisé, sa plus ancienne occurrence connue se trouve dans le Jardin de plaisance et fleur de rhétorique. Contenu des dictionnaires Les auteurs d'un dictionnaire doivent déterminer au départ les catégories de mots à retenir, en fonction des limites imposées par l'éditeur et du public visé. Il faut décider de la place à faire aux néologismes, aux termes rares ou archaïques, au vocabulaire scientifique et technique, aux mots d'un emploi purement régional, au vocabulaire d'origine étrangère, aux mots grossiers et au vocabulaire populaire et argotique. Une entrée, aussi appelée vedette, ou mot vedette, comprend normalement : (a) la lexie, ou plus petite unité porteuse de signification, ses dérivés affixaux et ses composés (pomme, pommier, pomme de terre) ; (b) les morphèmes grammaticaux, c’est-à-dire les mots vides qui indiquent les rapports entre les mots pleins, porteurs de signification ou sémantèmes ; (c) la prononciation ; (d) les marques d'usage ; (e) des exemples. Les renseignements linguistiques sont de trois ordres : sémantiques : définitions formels : catégorie (verbe, adverbe, substantif, adjectif, etc.), possibilités combinatoires historiques : étymologie. Définition Un dictionnaire doit d'abord donner la définition du mot. Cette opération, bien plus complexe qu'elle n'en a l'air, est . Elle occupe les logiciens depuis des siècles et est également étudiée par la linguistique, la sémiotique et la psycho-sociologie. Selon la méthode fondée par Aristote, définir consiste à découvrir les attributs essentiels, en identifiant les différences et en remontant, par paliers successifs, à la catégorie supérieure. Ainsi, on définirait l’acception principale du mot chien comme un animal de la classe des mammifères, ordre des carnivores et famille des canidés. En procédant ainsi, il faut évidemment veiller à ne pas empiéter sur le sens d'autres mots. En théorie, selon cette méthode, les divers objets du monde pourraient s'emboîter dans un arbre binaire, mais cela n'est valide que pour les objets mathématiques, le langage humain comportant un espace de « jeu » essentiel à la compréhension. Dans la pratique, les définitions incorporent aussi des propriétés non essentielles, mais qui aident le lecteur à identifier ce dont il est question. Ainsi, une définition de chien va inclure que l’animal peut servir comme chien de garde, de chasse, de trait, etc. Ces notations sont de nature encyclopédique, tout comme le fait qu'il aime ronger un os. De nombreux dictionnaires intègrent ces données encyclopédiques au moyen d'exemples. Il est rare qu'une seule définition épuise tous les sens d'un mot. Le plus souvent, un mot va avoir plusieurs acceptions, c'est-à-dire plusieurs significations, phénomène que l'on désigne par le terme de polysémie. Dans certains cas, un mot peut même désigner deux réalités opposées, comme le mot « hôte » qui peut signifier, selon le contexte, la personne qui accueille ou celle qui est accueillie. Souvent, la différence de sens provient d'un emploi figuré plutôt que littéral ou des déplacements de sens d'un domaine d'activité à un autre. Ainsi, le sens du mot « fuite » varie selon qu'il est utilisé en droit, en peinture, en aéronautique, en économie, en plomberie ou en politique. Un dictionnaire doit non seulement identifier les divers sens du mot, mais encore les classer d'une façon aussi cohérente et significative que possible. Il peut également comporter un répertoire indexé pour en faciliter l'utilisation. Présence d'exemples Les exemples sont apparus en français avec le dictionnaire de Richelet, en 1680 (voir ci-dessous). Ils ont une triple utilité : Ils éclairent le sens d'un mot par son emploi en contexte : . Les exemples mettent en évidence les rapports syntaxiques d'un mot avec d'autres, comme le choix de la préposition acceptée par un verbe (aider quelqu'un à, dans, pour), la place de certains adjectifs, etc. Les exemples attirent l'attention sur les cas où le mot fait partie d'une locution, d'un cliché : une discussion animée, un soleil radieux, perdre la face. Données étymologiques L'étymologie est apparue dans les dictionnaires français avec Origines de la langue française (1650), de Ménage, qui « découvrit seul, et de manière intuitive, l'origine d'un grand nombre de mots français ». Les bases d'une étymologie scientifique ont été posées par le philologue allemand Friedrich Christian Diez (1794-1876). Le domaine est maintenant couvert par l'ouvrage monumental de Walther von Wartburg (1888-1971), grâce auquel « nous disposons d'informations indiscutables, dans presque tous les cas, sur l'étymologie des mots français ». L'histoire du mot est souvent plus instructive que l'étymologie, car elle permet de voir l'évolution des significations au fil des siècles, mais ces données sont souvent très fragmentaires dans les dictionnaires courants. La datation est également une donnée intéressante, qui indique la date à laquelle un mot a été employé en français pour la première fois dans un texte. Prononciation Des indications sur la prononciation des mots sont devenues courantes avec le Dictionnaire de la langue française (1863) de Littré. Divers procédés de transcription phonétique ont été utilisés, avec plus ou moins de bonheur, par divers dictionnaires. En 1967, le Petit Robert a adopté l'A.P.I. ou alphabet phonétique international, qui, en plus d'être standardisé à travers les dictionnaires de différentes langues, présente trois avantages : chaque son est noté par un seul signe, toujours identique ; chaque signe n'a qu'une seule valeur phonétique ; les signes représentent ce qui est réellement prononcé. La prononciation n'est pas homogène, mais varie selon les régions et les groupes sociaux. Des mots comme sculpteur et oignon possèdent des lettres que les locuteurs cultivés ne prononcent pas, mais le cas de dompteur est moins clair, les deux formes étant en usage : et . L'auteur d'un dictionnaire doit donc déterminer la forme recommandée en se basant sur la prononciation la plus acceptée, qui n'est pas nécessairement la plus répandue. Ces questions complexes, qui touchent à la norme dans ce qu'elle a de plus intime et de moins conscient, ont justifié la rédaction d'ouvrages spécialisés, tel le Dictionnaire de la prononciation française dans sa norme actuelle (1964) de Léon Warnant. Lemmatisation Il ne serait pas efficace, pour un dictionnaire de langue, de retenir toutes les formes fléchies des mots, car cela amènerait un fort taux de répétition. Si certains mots ont une forme unique, tels les adverbes, beaucoup d'autres, en effet, existent sous diverses formes, selon qu'ils sont au singulier ou au pluriel, au masculin ou au féminin, ou s'ils sont des verbes aux formes conjuguées. Pour résoudre ce problème, on recourt à une opération de lemmatisation, qui consiste à regrouper les formes occurrentes d’un mot sous une même adresse lexicale. Si cette opération peut paraître à première vue assez simple, elle se trouve rapidement compliquée par les variations orthographiques survenues au fil du temps, voire par la présence, au sein d’une langue évoluée, de divers homographies. On peut s’en faire une idée en consultant un dictionnaire historique de langue ou un dictionnaire étymologique. Classement alphabétique ou idéologique ? Le classement alphabétique, qui nous paraît aujourd'hui normal et caractéristique des dictionnaires, n'a pas toujours été considéré comme la solution idéale. Le Dictionnaire de l'Académie française de 1694 avait plutôt adopté un classement par famille de mots : malaise est classé sous l'article aise, aîné sous naître, ennemi et inimitié sous amour, etc. Abandonné par la majorité des dictionnaires, un système similaire a cependant encore été retenu par von Wartburg pour son grand dictionnaire étymologique. Une solution mitoyenne est celle du Lexis des éditions Larousse (1979), qui limite les familles aux termes les plus proches, l'objectif, parfaitement défendable au plan pédagogique, étant de faire découvrir à un usager les mots apparentés à celui qu'il consulte. Ce genre de préoccupation devient sans objet avec les dictionnaires électroniques. Ordre des lemmes Le tri alphabétique, qui apparaît comme une évidence pour un utilisateur francophone contemporain, n'est pas universel. Il est réservé aux écritures alphabétiques ou logographiques. Les langues alphabétiques n'utilisent pas toutes le même alphabet (alphabet latin, grec, cyrillique...) ; dans un même alphabet, l'ordre des lettres peut varier selon la langue (exemple pour l'estonien, la séquence r s š z ž t). Pour les écritures idéographiques, comme celle du chinois, le classement est plus difficile et sujet à controverse (certains signes ayant différentes lectures : consulter le Dictionnaire de sinogrammes). Dans certains cas, le classement est encore plus difficile, car il n'existe pas de classification évidente ; c'est le cas des dictionnaires d'hiéroglyphes égyptiens ou mayas, ou des dictionnaires logographiques : leur unification est particulièrement difficile et s’appuie sur différentes études réalisées par des chercheurs différents, à différentes époques, avec des méthodes d’analyse très différentes et avec une connaissance souvent incomplète ou inexistante du système morphémique. Aspect normatif ou descriptif Les dictionnaires de langue peuvent se classer en deux catégories, selon qu'ils sont de type descriptif ou normatif, ce dernier cas étant le plus fréquent. Un dictionnaire descriptif s'attache autant que possible à décrire une langue telle qu'elle est écrite et parlée dans toute sa diversité ; un dictionnaire normatif tente au contraire d'établir la norme et d'orienter l'usage, en utilisant des expressions comme « à éviter » ou « locution vicieuse » : Standardisation des dictionnaires L'Organisation internationale de normalisation travaille afin de définir un cadre commun normalisé pour l'élaboration des lexiques du traitement automatique des langues. Histoire du dictionnaire L'Antiquité n'a pas eu de dictionnaire de langue au sens propre, mais elle a mis au point des listes de mots organisées en fonction de la première syllabe. Progressivement sont apparus des protodictionnaires ou formes intermédiaires du dictionnaire tel que nous le connaissons depuis la fin du . Les dictionnaires bilingues sont également apparus à une date très ancienne, mais il n'est pas évident qu'ils aient précédé les protodictionnaires. Sumer Les premières listes de mots apparaissent à Sumer, vers la fin du Elles sont utilisées à des fins pédagogiques, afin de former des scribes, profession très valorisée. On a ainsi trouvé une série de comportant classés en fonction de leur premier élément. Après l'arrivée des Akkadiens, des lexiques bilingues sumérien-akkadien se multiplient. On a aussi trouvé un ensemble de datant des environs de l'an 2000 , comportant environ où sont mis en correspondance mots sumériens et akkadiens et qui ressemble à une sorte d'encyclopédie du monde de la culture et de la nature, organisée thématiquement. Égypte On a également trouvé en Égypte ancienne des listes de mots organisées de façon thématique, telles l’Onomastique du Ramesseum, rédigé vers 1750 , et l’Onomastique d'Aménopé, rédigé vers -1100. Ce proto-dictionnaire (lointain ancêtre du dictionnaire) avait pour vocation « non pas d'apprendre à écrire aux enfants, mais de proposer un programme d'instruction de l'humanité fondé sur l'organisation du monde ». En matière de dictionnaires bilingues, on n'a retrouvé que des fragments d'un dictionnaire akkado-égyptien rédigé vers 1400 Il faut attendre la période alexandrine (de -323 à -30) pour voir se répandre les glossaires thématiques grecs-coptes. En 580 de notre ère, le Glossaire de Dioscore semble avoir remanié une onomastique grecque ancienne. Divers recueils de gloses ou de scholies (commentaires linguistiques sur des textes), désignés sous le nom de scala, paraissent durant cette période et dans les siècles qui suivent, servant d'étapes intermédiaires dans la mise au point du dictionnaire. Antiquité grecque Le courant sophiste porté sur l'art de convaincre, développe le besoin de préciser le sens des mots et l’utilisation d'un vocabulaire précis et adapté. On trouve des recueils de gloses destinés aux élèves, enseignants et au public lettré ; ce sont de petits lexiques attachés aux œuvres de grands écrivains fournissant des explications sur les mots rares ou difficiles. Au , Protagoras d’Abdère compile une liste des mots rares chez Homère. D'autres glossaires sont dus à Démocrite, Timée de Locres, Philémon d'Athènes (361-262), Philétas de Cos, Zénodote (320-240). Callimaque de Cyrène (310-240) a laissé une œuvre considérable, comportant notamment des glossaires thématiques. Ératosthène (276-194) se définit comme un philologue et développe cette discipline selon des principes rigoureux. Aristophane de Byzance (257-180) est un savant astronome et mathématicien qui s'intéresse aussi à la comédie et à la critique des textes ; un de ses ouvrages s'intitulait Peri Lexeon (Sur les mots), un autre était un dictionnaire des noms propres donnés à des courtisanes dans la comédie. Aristarque de Samothrace (220-143) rédige un lexique homérique. Cratès de Mallos rédige des glossaires. À l'ère chrétienne, on note les noms d'Apollonios le Sophiste, de Pamphile d'Alexandrie, d'Héliodore, et d'Aelius Herodianus qui jouent un rôle important dans l’évolution du dictionnaire par leurs études lexicographiques. Antiquité romaine Les Romains ont montré un intérêt très vif pour la langue. On connaît de cette période différents ouvrages de description de la langue ressemblant de près ou de loin à des dictionnaires. Varron, en plus d'un important ouvrage encyclopédique, a rédigé un traité intitulé De lingua latina (Sur la langue latine), qui fournit l'étymologie de nombreux mots. Le De Verborum significatione (Du sens des mots) de Verrius Flaccus au était une sorte de grand dictionnaire en vingt livres, compilation de gloses antérieures. L'auteur s'intéressait surtout aux mots rares trouvés dans les textes littéraires, aux nuances dans l'emploi des mots et à l'étymologie, ainsi qu'aux proverbes et locutions usuelles. Organisé selon un ordre alphabétique, cet ouvrage sera abondamment utilisé durant de nombreux siècles, notamment par Isidore de Séville. Le début de l'ère chrétienne est marqué par le fort développement des gloses des auteurs latins et de la jurisprudence. La tendance est renforcée par l'apparition du codex qui favorise l'étude des textes. Ces recueils de grande dimension continuent donc de mêler les mots et les choses, les noms propres et les extraits. Parmi les gloses les plus célèbres : L’Onomasticon de Julius Pollux () est la plus importante somme lexicale de l'époque. Les mots y sont classés par sujets, l'ouvrage propose des synonymes. Cet ouvrage comporte de nombreuses citations littéraires ainsi que des données encyclopédiques sur la religion, le droit, l'anatomie, les sciences et les techniques, le commerce, la cuisine, les jeux, etc. Nonius Marcellus compose un lexique encyclopédique en vingt livres. L'évêque syrien Philoxène de Mabboug rédige vers 480 un glossaire bilingue latin-grec. Fulgence rédige au début du une Expositio sermonum antiquorum dans laquelle il explique d'anciens mots latins. Malgré les lacunes et erreurs, ces ouvrages restent essentiels pour la lexicographie et la lexicologie latine. Monde arabe Khalil ibn Ahmad (718-791) rédige le premier dictionnaire de la langue arabe, le Kitab al-Ayn (Le livre source). À la suite de celui-ci, une douzaine de dictionnaires arabes sont rédigés jusqu'au . Ces ouvrages sont particulièrement intéressants pour leurs importantes rubriques de citations, qui renvoient à des grammaires, des textes religieux, des ouvrages poétiques, ou encore des proverbes. Chine Le chinois s'est formé très tôt et son écriture a peu évolué. Le premier dictionnaire connu, le Er ya date probablement du avant l'ère commune. Le premier dictionnaire largement répandu, le Shuowen Jiezi a été publié au début du . 9353 idéogrammes, dont 1163 à doubles significations, avaient leur prononciation et étaient réunis dans l’ancêtre du Shingi, ouvrage en 44 volumes. Voir Dictionnaire de sinogrammes. Inde Le Amarakosha fut le premier lexique sanskrit, rédigé par Amarasimha, probablement au à la cour des empereurs Gupta. Moyen Âge Isidore de Séville (560-636) rédige vers la fin de sa vie les Etymologiae, énorme compilation du savoir antique en vingt livres, comprenant notamment un livre consacré aux étymologies. L'étymologie est une dimension essentielle de la réflexion linguistique ancienne, car on supposait que celle-ci permettait de remonter à la véritable nature du mot. L'évêque goth Ansileube rédige vers 680-690 « le plus grand des répertoires médiévaux latins », le Liber Glossarum où sont rangées par ordre alphabétique quelque gloses. D'autres glossaires importants sont le Glossaire de Reichenau (), un lexique latin-roman comptant près de paires de lemmes et gloses. Le Glossaire de Cassel (), beaucoup moins important, réunit romans pour lesquels il fournit des équivalents en langue germanique. La Souda est une encyclopédie en grec attribuée à Souda, réalisée à Byzance au . Elle contient rangées selon la façon dont les lettres grecques étaient alors prononcées. Papias, dit le Vocabulista, qui aurait vécu en Lombardie au , « provoque une révolution dans la dictionnairique latine médiévale en introduisant de nouveaux paramètres dans la mécanique de rédaction des dictionnaires ». Il recourt à la dérivation, ajoute des données grammaticales, indique des synonymes et perfectionne le classement alphabétique, tout en expliquant longuement sa méthode en introduction. Cet ouvrage sera connu sous de nombreux titres, tels Alphabetum Papie, Breviarium Papiae, Elementarium doctrinae rudimentum, etc. Jean de Garlande rédige le Dictionarius (1220), recueil de mots latins classés par sujets à l'intention des écoliers. C'est le plus ancien emploi connu du mot « dictionarius », ancêtre direct de notre « dictionnaire ». Jean de Gênes, aussi connu sous le nom de Giovanni Balbi rédige vers la fin du le Catholicon (dont le sens littéral est Somme ou Totalité), vaste compilation qui emprunte aux ouvrages de Papias et d'Isidore de Séville, et dont la quatrième partie est un dictionnaire latin alphabétique. Cet ouvrage introduit les renvois à l'intérieur d'un même ouvrage. Il en existe près de deux cents manuscrits, signe de son succès. Renaissance On ne trouve toujours pas à la Renaissance de dictionnaire au sens où nous l'entendons aujourd'hui, car ils ne sont pas monolingues. En 1464, Jehan Lagadeuc publie le Catholicon breton, premier dictionnaire trilingue du monde (breton-français-latin), le premier dictionnaire breton et premier dictionnaire français. Le 15 juin 1487, Louis Cruse alias Garbin achève à Genève l'impression d'un vocabulaire latin-français. En 1502 est publié le Dictionarium latinum par Ambrogio Calepino. D'abord conçu comme dictionnaire unilingue du latin, cet ouvrage sera développé par son auteur en un Dictionnaire polyglotte (hébreu, grec, latin et italien) d'une érudition prodigieuse et qui sera maintes fois réédité. Le grand imprimeur et érudit Robert Estienne s'inspirera du « Calepin » pour créer son Dictionarium seu Linguae latinae thesaurus (1531), où le latin est partiellement traduit. En 1539, Estienne publie le Dictionnaire français-Latin, autrement dit les Mots français avec les manières d'user d'iceux, tournés en latin. Ouvrage qui donnera « une impulsion certaine aux études de vocabulaire ». Son Dictionnaire sera réédité jusqu'au Thrésor de la Langue Francoise de Jean Nicot, qui servira de base majeure au premier Dictionnaire de l'Académie, en 1694. C'est le premier ouvrage à porter le nom de "Dictionnaire", et à utiliser le français comme langue d'entrée. Invention du dictionnaire monolingue définitionnel Le premier dictionnaire européen entièrement consacré à une langue vivante et proposant pour chaque entrée une définition est le Tesoro de la lengua castellana o española de Covarrubias paru en 1611. La langue italienne est la première à se donner un dictionnaire monolingue rédigé par une académie linguistique : le Vocabolario dell' Accademia della Crusca, dont la première édition paraît à Florence en 1612. En français, il faudra attendre Richelet pour que paraisse le premier dictionnaire monolingue de langue française (1680). La langue anglaise, bien que pourvue de divers dictionnaires, devra attendre 1755 pour se voir dotée d'un dictionnaire exhaustif de la langue anglaise avec le Dictionary of the English Language. Dictionnaires de la langue française Notes Voir aussi Bibliographie Bernard Quemada, Les Dictionnaires du français moderne (1539-1863), Didier, 1968 Dictionnaires répertoriés sur wikisource Articles connexes Concordancier Dictionnaire de rimes Glossaire Grammaire Histoire du dictionnaire en France Lexique Lexicographie Linguistique Système à répertoires Thésaurus (dictionnaire) Thésaurus lexicographique Liens externes
985
https://fr.wikipedia.org/wiki/Douamoutef
Douamoutef
Douamoutef est un génie à tête de chacal de la mythologie égyptienne, souvent associé à la ville de Hiérakonpolis. Divinité protectrice de l’estomac des morts, elle est représentée avec une tête de chacal. Il est l’un des quatre génies funéraires anthropomorphes, appelés « Les enfants d'Horus ». Ils avaient pour mission de garder les viscères du corps du défunt. À partir de la fin de la , les bouchons des vases canopes sont modelés à l’image des divinités qui les protègent. Le vase canope qui renferme l’estomac protégé par Douamoutef, à un couvercle qui représente une tête de chacal. Pour que le pouvoir s’accomplisse et qu’il protège les organes momifiés, ce génie doit être associé à une déesse et à un point cardinal. Pour Douamoutef c’est la déesse Neith et l’Est. Les quatre enfants d'Horus représentés sur les vases canopes : Imsety, ou Amset, protège le foie, avec Isis ; Hâpi, protège les poumons, avec Nephtys ; Douamoutef, protège l'estomac, avec Neith ; Kébehsénouf, protège l'intestin, avec Serket. Index égyptologique Divinité égyptienne Divinité de la mort
986
https://fr.wikipedia.org/wiki/Liste%20de%20divinit%C3%A9s%20%C3%A9gyptiennes%20par%20ordre%20alphab%C3%A9tique
Liste de divinités égyptiennes par ordre alphabétique
Liste des dieux et déesses égyptiens par ordre alphabétique (en italique, autre nom d'un dieu avec redirection vers le nom principal) : A Âbâset - Ach - Ageb - Aha - Aheqet - Aken - Aker - Akhet la prairie - Amam - Amaounet - Amemet - Amenhotep - Amenothes - Ament - Amentet - Am-Heh - Ammit - Amon-Min - Ammon-Zeus - Ammout - Amon - Amonet - Amon-Rê - Amset - Anat - Andj - Andjéty - Andjty - Anhor - Anhour - Anouket - Anoukis - Anoupou - Anqet - Anty - Antywy - Anubis - Anupet - Anzti - Apedemak - Âperet-Isis - Apet - Api - Apis - Apophis - Apopis - Âqen - Arensnouphis - Arensnouphis-Dedoun - Arsaphes - Aset - Ash - Astarté - Aton - Atoum - Ausar B Baal - Baâl - Baalat - Baba - Babaï - Babi - Bakha - Ba-Pef - Banebdjedet - Baou Imenty - Baq - Bastet - Basty - Bat - Bata - Behedetite - Bélier seigneur de Mendès - Benben - Benu - Benwen - Bès - Boukhis C Chai - Ched - Chentaït - Chentyt - Chepes - Chesmet - Chesmou - Chou D Dedoun - Dedwen - Denwen - Djéhuti - Djen - Douaour - Douamoutef - Douat - Dounanoui - Doun-anouy - Dounâouy E Edjo - Ermouthis - Esprits de l'Ouest F Fetket G Geb - Gengen Wer H Ha - Hâpi - Hâpy - Harachte - Harakhtes - Harakhti - Harmakhis - Haroeris - Harpocrate - Harparê - Harsaphes - Harsiesis - Harsomtous - Harsontoum - Hathehyt - Hathor - Hatmehyt - Haurun - Ha-hotep - Heddet - Hededèt - Hedjour - Heh - Hehet - Hehou - Hemen - Henou - Heqa l'enfant - Heqat - Heqet - Heret-Kau - Hermanubis - Heryshef - Heryyshaf - Hesat - Hetepes-Sekhous - Hity - Hor - Horakhty - Horemakhet - Hormerty - Hornoufi - Horus - Horus aux deux yeux - Horsaïsis - Hor-khentakhtaï - Hotep - Hou - Houroun - Hyt I Iâh - Iahès - Iat - Ibou-ouret - Igaï - Ihet - Ihi - Ihy - Ikhesef - Imenhy - Imentèt - Imhotep - Imouthes - Iouf - Iounmoutef - Iounyt - Iousaas - Ipy - Iry - Irta - Ir-renef-djesef - Irto - Isdès - Ishtar - Isis - Izi K Kamoutef - Kébehsénouf - Kek - Keket - Kekou - Kekout - Kemour - Khefethernebes - Khensit - Khentamentiou - Khentekthai - Khentétkhas - Khenty - Khentykhety - Khepri - Kherty - Khérybaqef - Khnoum - Khonsou - Kolanthes L M Maa - Maanitef - Maât - Mafdet - Mahaef - Matit - Mandulis - Mehen - Mehenyt - Mehet-Weret - Mehyt - Mekhenti-En-Irty - Mekhenty-Irty - Menhyt - Mennéfer - Menqèt - Mentit - Meret - Mertseger - Meryt - Merour - Meskhenet - Methyer - Methyour - Mihos - Min - Miysis - Mnévis - Monthou - Montou - Mout N Naounet - Naunet - Nebethetepet - Nebetouou - Nebou - Nefertem - Nefertoum - Nehebkaou - Nehebu-Kaou - Nehet-kaou - Nehemetaouay - Neit - Neith - Nekhbet - Nékhbet - Nekheb-Kaou - Nemty - Nephtys - Nepri - Noun - Nounet - Nout - Nya - Nyat O Ogdoade d'Hermopolis - Onnophris - Onouris - Opet - Ophois - Osiris - Ouadjet - Ouadjit - Ouadjour - Ouasèt - Ouazet - Oudjat - Oukh - Ounennéfer - Ounout - Ounshepsef - Oupaout - Oupesèt - Oupouaout - Oupouat - Oupouaout-Rê - Our - Ourèthékaou - Outo P Pachet (Pakhet) - Panebtaouy - Peteese - Pihor - Ptah - Ptah-Sokar - Ptah-Sokar-Osiris-Peret Q Qadesh - Qébéhout - Qebehsenouf - Qefedenou - Qerehèt R Ra - Rattaoui - Râttaouy - Rê - Rê-Horakhty - Renenout - Renenoutet - Renoutet - Répit - Reshep - Résoudja - Rosetaou S Samaty - Sarapis - Satis - Sbomeker - Sebhmet - Sebioumeker - Séchat - Sedjem - Sefegiru - Séfekhètâbouy - Sefkhet-Abwy - Seker - Sekhathor - Sekhmet - Selket - Selkis - Selkit - Sématourèt - Senmenty - Sepa - Sépédèt - Sept Hathor - Sérapis - Serket - Serqet - Seshat - Seth - Shai - Shed - Shedit - Shentaït - Shepès - Shesmetet - Shesmou - Shetat - Shezmou - Shou - Sia - Singe-Qefdenou - Sobek - Sokar - Sokaris - Somtous - Sopdou - Soped - Sopdet - Sôpdit - Sothis T Taït - Taa - Tapsaïs - Taueret - Taouret - Tasenètnéferèt - Tasenetnofret - Taténen - Tatjenen - Taurt - Tawaret - Taweret - Tayet - Taÿt - Tefnet - Tefnout - Témèt - Tenenet - Thoéris - Thot - Thouéris - Tjaïsepef - Tjenenet - Toum - Toutou - Typhon U Uræus W Wadj Wer - Wadjet - Weneg - Wosret Y Yah - Yam Index égyptologique
990
https://fr.wikipedia.org/wiki/Dreamcast
Dreamcast
La est une console de jeux vidéo développée par Sega, et le successeur de la Saturn. Commercialisée dès novembre 1998 au Japon, elle est la première console de sixième génération présente sur le marché, avant ses concurrentes . Son nom est composé des mots (rêve) et (de : diffuser). Elle a été connue pendant son développement sous les noms Blackbelt, Dural et Katana. Contrairement à la Saturn, fabriquée en utilisant du matériel informatique onéreux crée spécifiquement pour cette console, la Dreamcast est conçue pour réduire les coûts grâce à l'utilisation de composants standardisés, dont un CPU Hitachi SH4 et un GPU NEC PowerVR2. Si la Dreamcast est accueillie assez froidement par le public japonais, son lancement en Europe et aux États-Unis a été une réussite, en partie grâce à la vaste campagne de marketing lancée par Sega. Mais l'intérêt que porte le public à la console diminue au fur et a mesure que Sony multiplie les annonces concernant sa future console, la PlayStation 2. Malgré plusieurs baisses de prix, le chiffre d'affaires ne répond pas aux attentes de Sega et l'entreprise continue d'enregistrer des pertes financières importantes. Après un changement de direction, Sega cesse la commercialisation de la console Dreamcast le . La firme ne produit pas de nouvelle console et se retire ainsi complètement du milieu des jeux vidéo de salon en se restructurant pour devenir un éditeur tiers. Lorsque la production de la console est interrompue, de consoles Dreamcast ont été vendues dans le monde entier. Bien que la Dreamcast ait eu une courte durée de vie et un support limité de la part des développeurs tiers, les critiques l'ont qualifiée de console en avance sur son temps. Sa ludothèque contient de nombreux jeux considérés comme créatifs et innovants, parmi lesquels Crazy Taxi, Jet Set Radio et Shenmue, ainsi que des portages de qualité de nombreux jeux Sega sorti sur le système d'arcade NAOMI. Elle est également la première console livrée en standard avec un modem lui permettant un support de jeu en ligne, de se connecter à Internet et ainsi de consulter des pages web ou bien de lire des courriels. Historique Sega avant la Dreamcast Lorsqu'elle sort en 1988, la Mega Drive (connue sous le nom de Sega Genesis en Amérique du Nord) marque l'entrée de Sega dans la quatrième génération des consoles de jeux vidéo. Vendue à d'exemplaires dans le monde, la Mega Drive est la console de Sega la plus vendue. La Saturn, qui succède à la Mega Drive, sort au Japon en 1994. La Saturn est une console équipée d'un lecteur de CD-ROM qui génère des visuels en 2D et en 3D, mais son architecture complexe, basée sur deux processeurs la rend plus difficile à programmer que sa principale concurrente, la PlayStation de Sony. Bien que la Saturn soit sortie avant la PlayStation au Japon et aux États-Unis, son lancement surprise aux États-Unis, qui a eu lieu quatre mois plus tôt que la date prévue à l'origine, est gâché par des problèmes de distribution limitée, qui perdurent jusqu’à l’arrêt de la production de la console. De plus, les avantages que Sega pouvait espérer retirer d'une sortie anticipée de sa nouvelle console sont quasiment réduits à néant par une annonce faite de manière simultanée par Sony concernant le prix de la PlayStation : elle est vendue au prix de 299 dollars, contre pour la Saturn. Durant les années qui suivent la sortie de la Playstation, Sony réussit à s'imposer sur le marché des consoles de jeux vidéo, en partie grâce au long retard pris par Nintendo dans le développement d'une console 3D concurrente, et aux dommages causés à la réputation de Sega par la vente d'extensions pour la Mega Drive dont le suivi est médiocre, voire quasi inexistant (en particulier la 32X). Mais si la PlayStation connaît un succès immédiat aux États-Unis, c'est aussi grâce à la campagne publicitaire massive qui accompagne sa sortie, et à un solide soutien des éditeurs tiers, Sony ayant réussi à les attirer en mettant à leur disposition d'excellents outils de développement et en fixant le prix des licences de développement à . De plus, le succès de Sony est facilité par une guerre des prix lancée par Sega, qui baisse celui de la Saturn de 399 à , puis de 299 à afin d'égaler le prix de la PlayStation. Mais, non seulement cela ne suffit pas à relancer les ventes, car la Playstation bénéficie d'une ludothèque plus importante que sa concurrente (ce qui n'incite pas à acheter une console Sega malgré ces baisses de prix), mais en plus comme le matériel utilisé pour fabriquer la Saturn est plus coûteux, chaque ristourne tarifaire augmente les pertes que Sega subit a chaque vente d'une Saturn. Finalement les difficultés financières de Sega ne font que s'aggraver, la firme voyant son chiffre d'affaires diminuer entre 1992 et 1995 dans le cadre d'un ralentissement de l'industrie, couplé aux mauvaises ventes de ses consoles. En raison de désaccords de longue date avec Sega Japon, Tom Kalinske, le PDG de Sega of America, se désintéresse de son travail. Le 16 juillet 1996, Sega annonce que Shoichiro Irimajiri est nommé président et CEO de Sega of America, tandis que Kalinske quitte Sega le 30 septembre de la même année. Sega annonce également que David Rosen, le cofondateur de Sega Enterprises, et Hayao Nakayama, le PDG de Sega Japon, ont démissionné de leurs fonctions de président et de coprésident de Sega of America, bien que les deux hommes restent des employés de l'entreprise. Bernie Stolar, un ancien cadre de Sony Computer Entertainment of America, est nommé vice-président exécutif de Sega of America chargé du développement des produits et des relations avec les tiers. Stolar ne soutient pas la Saturn, car il pense que cette console a été mal conçue et il annonce publiquement à l'E3 1997 que . Après le lancement de la Nintendo 64, les ventes des jeux Saturn diminuent fortement. En août 1997, Sony contrôle 47 % du marché des consoles, Nintendo 40 % et Sega seulement 12 %. Malgré les baisses de prix et les efforts de Sega, la Saturn est un échec commercial. En raison de la mauvaise performance de la Saturn en Amérique du Nord et en Europe, Sega of America, qui gère ces deux marchés, licencie 60 de ses à l'automne 1997. En raison de la détérioration de la situation financière de Sega, Nakayama démissionne de son poste de président en janvier 1998 en faveur de Shoichiro Irimajiri, puis Bernie Stolar remplace Tom Kalinske comme président de Sega of America. Après cinq années de baisse générale des bénéfices, Sega subi, au cours de l'exercice clos le 31 mars 1998, ses premières pertes financières, tant sociales que consolidées, depuis son introduction à la Bourse de Tokyo en 1988. En raison d'une baisse de 54,8 % des ventes de produits de consommation (dont une baisse de 75,4 % à l'étranger), la société enregistre une perte nette de de yens et une perte nette consolidée de de yens. Peu avant d'annoncer ses pertes financières, Sega annonce l'arrêt de la Saturn en Amérique du Nord, afin de préparer le lancement de la console qui va lui succéder. Cette décision a pour conséquence directe de laisser le marché occidental sans jeux Sega pendant plus d'un an. Très vite, des rumeurs à propos de la future Dreamcast, diffusée principalement par Sega, commencent à circuler, et ce avant même la sortie des derniers jeux Saturn. Genèse Dès 1995, des rapports indiquent que Sega collabore avec Lockheed Martin, The 3DO Company, Matsushita, ou Alliance Semiconductor pour créer un nouveau GPU qui, selon des sources contradictoires, serait utilisé pour une 64 bits ou un périphérique supplémentaire. En fait, le développement de la Dreamcast n'a aucun rapport avec le projet évoqué par ces rumeurs : Tirant les leçons des mauvaises performances de la Saturn sur le marché, Irimajiri décide de se tourner vers d'autres intervenants que la division de développement matériel interne de la société pour créer une nouvelle console. En 1997, Irimajiri fait appel aux services de Tatsuo Yamamamoto d'IBM pour diriger une équipe de travaillant sur un projet secret aux États-Unis, appelé . Pendant ce temps, une équipe interne, dirigée par Hideki Sato, commence le développement du hardware d'un autre projet baptisé . Les sources divergent concernant la manière dont ces deux projets ont été lancés en même temps. Selon certaines, c'est Sega Japon qui a décidé que les deux équipes devaient travailler sur les deux projets en même temps, tandis que d'autres suggèrent que Sato a été dérangé par le choix d'Irimajiri d'externaliser le développement et décidé de son propre chef de lancer le projet . Sato et son groupe choisissent pour leur projet le processeur central SH-4 fabriqué par Hitachi et le processeur graphique VideoLogic PowerVR2, fabriqués par NEC. est rapidement rebaptisé , du nom de code du combattant féminin métallique de la série Virtua Fighter de Sega. De son côté, le groupe de Yamamoto choisit d'utiliser des processeurs graphiques Voodoo 2 et Voodoo Banshee de 3dfx avec comme unité centrale (CPU) un Motorola PowerPC , mais assez vite, la direction de Sega leur demandé d'utiliser également le SH-4. Les deux processeurs sont décrits comme étant des composants . En 1997, 3dfx prépare son introduction en bourse, et, à cause d'obligations légales liées à cette introduction, dévoilé ses contrats avec Sega, y compris le développement de la nouvelle console. Cela irrite les cadres de Sega Japon, qui décident finalement de favoriser le projet Dural et de couper les liens avec 3dfx. Selon Charles Bellfield, qui est à la fois l'ancien vice-président des communications de Sega of America et l'ancien directeur de la marque NEC, les présentations des jeux utilisant la solution NEC ont mis en évidence les performances et le faible coût de l'architecture SH-4 et PowerVR. Il ajoute que . Stolar, d'autre part, estime que . En conséquence, 3dfx intente une action en justice contre Sega et NEC pour rupture de contrat, qui est finalement réglée à l'amiable. Le choix d'utiliser l'architecture PowerVR a des conséquences pour Electronic Arts, un développeur de longue date pour les consoles de Sega. Electronic Arts avait investi dans la technologie 3dfx mais ne connaissait pas l'architecture finalement retenue, qui était apparemment moins puissante. Comme le rappellent Shiro Hagiwara (directeur général de la division hardware de Sega) et Ian Oliver (directeur général de la filiale Cross Products de Sega), le SH-4 a été choisi alors qu'il était encore en développement, et après un long processus de délibération, car il était le seul processeur disponible qui . En février 1998, Sega rebaptise le projet Dural , bien que certaines spécifications matérielles telles que la mémoire vive (RAM) ne soient pas encore finalisées. Sachant que la Saturn a été handicapée par ses coûts de production élevés et son matériel complexe, Sega adopte une approche différente avec la Dreamcast. Comme les précédentes consoles Sega, la Dreamcast est conçue autour de sous-systèmes intelligents, fonctionnant en parallèle les uns avec les autres, mais les choix concernant le matériel ressemblent plus à ce qu'il se fait lors de l'élaboration d'un PC que d'une console de jeux vidéos, réduisant le coût du système. Selon Damien McFerran, . L'économiste chinois, et futur PDG de Sega.com, Brad Huang réussit à convaincre Isao Okawa, le président de Sega, d'inclure un modem dans chaque Dreamcast, malgré l'opposition du personnel d'Okawa à cause du coût additionnel de par unité. Pour tenir compte des changements rapides dans la livraison des données à domicile, Sega conçoit le modem de la Dreamcast pour être modulaire et remplacable par un modèle plus performant si nécessaire. Sega choisit le format GD-ROM pour les jeux de sa nouvelle console. Le GD-ROM, qui a été développé conjointement par Sega et Yamaha Corporation, peut être produit en série à un prix similaire à celui d'un CD-ROM classique, évitant ainsi les coûts plus élevés de la technologie DVD-ROM. Comme le format GD-ROM peut contenir environ 1 Go de données, contre pour un CD-ROM, les copies illégales de jeux Dreamcast réalisées sur des CD-ROM nécessitent parfois la suppression de certaines fonctions desdits jeux, un handicap qui n'a pas empêché la copie des logiciels Dreamcast. Microsoft développe une version personnalisée pour la Dreamcast de Windows CE avec une API DirectX et des bibliothèques de liens dynamiques, ce qui facilite le portage des jeux PC sur la plate-forme, bien que les programmeurs préférèrent finalement les outils de développement de Sega à ceux de Microsoft. Sega organise un concours public pour trouver un nom pour sa nouvelle console et examine plus de propositions différentes avant de choisir , un mot-valise créer à partir de (rêve) et (diffuser). Selon Katsutoshi Eguchi, c'est le développeur de jeux japonais Kenji Eno qui a soumis le nom et créé le logo en spirale de la Dreamcast, mais cette affirmation n'est pas confirmée par Sega. Le son qui retentit au démarrage de la console est composé par le musicien japonais Ryūichi Sakamoto. Comme la Saturn a terni la réputation de Sega, la société prévoit de retirer entièrement son nom de la console et d'établir une nouvelle marque de jeu, comme Sony l'avait fait avec la PlayStation, mais l'équipe d'Irimajiri décide finalement de conserver le logo Sega sur la Dreamcast. En tout, Sega a dépensé entre 50 et de dollars pour le développement de matériel informatique, entre 150 et de dollars pour le développement de logiciels et de dollars pour la promotion mondiale, une somme qu'Irimajiri, un ancien dirigeant de Honda, compare avec humour aux investissements requis pour concevoir de nouvelles automobiles. Lancement Un lancement décevant au Japon Malgré des pertes massives dues aux mauvaises ventes de la Saturn, dont une baisse de 75 % des bénéfices semestriels juste avant le lancement japonais de la Dreamcast, Sega est confiant quant à sa nouvelle console. En effet, la Dreamcast suscite beaucoup d'intérêt et les précommandes sont nombreuses. Sega annonce que Sonic Adventure, le nouveau jeu mettant en vedette Sonic, la mascotte de Sega, arrivera à temps pour le lancement de la Dreamcast, et fait la promotion du jeu avec une démonstration publique à grande échelle au Tokyo Kokusai Forum Hall Cependant, Sega n'arrive pas à atteindre ses objectifs d'expédition de consoles aux revendeurs pour le lancement japonais de la Dreamcast, en raison d'une pénurie de processeurs PowerVR causée par un taux de défaillance élevé dans le processus de fabrication. Comme plus de la moitié de son stock limité de consoles a déjà été pré-commandée, Sega arrête les pré-commandes au Japon. La Dreamcast est commercialisée le au Japon au prix de yens, et tout le stock mis en vente est épuisé à la fin de la journée. Cependant, sur les quatre jeux disponibles au lancement, seul Virtua Fighter 3, la plus grande réussite de l'histoire de Sega dans les salles d'arcades japonaises, se vend bien. Sega estime que à Dreamcast supplémentaires auraient pu être vendues avec un approvisionnement suffisant. De plus, deux jeux phares qui devaient être disponibles lors de la mise en vente de la Dreamcast, Sonic Adventure et Sega Rally Championship 2, sont retardés et ne sont mis en vente que dans les semaines qui suivent le 27 novembre. Mais malgré ces nouvelles sorties, les ventes restent moins élevées que prévu Irimajiri espérait vendre plus d'un million de Dreamcast au Japon avant février 1999, mais à cette date, moins de consoles sont vendues. Ces méventes sapent les tentatives de Sega de se constituer une base installée suffisante pour assurer la survie de la Dreamcast après l'arrivée des nouvelles consoles des autres fabricants. Sega reçoit des rapports indiquant que des consommateurs japonais, déçus par leurs achats, ramènent leurs Dreamcast chez les revendeurs et utilisent l'argent des remboursements pour acheter des jeux PlayStation. Seaman, qui sort en juillet 1999, est considéré comme le premier grand succès de la Dreamcast au Japon. Avant le lancement de sa console dans les pays occidentaux, Sega réduit le prix de la Dreamcast à yens, soit un prix qui est en dessous du seuil de rentabilité de la console, mais augmente les ventes. La réduction du prix et la sortie du jeu SoulCalibur de Namco permettent aux actions Sega de gagner 17 % a la bourse de Tokyo. Avant la sortie de la Dreamcast, Sega subit un coup dur quand Electronic Arts, le plus grand éditeur tiers de jeux vidéo de l'époque, annonce qu'il ne développera pas de jeux pour la nouvelle console de Sega. Bing Gordon, le directeur artistique d'Electronic Arts, déclare que Sega . Gordon affirme également que . Stolar livre un autre récit de l'échec des négociations avec Electronic Arts. Selon lui, c'est surtout dû au fait que Larry Probst, le président d'Electronic Arts, souhaitait que sa société ait l'exclusivité du développement des jeux de sport sur Dreamcast, ce que Stolar ne pouvait accepter en raison du récent achat par Sega de Visual Concepts, un développeur de jeux de sports, pour de dollars. Alors que la série Madden NFL d'Electronic Arts a établi la prééminence de la société dans le domaine des simulations sportives, Stolar considère que le jeu NFL 2K de Sega est bien supérieur et offre pour le lancement de la Dreamcast. Alors que la Dreamcast n’aura aucun des jeux de sport populaires d'Electronic Arts, les jeux Sega Sports, développés principalement par Visual Concepts, contribuent à combler ce vide. Un lancement réussi aux États-Unis Profitant des dix mois qui ont suivi la sortie de la Dreamcast au Japon, Sega of America fait le nécessaire pour assurer un lancement américain plus réussi qu'au Japon. Travaillant en étroite collaboration avec Midway Games, qui développe quatre jeux devant accompagner le lancement américain de la Dreamcast, Sega veut avoir, au minimum, 15 jeux disponibles en même temps que la console. Malgré l'amertume persistante depuis la sortie anticipée de la Saturn et ses conséquences, Stolar réussit à renouer les liens avec les principaux détaillants américains, auxquels Sega a pré-vendu Dreamcast. De plus, une promotion de pré-lancement permet aux consommateurs de louer la console dans les magasins de la chaîne Hollywood Video durant les mois précédant son lancement officiel, prévu en septembre. Peter Moore, le vice-président senior du marketing chez Sega of America, un fan du style marketing de Sega pendant la période Megadrive, travaille avec Foote, Cone & Belding et Access Communications pour développer la campagne ; des spots publicitaires télévisés de qui mettent en avant la puissance du matériel de la Dreamcast. Selon Moore, . Le 11 août, Sega of America confirme que Stolar a été licencié, laissant Moore diriger le lancement de la nouvelle console. La Dreamcast sort le aux États-Unis, (dont les 1500 premiers acheteurs de la console recevaient une cassette vidéo promotionnelle contenant la composition de la machine) et au Canada, au prix de , ce que le marketing de Sega a baptisé . Finalement, ce ne sont pas quinze, mais dix-huit jeux qui sont disponibles le jour du lancement de la console en Amérique du Nord. Sega établit un nouveau record de ventes, en vendant plus de de la Dreamcast en 24 heures, ce qui permet à la société de gagner de dollars durant ce que Moore appelle . Quatre jours après le lancement aux États-Unis, Sega annonce que de la console ont été vendus pour un total de de dollars. En deux semaines, les ventes de Dreamcast aux États-Unis dépassent les unités. À Noël, Sega détient 31 % du marché nord-américain des jeux vidéos. Parmi les jeux du lancement ayant connus un succès important, SoulCalibur, un jeu de combat d'arcade ayant eu droit à une amélioration graphique pour sa version Dreamcast, se vend à un million d'exemplaires, et NFL 2K de Visual Concepts, dont les ventes confirment la prédiction de Stolar concernant son potentiel. Le 4 novembre, Sega annonce avoir vendu plus d'un million de Dreamcast. Néanmoins, le lancement est gâché par un problème technique dans l'une des usines de production de Sega, qui produit des GD-ROMs défectueux. Un lancement réussi en Europe, puis déclin en 2000 La sortie de la Dreamcast en Europe a lieu le . Son prix de lancement est de francs en France et 200 livres sterling au Royaume-Uni, soit environ . Au 24 novembre, les chiffres de ventes en Europe sont de consoles vendues, puis à Noël 1999. Ce chiffre de unités vendues est atteint avec d'avance sur les prévisions de Sega. Des jeux de lancement tels que SoulCalibur, Sonic Adventure, Power Stone, Hydro Thunder, Marvel vs. Capcom, The House of the Dead 2 et NFL 2K aident la console à se forger une bonne réputation auprès des joueurs. Sonic Adventure établit même le record de vente pour un jeu Dreamcast, en s'écoulant à 2,5 M d'exemplaires. L'année 2000 semble donc démarrer sous les meilleurs auspices, les ventes de la Dreamcast augmentant de 156,5 % entre le 23 juillet et le 30 septembre 2000, battant même les ventes de la Nintendo 64 durant cette même période. Mais malgré ces chiffres encourageants, les ventes finissent par décliner et, en octobre 2000, Sega n'a vendu qu'environ 1 million de consoles en Europe, un chiffre bien en dessous de ses objectifs. Dans le cadre de la promotion par Sega de la Dreamcast en Europe, la société japonaise sponsorise quatre clubs de football européens : Arsenal F.C. (Angleterre), AS Saint-Étienne (France), U.C. Sampdoria (Italie), et le Deportivo La Corogne (Espagne). Arrivée des consoles concurrentes Bien que le lancement de la Dreamcast ait été couronné de succès, fin 1999 Sony détient toujours 60 % de parts du marché global des jeux vidéos en Amérique du Nord, grâce à la PlayStation. Le 2 mars 1999, dans ce qu'un reportage appelle une « annonce très médiatisée, de type vaporware », Sony révèle les premiers détails de sa « nouvelle génération de PlayStation », qui, selon Ken Kutaragi, permettra aux jeux vidéos de transmettre des émotions sans précédent. Le centre du plan marketing de Sony et de la PlayStation 2 elle-même est un nouveau processeur cadencé à et développé conjointement par Sony et Toshiba : l’Emotion Engine. Kutaragi annonce qu'elle sera dotée d'un processeur graphique ayant fois plus de bande passante que les processeurs graphiques PC du moment et des performances de calcul en virgule flottante de 6,2 gigaflops, rivalisant avec la plupart des supercalculateurs. Sony, qui a investi 1,2 milliard de dollars dans deux grandes usines de fabrication de semi-conducteurs intégrés pour fabriquer l’Emotion Engine et le Graphics Synthesizer de la PlayStation 2, a conçu la machine pour pousser plus de polygones bruts que toute autre console de jeu vidéo de l'histoire. Sony affirme que la PlayStation 2 pourra afficher de polygones bruts par seconde sans aucun effet, et sans tenir compte de fonctionnalités telles que les textures, l'intelligence artificielle, ou la physique. En prenant en compte l'utilisation de tels effets, Sony estime que la PlayStation 2 pourra afficher de 7,5 à de polygones par seconde, alors que les estimations indépendantes vont de à . De son côté, Sega estime que, dans les mêmes conditions, la Dreamcast peut afficher entre 3 et de polygones. La console utilisera également le format DVD-ROM, qui peut contenir beaucoup plus de données que le format GD-ROM de la Dreamcast. Parce qu'elle peut se connecter à Internet tout en jouant des films, de la musique et des jeux vidéos, Sony a survendu la PlayStation 2 en la présentant comme étant l'avenir du divertissement à domicile. Des rumeurs, la plupart répandues directement par Sony, commencent à circuler : elles prétendent que la PlayStation 2 serait aussi puissante qu'un supercalculateur capable de guider des missiles et pourrait afficher des graphismes de la même qualité que ceux du film Toy Story. Kutaragi se vante des capacités en ligne de sa console, qui donnerait aux consommateurs la possibilité de « se brancher sur la Matrice ! ». En outre, Sony souligne que la PlayStation 2 sera rétrocompatible avec des centaines de jeux de la première PlayStation. Les spécifications de cette console semblent rendre la Dreamcast obsolète, ce des mois avant le lancement de la PlayStation 2 aux États-Unis. Par la suite, d'autres articles révèlent que la PlayStation 2 n'est pas aussi puissante que prévu et est très difficile à programmer pour créer des jeux ; mais cela ne suffit pas à faire retomber l’intérêt des joueurs pour la future console de Sony. La même année, Nintendo annonce que sa console de nouvelle génération atteindra ou dépassera tout ce qui se trouve sur le marché, et Microsoft commence à développer sa propre console. La dynamique initiale de Sega s’avère être éphémère, puisque si les ventes de la Dreamcast aux États-Unis dépassent les 1,5 million de consoles vendues à la fin de 1999, elles commencent à baisser dès janvier 2000. Ce repli du marché américain et les mauvaises ventes japonaises expliquent les de ¥ de pertes nettes consolidée que Sega enregistre au cours de l'exercice clôturé en mars 2000 ; qui font suite à une perte similaire de de ¥ l'année précédente. En tout, c'est la troisième année consécutive que Sega enregistre des pertes nettes consolidées. Pourtant, le chiffre d'affaires global de Sega a augmenté de 27,4% en 1999 et les ventes de Dreamcast en Amérique du Nord et en Europe ont largement dépassé les attentes de la société, la décroissance des ventes ne commençant à devenir visible qu'a la fin de l'exercice fiscal. Mais cette augmentation des ventes coïncide avec une baisse de la rentabilité due aux investissements nécessaires pour lancer la Dreamcast sur les marchés occidentaux et aux mauvaises ventes de jeux au Japon. Dans le même temps, la baisse de la fréquentation des salles d'arcade réduit la rentabilité de l'activité arcade de Sega au Japon, ce qui conduit la société à fermer 246 salles. Sachant qu'ils doivent « pêcher là où les poissons mordent », le président de Sega of America, Peter Moore et les développeurs japonais de Sega se concentrent sur le marché occidental pour se préparer au lancement prochain de la PS2. C'est pour cela que Sega of America lance son propre fournisseur d'accès Internet, Sega.com, dirigé par son PDG Brad Huang. Le 7 septembre 2000, Sega.com lance SegaNet, le service de jeux en ligne de la Dreamcast, qui permet aux utilisateurs de discuter, d'envoyer des e-mails et de naviguer sur Internet, au prix de par mois. A cette date, ChuChu Rocket!, un jeu de puzzle développé par la Sonic Team, est le seul jeu Dreamcast sorti aux États-Unis qui met en avant le mode multijoueur en ligne de la console. Mais les lancements combinés de SegaNet et de NFL 2K1, un jeu de football américain utilisant de nombreuses fonctionnalités en ligne, ont pour but d'accroître la demande pour la Dreamcast sur le marché américain, en jouant justement sur l'aspect « jeu en ligne ». Par la suite, ce service prend en charge des jeux tels que Bomberman Online, Quake III Arena et Unreal Tournament. Le lancement de SegaNet le 7 septembre coïncide avec une nouvelle campagne publicitaire visant à promouvoir ce nouveau service, notamment via les MTV Video Music Awards, qui ont lieu le même jour et que Sega sponsorise pour la deuxième année consécutive. Sega met en place des stratégies de prix agressives par rapport aux jeux en ligne. Au Japon, chaque Dreamcast vendue donne droit a une année gratuite d'accès à Internet, qu'Okawa paye personnellement. Avant le lancement de SegaNet, Sega avait déjà offert un rabais de à tout propriétaire de Dreamcast qui achetait deux ans d'accès Internet sur Sega.com. Après le 7 septembre, pour augmenter l'attrait de SegaNet aux États-Unis, Sega baisse le prix de la Dreamcast à , et offre un rabais sur ce prix, ainsi qu'un clavier Dreamcast gratuit, a toute personne souscrivant un abonnement SegaNet de . Moore déclare qu'il faut vendre de Dreamcast aux États-Unis d'ici la fin de l'an 2000 afin de rester une plate-forme viable, mais Sega n'atteint pas cet objectif, avec juste de consoles. De plus, les tentatives de Sega pour stimuler l'augmentation des ventes de Dreamcast par le biais de prix plus bas et de remises en espèces provoquent des pertes financières croissantes. Au lieu du retour aux bénéfices attendu, Sega enregistre une perte de de ¥ entre mars et septembre 2000 et la société estime que ses pertes totales seront de ¥ en fin d'année. Cette estimation se révèle être optimiste, puisque les pertes totales de Sega pour l'année 2000 sont de de yens, soit plus du double de ce qui était prévu. Et l'année qui débute n'augure rien de bon, car en mars 2001, Sega enregistre une perte nette consolidée de de yens. Bien que le lancement de la PS2, qui a lieu le 26 octobre aux États-Unis, soit marqué par des pénuries, avec seulement consoles livrées sur le 1 million prévus en raison d'un problème de fabrication, la Dreamcast n'en profite pas autant que prévu. En effet, de nombreux consommateurs, déçus par les consoles Sega, continuent à attendre de pouvoir acheter une PS2, tandis que la PSone, une version relookée de la PlayStation originale, est la console la plus populaire aux États-Unis au début de la période des fêtes de l'année 2000. Selon Moore, « l'effet PlayStation 2 sur lequel nous comptions ne fonctionnait pas pour nous... les gens allait s'accrocher le plus longtemps possible... Ce qui s'est réellement passé, c'est que le manque de disponibilité de la PlayStation 2 a gelé le marché ». En fin de compte, Sony et Nintendo détiennent respectivement 50 % et 35 % du marché américain des jeux vidéos, tandis que Sega n'en détient que 15 %. Selon Bellfield, les jeux Dreamcast se vendent à un ratio de 8 jeux pour 1 console, mais ce ratio appliqué à « une petite base installée « (comprendre : « un nombre de consoles vendues trop faible") ne nous donne pas les revenus (nécessaires)... pour maintenir cette plateforme viable à moyen et long terme ». Déclin et arrêt de la production Le lancement de la PlayStation 2 par Sony marque donc le commencement de la fin de vie de la Dreamcast. Le 22 mai 2000, Okawa remplace Irimajiri à la présidence de Sega. Okawa préconise depuis longtemps que Sega abandonne le marché des consoles, et il n'est pas le seul à penser ainsi au sein de la société : David Rosen, cofondateur de Sega, a « toujours estimé qu'il était un peu insensé de limiter son potentiel au matériel Sega » et lorsqu'il était encore directeur de Sega of America, Stolar avait suggéré que la société soit vendue à Microsoft. En septembre 2000, lors d'une réunion avec les dirigeants japonais de Sega et les responsables des principaux studios de développement de jeux de la société, Moore et Bellfield recommandent que Sega abandonne son activité de fabricant de consoles et se concentre sur la création de logiciels, ce qui provoque le départ de la pièce des dirigeants des studios. Néanmoins, le , Sega annonce l'arrêt de production de la Dreamcast à partir du 30 mars la même année, et la restructuration de l'entreprise en tant que développeur tiers officiant sur tous les supports existant. La décision a été prise par Moore. Sega annonce également une réduction du prix de la Dreamcast à pour éliminer le stock d'invendus, qui est estimé à consoles en avril 2001. Après une autre réduction à , la Dreamcast disparaît des magasins avec les derniers exemplaires vendus à pièce. La dernière Dreamcast fabriquée est signée par les directeurs des neuf studios de développement de jeux internes de Sega, ainsi que les directeurs de Visual Concepts et Wave Master, et offerte avec 55 jeux développés par Sega par le biais d'un concours organisé par le magazine GamePro. Okawa, qui avait prêté de dollars à Sega durant l'été 1999, décède le 16 mars 2001. Peu avant son décès, il annule les dettes de Sega envers lui et rend à la société ses de dollars en actions Sega et CSK, aidant ainsi l'entreprise à survivre durant sa transformation en éditeur tiers de jeux vidéos. Dans le cadre de cette restructuration, presque un tiers des effectifs de Sega à Tokyo sont licenciés en 2001. En tout, il s'est vendu de Dreamcast dans le monde, le principal marché étant l’Amérique du Nord (3,9 M), suivis du Japon (2,25 M) et de l'Europe (1,91 M). Mais même après l'arrêt de la production, des jeux continuent à être développés et commercialisés sur la console, en particulier au Japon. Aux États-Unis, les sorties de jeux se poursuivent jusqu'à la fin du premier semestre 2002, le dernier à sortir étant NHL 2K2, commercialisé en février 2002.Sega Europe, qui n'est alors qu'une branche de Sega of America, continue également de vendre des jeux vidéos sur Dreamcast jusqu'en 2002. Ces derniers jeux sont distribués par Bigben Interactive, qui propose des titres tels que Evil Twin: Cyprien's Chronicles, Cannon Spike, Heavy Metal: Geomatrix, Razor Freestyle Scooter et Conflict Zone. Au Japon, Sega continue d'assurer le service après-vente et de réparer les Dreamcast en panne jusqu'en 2007. Finalement, après cinq années consécutives de pertes financières et après tous ces changements, Sega annonce des bénéfices pour l'année fiscale se terminant en mars 2003. Parmi les raisons invoquées pour expliquer l'échec de la Dreamcast, on trouve : Le battage médiatique organisé par Sony autour de la PS2. Le manque de soutien de la part d'Electronic Arts et de Square, considérés comme étant alors les éditeurs tiers les plus populaires aux États-Unis pour le premier et au Japon pour le second. Les désaccords entre les dirigeants de Sega sur l'avenir de l'entreprise et le manque d'engagement d'Okawa envers le produit. Les investissements publicitaires insuffisants de Sega, Charles Bellfield doutant que Sega ait dépensé même la « moitié » des de dollars promis pour promouvoir la Dreamcast aux États-Unis. Un marché du jeu en ligne encore trop embryonnaire. La priorité donnée par Sega aux joueurs « hardcore » sur les consommateurs « de base ». Un mauvais timing. Mais, la raison la plus fréquemment citée est peut-être la dégradation de la réputation de Sega, causée par la sortie de plusieurs plates-formes de jeu bénéficiant d'un suivi médiocre ou inexistant. Dans les articles qu'il écrit pour GamePro, Blake Snow déclare que « la console bien-aimée (fut) lancée des années avant la concurrence mais a finalement dû lutter pour se débarrasser de la réputation négative (que Sega avait) gagné pendant les années Saturn, Sega 32X et Sega CD. En conséquence, les joueurs occasionnels et les développeurs tiers blasés doutaient de la capacité de Sega à livrer la marchandise ». Dan Whitehead d'Eurogamer note que l'attentisme des consommateurs et le manque de soutien d'EA sont des symptômes plutôt que la cause du déclin de Sega, concluant que « les aventures de Sega dans les années 1990 avaient laissé les joueurs et éditeurs sur leurs gardes quant à toute nouvelle plate-forme portant son nom ». Selon Jeremy Parish de 1UP.com, « Bien qu'il serait facile de pointer un doigt accusateur sur Sony et de les accuser d'avoir tué la Dreamcast en sur-vendant la PS2... il y a un certain niveau de malhonnêteté intellectuelle dans une telle position... Le faible support américain de [Sega] pour le matériel comme le Sega CD, la 32X, et la Saturn a rendu les joueurs timides. De nombreux consommateurs se sont sentis insultés après avoir investi dans des machines Sega coûteuses et avoir constaté que leurs ludothèques étaient relativement vides ». L'annonce de la transition de Sega est accueillie avec enthousiasme. Selon Travis Fahs d'IGN, « Sega était une entreprise créative et fertile, avec un parc de « propriétés » (comprendre propriétés intellectuelles / licences de jeux) en pleine expansion. Il semblait qu'ils étaient dans une position idéale pour commencer une nouvelle vie en tant que développeur/éditeur ». Après avoir appris la nouvelle de la reconversion de Sega, Victor Ireland, l'ancien président de Working Designs, écrit : « C'est en fait une bonne chose... parce que maintenant Sega va survivre, en faisant ce qu'ils font le mieux : des jeux ». Selon un article du magazine Newsweek : « De Sonic à Shenmue, les programmeurs de Sega ont produit certaines des expériences les plus intéressantes de l'histoire des médias interactifs... Débarrassé d'une console en difficulté, ce peloton de développeurs de jeux vidéos de classe mondiale peut faire ce qu'il fait de mieux pour n'importe quelle machine sur le marché ». Rosen prédit alors « qu'ils (Sega) ont le potentiel pour rattraper Electronic Arts ». Le magazine Game Informer, commentant la tendance de Sega à produire des classiques cultes sous-estimés, déclare dans un de ses articles : « Réjouissons-nous du fait que Sega est également en train de faire des jeux correspondant à la culture console actuelle, afin que l'histoire ne se répète pas ». Développement indépendant dans les années 2000 et 2010 Alors que plus aucun jeu ne devait être édité, la Dreamcast compte sur une communauté de joueurs et de fans qui font perdurer cette machine et tentent de pousser certains éditeurs (notamment japonais) à sortir encore de nouveaux jeux. Ainsi, deux titres sortent en 2006 au Japon : Radilgy le 16 février puis Under Defeat le 23 mars. pour une console qui n'est plus produite depuis six ans. La console a même été redistribuée pour l'occasion sous forme de contenant un modèle d'occasion remis à neuf et un des deux jeux. Un jeu de tir à scrolling vertical nommé Fast Striker développé par NG:Dev.Team est d'ailleurs prévu pour la fin d'année 2010, soit neuf ans après l'abandon de la console, un record dans le monde du jeu vidéo pour une console de salon (record depuis battu avec la sortie de Pier Solar and the Great Architects sur Mega Drive vingt ans après l'abandon de la console). Le studio allemand Redspotgames a annoncé en la sortie de Sturmwind, shoot 'em up horizontal, courant de l'année 2012. Par ailleurs, pour l'année 2013, le studio NG:Dev.Team a déjà prévu de sortir un nouveau jeu du nom de XYX sur Dreamcast. En 2014, la console bénéficie toujours de sorties de jeux supportant le format MIL-CD et réalisés par des développeurs indépendants. Depuis les années 2000, la Dreamcast est une plate-forme de développement indépendant dynamique, et beaucoup de jeux ou programmes (faits maison) font leur apparition. Ainsi, des développeurs indépendants ont créé des émulateurs et lecteurs de médias (MPEG, DivX, MP3, JPEG). Cette reconversion particulière s'explique par le fait que le développement d'applications pour Dreamcast est relativement aisé : la console est en partie compatible avec Windows CE, qui permet aux émulateurs ont pu se développer rapidement : il est ainsi possible de jouer à la Mega Drive, à la Master System ou encore à la Super Nintendo sur la Dreamcast. De plus, KallistiOS, une plate-forme de développement, a été créée par Dan Potter. De plus, la copie de jeux vidéos est aisée, malgré le format propriétaire du GD-ROM choisi par Sega. Des hackers ont réussi à créer des images des jeux (images ISO) et à les copier sur un CD traditionnel - la Dreamcast lisant également les CD audio et les MIL-CD. En 2009, l'entreprise américaine ThinkGeek recommercialise la console de façon limitée aux États-Unis. Au vu de l'engouement de la communauté de joueurs face à ce support, le marché de l'occasion bat son plein. Seulement, la Dreamcast rencontre quelques lacunes en matière de longévité, notamment par sa lentille fragile et ses problèmes de surchauffe. À noter que la console est en version NTSC-US. En conséquence, un disque de boot est requis pour lire les jeux import. Commercialisée à , l'offre limitée est momentanément vidée de son stock. Étant donné que Sega ne fournit plus de support pour cette console, la garantie n'est que de via le site du revendeur. Le , Sega annonce la sortie de certains titres Dreamcast disponible sur le Xbox Live Arcade et le PlayStation Network. Les deux premiers titres à paraître sont Sonic Adventure et Crazy Taxi. De plus, une compilation appelée Dreamcast Collection est commercialisée en , sur Xbox 360 et PC (Windows). Elle comporte Crazy Taxi, Sonic Adventure, Sega Bass Fishing et Space Channel Five 2. Enfin, Pier Solar and the Great Architects, sorti également sur Mega Drive, est adapté sur Dreamcast en 2014. Enfin, des émulateurs de cette console ont été développés pour différents systèmes d'exploitation, permettant de continuer à utiliser les jeux et logiciels de la console sur d'autres architectures, comme NullDC, pour Microsoft Windows, lxdream, pour Linux, et Reicast, open source, pour Android (architectures ARM et MIPS, notamment pour la console en matériel libre GCW Zero) et Linux (sur architecture ARM), des ports pour architecture x86 sont en cours de préparation. Matériel et accessoires Le format utilisé pour les jeux est le GD-ROM fabriqué par Yamaha. En effet, pour empêcher la copie de jeux, Sega a fait développer un nouveau support pour les jeux Dreamcast. Il s'agit d'un hybride entre le CD et le DVD d'une capacité de , qui ne peut pas être lu par un PC. Une de ses principales caractéristiques est la gravure des données dans une densité élevée et une deuxième TOC commençant après la section de type CD du GD-ROM. La Dreamcast lit les GD-ROM en 12X, d'où des temps de chargement relativement courts. Spécifications techniques CPU : processeur Hitachi SH-4 32 bits de type RISC cadencé à , développant 360 MIPS, intégrant un coprocesseur arithmétique 128 bits développant 1.4 GFLOPS. GPU : NEC/VideoLogic PowerVR2 DC cadencé à 100Mhz, capable de tracer plus de de polygones par seconde. Effets graphiques gérés par le GPU : trilinear filtering, gouraud shading, z-buffer, anticrénelage, per-pixel translucency sorting, bump mapping et deferred Shading. Mémoire RAM : Principale SDRAM 64 bits cadencée à (bande passante de ), Vidéo , Sonore . Carte son : Processeur sonore 'Super Intelligent' AICA de Yamaha, contenant un processeur ARM7 32 bits cadencée à (64 canaux stéréo PCM/ADPCM). GD-ROM Drive : Vitesse maximum 12x (lorsqu'il tourne a une vitesse angulaire constante mode-CAV). Le GD-ROM est un type de média d'une capacité de environ (soit ) spécialement développé par Yamaha. Modem : Modem 56 kbit/s de série sur la console (la vitesse était de 33 kbit/s pour la version européenne) ; possibilité de remplacer le modem d'origine pour le Broadband Adapter (modem haut-débit). Ce modem est sorti, mais son prix reste élevé (environ ). Couleurs : Approximativement de couleurs simultanément pour une résolution de 640 × 480, en utilisant le balayage entrelacé ou le balayage progressif comme mode d'affichage. Dimensions : 19 × 19,. Poids : .33. Systèmes d'exploitation La Dreamcast possède deux systèmes d'exploitation : SegaOS et Windows CE. Le premier, présent dans la console, est plus difficile à utiliser pour les programmeurs mais permet d'utiliser les capacités maximales du matériel. Le deuxième est, quant à lui, chargé directement depuis le GD-ROM par les jeux qui en ont besoin. Le fait que la console reconnaisse Windows CE permet d'adapter assez rapidement des jeux pour PC sur la Dreamcast. La Dreamcast permet donc aux programmeurs d'utiliser plusieurs interfaces de programmations associées a différents middleware. Modèles Sega a construit de nombreux modèles différents de la Dreamcast, dont la plupart sont sortis exclusivement au Japon. Parmi ces diverses versions, on trouve une Dreamcast reconditionnée connue sous le nom de R7 qui était à l'origine utilisée comme console réseau dans les salles de pachinko japonaises. Un autre modèle, le Divers 2000 CX-1, possède une forme similaire à celle de la tête de Sonic et inclut une télévision ainsi qu'un logiciel de téléconférence. Sega a également produit une version Hello Kitty de sa console, une édition limitée, avec seulement 2000 unités produites et destinée aux joueuses japonaises. Des éditions spéciales ont été créées pour certains jeux comme Seaman et Resident Evil: Code Veronica. Il existait également un service nommé "Dreamcast Direct" permettant aux acheteurs qui le désiraient de commander une Dreamcast dont ils choisissaient la couleur. Ce service était une exclusivité du marché japonais. Toyota a également proposé des Dreamcast en éditions limitées aux couleurs de la marque chez 160 de ses concessionnaires au Japon. Mais le Japon n'est pas le seul marché à avoir eu droit a des éditions limitées. Ainsi, en Amérique du Nord, Sega a sorti une Dreamcast noire avec un logo Sega Sports sur le couvercle, qui était vendue avec deux manettes noires également siglées Sega Sports et deux jeux de cette gamme. Accessoires La manette Dreamcast comprend à la fois un stick analogique et un pad numérique, quatre boutons d'action et deux gâchettes analogiques. La console dispose de quatre ports manettes sur sa face avant, même si elle n'était fournie qu'avec une seule manette. La conception de la manette de la Dreamcast, décrite par l'équipe de Edge comme « une évolution hideuse de la manette 3D de la Saturn », a été qualifiée de « [pas] très bonne » par Sam Kennedy de 1UP.com et de « (conception) boiteuse » par Andy McNamara de Game Informer. Dans un de leurs articles, les rédacteurs du site IGN indiquent que « contrairement à la plupart des manettes, le pad de Sega force les mains de l'utilisateur à garder une position parallèle inconfortable ». Contrairement au Mega CD et à la Saturn qui incluent une mémoire de sauvegarde interne, la Dreamcast utilise une carte mémoire de 128 ko appelée VMU (ou "Visual Memory Unit") pour le stockage des données de sauvegarde des jeux. Le VMU dispose d'un petit écran LCD, d'une sortie audio à partir d'une source sonore PWM à un canal, d'une mémoire non volatile, d'un pad directionnel et de quatre boutons. Le VMU peut afficher des informations de jeu, être utilisée comme une console portable basique et se connecter à certaines bornes d'arcade Sega. Par exemple, les joueurs peuvent utilisent le VMU pour élever des animaux virtuels dans Sonic Adventure. Les responsables de Sega ont noté que la VMU pourrait être utilisée « comme une zone de visualisation privée, dont l'absence a empêché la mise en œuvre efficace de nombreux types de jeux dans le passé ». Après l'intégration d'un slot VMU dans la conception de la manette, les ingénieurs de Sega lui ont trouvé de nombreuses autres utilisations, ce qui a conduit à l'ajout d'un second slot. Ce dernier était généralement utilisé pour les packs vibrant fournissant un retour de force comme le « Jump Pack » de Sega et le « Tremor Pack » de Performance, bien qu'il puisse également être utilisé pour d'autres périphériques, dont un microphone permettant d'utiliser le contrôle vocal pour certains jeux et la communication entre joueurs online. Diverses cartes fabriquées par des éditeurs tiers offrent un espace de stockage et certaines contiennent également un écran LCD. Iomega a annoncé la sortie d'un lecteur zip compatible Dreamcast capable de stocker jusqu'à de données sur des disques amovibles, mais il n'est jamais sorti. Diverses manettes fabriquées par des sociétés non affiliées à Sega, comme Mad Catz, incluent des boutons et des fonctionnalités supplémentaires. Ces mêmes sociétés ont également fabriqué des joysticks de style arcade pour les jeux de combat, tels que l'Arcade Stick d'Agetech et l'Arcade Stick d'Interact's Alloy. Mad Catz et Agetec ont également créé des volants utilisables avec les jeux de course de voiture de la console. Si Sega a décidé de ne pas sortir son pistolet optique officiel dans les pays occidentaux, d'autres sociétés en ont profité pour fabriquer et distribuer les leurs. Il existe également un clavier et une souris spécifique à la Dreamcast, ainsi qu'un contrôleur de mouvement en forme de canne à pêche. Bien que ce dernier ait été conçu pour des jeux de pêche tels que Sega Bass Fishing,il peut aussi être utilisé pour jouer au jeu de combat Soul Calibur, les mouvements verticaux et horizontaux réalisé avec la « canne à pèche » se traduisant à l'écran par des coups d'épée donné dans l'un ou l'autre sens. Quelques années plus tard, cette façon de jouer a Soulcalibur a été vue comme une sorte d'ancétre du gameplay de la Wiimote. Certains périphériques sont tellement étranges et cher qu'ils ne sont pas distribués au niveau mondial. C'est ainsi que lorsque le portage de Cyber Troopers Virtual-On: Oratorio Tangram, un jeu d'arcade de Sega, sort au japon, il prend en charge un périphérique « Twin Sticks », reproduisant les deux Sticks de la borne d'arcade originale servant à contrôler les robtos du jeu. Mais l'éditeur américain du jeu, Activision, choisit de ne pas vendre cet accessoire cher et encombrant aux États-Unis. La Dreamcast pouvait également se connecter a la Neo Geo Pocket Color de SNK, via un câble spécifique créé bien avant le Câble Nintendo GameCube Game Boy Advance. Autre création de Sega pour sa console, le Dreameye est un appareil photographie numérique qui pouvait être connecté à la Dreamcast et utilisé pour échanger des photographies et participer à des discussions vidéo via la connexion Internet de la console. Sega espérait que les développeurs utiliseraient le Dreameye pour leurs futurs jeux, comme certains l'ont fait plus tard avec le périphérique EyeToy de Sony. En outre, Sega a étudié des systèmes qui auraient permis aux utilisateurs de passer des appels téléphoniques avec la Dreamcast, et a discuté avec Motorola du développement d'un téléphone cellulaire compatible Internet qui aurait utilisé la technologie de la console pour permettre le téléchargement rapide des jeux et autres données. La console peut fournir un signal vidéo par le biais de plusieurs accessoires différents. La console était livrée avec des câbles RCA, considérés à l'époque comme la norme en matière de connectivité vidéo et audio. Sega et diverses autres sociétés ont également fabriqué des connecteurs de modulateurs RF et des câbles S-Vidéo. Il existe également un adaptateur VGA permettant de jouer à des jeux Dreamcast sur des écrans d'ordinateur ou des téléviseurs EDTV en 480p. Internet et la communauté Dreamarena Si la Mega Drive a permis, dès le 3 novembre 1990, le jeu en ligne grâce au Sega Meganet, la Dreamcast est la seconde console de jeu permettant véritablement l'accès à Internet, après la Sega Saturn et son Sega Net Link, via un modem amovible enfiché sur son côté droit, une modularité voulue pour les futures mises à niveau. Le modèle japonais original et tous les modèles PAL avaient un modem 33,6 kbit/s, tandis que les consoles vendues aux États-Unis et au Japon après le 9 septembre 1999 comportaient un modem 56 kbit/s. De plus, elle possédait jusqu'en 2003 son propre portail d'accès à Internet : la Dreamarena. La plupart des jeux Dreamcast possédaient une page web dédiée directement accessible depuis le jeu sur ce portail. Sega a mis fin au service en mars 2003. Ludothèque Avant la sortie de la Dreamcast au Japon, Sega annonce le lancement de sa carte d'arcade New Arcade Operation Machine Idea (NAOMI), qui sert d'alternative meilleur marché a la Sega Model 3. La NAOMI partage la même technologie que la Dreamcast, mais avec deux fois plus de mémoire système, vidéo et audio et une carte ROM flash de à la place du lecteur GD-ROM. Cette grande proximité technologique permettait de jouer chez soi à des conversions de jeux d'arcade presque identiques a la version originale. Des jeux ont porté de la NAOMI à la Dreamcast par plusieurs grandes sociétés d'arcade japonaises, dont Capcom (Marvel vs. Capcom 2 et Project Justice), Tecmo (Dead or Alive 2 ), Treasure (Ikaruga ), et, bien sûr, Sega (F355 Challenge et Crazy Taxi). En l'an 2000, dans ce que la presse vidéoludique a appelé « un bref moment de créativité remarquable », Sega restructure ses équipes de développement de jeux arcades et consoles, en neuf studios semi-autonomes dirigés par les meilleurs designers de l'entreprise. Ces studios sont : (UGA), dirigé par Tetsuya Mizuguchi, l'ancien producteur de Sega Rally Championship ; , dirigé par Hisao Oguchi, le créateur de Crazy Taxi et futur président de Sega ; , dirigé par Shun Arai et incluant plusieurs anciens développeurs des jeux . On y trouve aussi les futurs créateurs de la série de jeux Yakuza, de la Team Andromeda ; , dirigé par Noriyoshi Oba et composé de développeurs ayant travaillé sur diverses franchises Sega, dont , Shinobi et ; Sega AM2, dirigé par Yū Suzuki, le créateur de jeux le plus en vue de chez Sega. C'est le studio de création de jeux d'arcade le plus célèbre de la firme, celui qui a développé, entre autres, la série des ; , dirigé par Yuji Naka. C'est le studio responsable de la création du jeu vedette de Sega, ; , dirigé par Rikiya Nakagawa ; , dirigé par Toshihiro Nagoshi ; Sega Rosso, dirigé par Kenji Sasaki. À côté de ces neufs studios, on trouve également Visual Concepts, le studio américain responsable de la gamme de jeux de sport de Sega, dirigé par Greg Thomas et Wave Master, le studio audio de Sega, dirigé par Yukifumi Makino. Ces studios sont encouragés à expérimenter et bénéficient alors d'un processus d'approbation relativement laxiste, ce qui aboutit à la création de jeux tels que Rez (une tentative de simuler la synesthésie sous la forme d'un rail shooter), The Typing of the Dead (une version de The House of the Dead 2 prenant la forme d'un logiciel d’apprentissage de la dactylographie), Seaman (un simulateur d'animaux de compagnie dans lequel les joueurs utilisent un microphone pour interagir avec un poisson humanoïde grotesque dont la croissance est commentée par Leonard Nimoy, et Segagaga (un jeu de rôle sorti uniquement au Japon dans lequel les joueurs doivent empêcher Sega de faire faillite). Sega a également relancé des franchises de l'ère Mega Drive, comme Ecco the Dolphin. UGA a aussi créé le jeu vidéo musical Space Channel 5, dans lequel les joueurs aident une journaliste venant de l'espace nommée Ulala à combattre des aliens avec « l'énergie du groove » en dansant. Destiné à un public « casual féminin », Space Channel 5 est considéré comme l'une des créations originales « les plus audacieuses et les plus appréciées » de Sega, combinant une bande-son « résolument rétro » et « édifiante » avec une présentation visuelle « éblouissante » et « colorée », malgré « un réel manque de substance du gameplay ». Ni Space Channel 5, ni Rez n'ont eu de succès commercial, et Rez n'a été mis en vente sur le marché américain que par le biais d'un port PS2 disponible en quantités limitées. Les ports d'arcade de Hitmaker comprennent Crazy Taxi, un jeu de course d'arcade open world connu pour son gameplay addictif, qui s'est vendu à plus d'un million d'exemplaires et est fréquemment cité comme étant l'un des meilleurs jeux Dreamcast et Virtua Tennis, qui a revitalisé le genre du jeu de tennis avec un système de jeu simple à deux boutons et en utilisant des minijeux pour tester la technique du joueur.Dans le jeu Jet Set Radio de Smilebit, les joueurs contrôlent les « GG », un gang de jeunes rebelles utilisant des roller en ligne basés à Tokyo. Les « GG » utilisent des graffitis pour revendiquer le territoire de bandes rivales, tout en évitant des forces de police à l'attitude oppressive. Jet Set Radio a été cité comme un exemple majeur de l'engagement de Sega dans des concepts originaux pendant la durée de vie de la Dreamcast. Salué pour la bande originale « punchy, psychédélique » du compositeur Hideki Naganuma, qui intègre des éléments de « J-pop et Electrofunk », ainsi que son message d'« expression personnelle et de dissidence non-violente », le jeu a également popularisé les graphismes en Cel-shading. En dépit des nombreux éloges pour son style, certains ont critiqué le gameplay de Jet Set Radio en le qualifiant de médiocre, et le jeu n'a pas répondu aux attentes de Sega en matière de ventes. Produit par Rieko Kodama et développé par Overworks, le jeu de rôle Skies of Arcadia a été acclamé pour son monde fantastique et surréaliste peuplé d'îles flottantes et de pirates du ciel inspiré de Jules Verne, ses protagonistes charmants, l'accent mis sur les propriétés environnementales des armes, ses batailles de dirigeables passionnantes et son scénario mémorable, qui inclut une séquence racontée depuis différents points de vue . AM2 a développé ce que Sega espérait être la killer application de la Dreamcast : Shenmue, une « épopée de vengeance dans la tradition du cinéma chinois ». Ce jeu d'action-aventure nous fait suivre la quête du protagoniste principal, Ryo Hazuki, pour venger le meurtre de son père ; mais son principal argument de vente est sa reconstitution de la ville japonaise de Yokosuka telle qu'elle était dans les années 1990, avec un niveau de détail considéré comme sans précédent pour un jeu vidéo. Intégrant un cycle jour/nuit simulé avec un temps variable, des personnages non-joueurs ayant des horaires réguliers, la possibilité de ramasser et d'examiner des objets détaillés et introduisant également les Quick time event sous leur forme moderne, Shenmue est un jeu très ambitieux qui a dépassé son budget initial et aurait coûté plus de de $ à Sega. Initialement prévu comme le premier volet d'une saga en , Shenmue a finalement été réduit à une trilogie, même si pour l'instant une seule suite est sortie, le troisième opus devant théoriquement sortir le 27 août 2019 sur PC et PlayStation 4. Si Shenmue a été salué pour son innovation, ses graphismes et sa musique, son accueil par la presse vidéoludique a été mitigé ; les critiques ont porté sur les « murs invisibles » qui limitent le sentiment de liberté du joueur, l'ennui causé par l'incapacité de progresser sans attendre les événements prévus à des moments précis, des scènes de jeu trop courtes et un manque de défi. Selon Moore, Shenmue s'est « extrêmement bien vendu », mais le jeu n'avait aucune chance de dégager des bénéfices car Sega n'a pas vendu assez de Dreamcast pour écouler assez d'exemplaires du jeu pour rentabiliser le développement. Shenmue II « a été achevé pour une somme beaucoup plus raisonnable », tandis que Sato défendait Shenmue comme un « investissement [qui] sera un jour récupéré » parce que « les progrès que nous avons faits en matière de développement... peuvent être appliqués à d'autres jeux ». Outre l'accueil mitigé réservé à Shenmue, Travis Fahs d'IGN a déclaré que « l'époque [Dreamcast] n'était pas aussi favorable à [AM2] que les années précédentes » - citant (entre autres) F355 Challenge comme un jeu d'arcade « acclamé » qui « ne faisait pas grand-chose à la maison » (comprendre : « les ventes de la version dreamcast ne sont pas à la hauteur de la réputation du jeu »), et le portage de Virtua Fighter 3 par Genki qui, en plus d'être inférieur à la version arcade, est un jeu « qui était déjà vieux de plusieurs années et n'avait jamais été aussi populaire que ses prédécesseurs ». La série Virtua Fighter connaîtra un « retour en force » quelques années plus tard avec le célèbre Virtua Fighter 4, qui sort en exclusivité sur PlayStation 2. En tant que premier jeu de plates-formes entièrement en 3D mettant en vedette Sonic, la mascotte de Sega, le Sonic Adventure de la Sonic Team était considérée comme étant « la pièce maîtresse du lancement [de la Dreamcast] ». Le jeu a été critiqué pour ses problèmes techniques, comprenant, entre autres, des angles de caméra erratiques et des glitchs, mais il a également été loué pour ses visuels « somptueux », ses « vastes environnements tortueux » et ses décors iconiques, dont un passage dans lequel Sonic court sur le côté d'un gratte-ciel. Certains critiques de jeux vidéos l'ont décrit comme étant le sommet créatif des jeux Sonic. Cependant, il n'a pas réussi « à attraper les joueurs comme l'avait fait Super Mario 64 », peut-être en raison d'un manque perceptible de profondeur de jeu. Se distinguant par son utilisation novatrice de multiples scénarios aux styles de jeu variées, Sonic Adventure s'est vendu à d'exemplaires, ce qui en fait le jeu le plus vendu de la Dreamcast. La Sonic Team a également développé le premier jeu en ligne de la Dreamcast, ChuChu Rocket!, qui a été largement salué comme étant un jeu de puzzle addictif donnant lieu à des matchs multijoueurs « frénétiques ». La même équipe a également crée le jeu musical Samba de Amigo, qui a connu un grand succès critique, à défaut de commercial, et qui se démarque de la concurrence par son esthétique colorée et le très coûteux accessoire en forme de maracas vendu qui est nécessaire pour pouvoir y jouer. Phantasy Star Online, (ou PSO), est peut-être le jeu Dreamcast de la Sonic Team qui a eu le plus d'impact. Premier RPG en ligne sorti sur une console, le développement de PSO débute lorsque Okawa demande à la Sonic Team de créer un jeu en ligne. PSO a été fortement influencé par Diablo, un action-RPG sorti sur PC en 1996, mais la Sonic Team a raffiné et simplifié son style de gameplay pour plaire au public jouant sur console. Cette organisation et cette liberté de création ne survivent pas à la Dreamcast; car le 22 juillet 2003, Sega annonce une nouvelle restructuration de ses studios internes : la Sonic Team fusionne avec UGA, Hitmaker avec Sega Rosso et Smilebit avec Amusement Vision. Mizuguchi quitte la société à la suite de la fusion d'UGA avec la Sonic Team. Dans le domaine du sport, le studio Visual Concepts crée sur Dreamcast deux séries de jeux acclamées par la critique : les NFL 2K sur le football américain et les NBA 2K sur le basketball. La presse vidéo-ludique a salué NFL 2K comme étant un jeu exceptionnel pour le lancement d'une console, grâce à ses graphismes de haute qualité et ses "commentaires perspicaces, adaptés au contexte et, oui, même amusants", tandis que NFL 2K1 bénéficie d'un mode multijoueur en ligne révolutionnaire et ce avant son principal concurrent, la série des Madden NFL d'Electronic Arts (EA). Madden et 2K continuent de rivaliser sur d'autres plates-formes tout au long de l'année 2004, la série des 2K introduisant des innovations telles qu'une vue à la première personne totalement inédite dans ce genre de jeux, avant de sortir le jeu ESPN NFL 2K5 au prix agressif de . Le duel vidéo-ludique entre les deux sociétés prend fin lorsque EA signe un accord d'exclusivité avec la National Football League, qui fait d'eux les seuls éditeurs à avoir le droit d'utiliser le terme "NFL" et les noms des équipes et joueurs officiels dans un jeu vidéo. Sega vend Visual Concepts pour de dollars en 2005 a l'éditeur Take-Two Interactive, qui continue la série des NBA 2K. Sur Dreamcast, Visual Concepts a également collaboré avec Hirokazu Yasuhara, le level designer de Sonic the Hedgehog, sur le jeu d'action-aventure Floigan Bros. et a développé Ooga Booga, un jeu d'action qui a connu un succès critique. Pour s'adresser au marché européen, Sega créé une filiale française, No Cliché, qui développe des jeux tels que Toy Commander. Sega Europe fait également appel à Bizarre Creations pour développer le jeu de course Metropolis Street Racer (MSR), qui connait un succès critique. On trouve dans MSR des reconstitutions détaillées de Londres, Tokyo et San Francisco, avec des fuseaux horaires cohérents, des stations de radio fictives, et 262 pistes de course différentes. Même si Acclaim, SNK, Ubisoft, Midway, Activision, Infogrames et Capcom soutiennent la console au cours de sa première année, les développeurs tiers restent frileux en raison de l'échec de la Saturn et de la meilleure rentabilité des jeux sortant sur la PlayStation. L'attitude de Namco est révélatrice de ces réticenses : l'éditeur japonais décide de sortir SoulCalibur sur Dreamcast en raison de l'impopularité relative de la série "Soul" à l'époque; préférant réserver la franchise Tekken, plus populaire, à la PlayStation et aux bornes d'arcades basées sur la Playstation. Malgré ces calculs, SoulCalibur est acclamé par la critique et les joueurs, et est souvent décrit comme étant l'un des meilleurs jeux de la console. Capcom produit un certain nombre de jeux de combat pour la Dreamcast, y compris la série des Power Stone, ainsi que Resident Evil: Code Veronica un épisode de la populaire série de survival horror Resident Evil qui est une exclusivité temporaire de la console. La Dreamcast est également connue pour plusieurs shoot 'em ups, notamment Bangai-O et Ikaruga de Treasure. En janvier 2000, trois mois après le lancement de la console en Amérique du Nord,le magazine Electronic Gaming Monthly fait l'éloge de sa ludothèque en déclarant: «... avec des trucs comme Soul Calibur, NBA 2K, et bientôt Crazy Taxi, nous pensons que vous êtes heureux d'avoir franchi le pas des 128-bit». Dans une rétrospective, Jeffrey L. Wilson de PC Magazine fait référence à la «ludothèque qui tue» de la Dreamcast et décrit l'influence créative et l'innovation visuelle de Sega comme étant à son apogée durant la période de la Dreamcast. L'équipe du magazine Edge est d'accord avec cette évaluation des jeux originaux développé pour la Dreamcast, et des conversions de jeux d'arcade de Sega, déclarant que la console «a livré les premiers jeux qui pouvaient être décrits de manière significative comme arcade-parfaits (comprendre : copie parfaite des jeux d'arcades originaux)». Blake Snow, un des rédacteurs du magazine GamePro, considère que la ludothèque Dreamcast est "très louée (pour ses jeux)". Damien McFerran de Retro Gamer fait l'éloge des ports de jeux d'arcade NAOMI suir la Dreamcast, en déclarant: «Le plaisir de jouer à Crazy Taxi sur une borne d'arcade en sachant très bien qu'une conversion au pixel près (et non un portage bancal) est prévu sur la Dreamcast est une expérience dont les joueurs ne seront probablement plus témoins». Dans Loading... The Journal of the Canadian Game Studies Association, Nick Montfort et Mia Consalvo ont écrit que «la Dreamcast a accueilli une quantité remarquable de jeux vidéos qui sont allés au-delà de l'étrange et de l'inhabituel et qui sont intéressants lorsqu'ils sont considérés comme avant-gardistes... il est difficile d'imaginer un jeu console (qui est un produit) commercial exprimant une forte résistance à la perspective d'être une marchandise et à la vision que la production de jeux est commerciale. Mais même lorsqu'il s'agit de résister à la commercialisation (NDT: ici les auteurs font référence à la volonté de voir un jeu principalement, voire uniquement comme un produit commercial), on peut soutenir que les jeux Dreamcast sont plus proches de cette attitude que n'importe quel autre console de jeux vidéos.» Jeremy Parish de 1UP.com a fait un comparatif entre la production vidéoludique de Sega pour la Dreamcast, qui comprenait certains des «jeux les plus variés, créatifs et amusants que la société ait jamais produits», a celle, jugée plus fade, de cette même société depuis qu'elle est passée au statut d'éditeur tiers. Fahs a noté que «la vie de la Dreamcast fut éphémère, mais elle était saturée de titres mémorables, dont la plupart étaient des licences complètement nouvelles». Selon l'auteur Steven L. Kent, «De Sonic Adventure et Shenmue à Space Channel 5 et Seaman, la Dreamcast a donné et donné et donné et donné (des jeux mémorables).». Accueil sur le moment et avis a posteriori En décembre 1999, le magazine Next Generation donne à la Dreamcast une note de 4 étoiles sur 5 et déclare : « Si vous voulez la console la plus puissante disponible actuellement, présentant les meilleurs graphiques à un prix raisonnable, cette console est faite pour vous ». Cependant, lorsqu'il faut évaluer l'évolution de la Dreamcast dans les années à venir, le même magazine ne lui décerne que 3 étoiles sur 5, notant que Sony livrera un produit supérieur du point de vue hardware l'année prochaine, la PlayStation 2, et que Nintendo a dit qu'il ferait de même avec la GameCube. Au début de l'année 2000, c'est au tour d'Electronic Gaming Monthly de noter la Dreamcast. La nouvelle console de Sega obtient des notes de 8,5 - 8,5 - 8,5 - 8,5 - 8,5 - 8,0 et sur 10 de la part des testeurs du magazine. En 2001, les notes des journalistes d'Electronic Gaming Monthly passent à 9,0 - 9,0 - 9,0 - 9,0 - 9,0 et 9,5 sur 10 pour la Dreamcast. De son côté Businessweek, un magazine hebdomadaire américain spécialisé dans l'économie, considère que la Dreamcast est l'un des meilleurs produits de 1999. En 2009, IGN décerne à la Dreamcast le titre de plus grande console de jeu vidéo de tous les temps, une reconnaissance englobant aussi bien les innovations que les jeux de la console. Selon IGN, «La Dreamcast a été la première console à incorporer un modem intégré pour jouer en ligne, et bien que la mise en réseau n'ait pas eu l'éclat et le raffinement de ses successeurs, c'était la première fois que les utilisateurs pouvaient simplement allumer (une console) et jouer avec des utilisateurs du monde entier». En 2010, Jeffrey L. Wilson de PC Magazine considère que la Dreamcast est la plus grande console de jeu vidéo (de tous les temps), soulignant qu'elle est «partie trop tôt». En 2013, Edge désigne la Dreamcast comme étant la meilleure console des 20 dernières années, soulignant les innovations qu'elle a ajoutées au jeu vidéo sur console, y compris le chat vocal en jeu, les contenus téléchargeables et la technologie du second écran grâce à l'utilisation des VMU. Edge explique ses mauvaises performances en matière de ventes en déclarant: «La console de Sega était sans aucun doute en avance sur son temps, et elle a souffert à la vente pour cette raison... mais son influence se fait encore sentir aujourd'hui». Dans son ouvrage 1001 Video Games You Must Play Before You Die, Duncan Harris a écrit: «L'une des raisons pour lesquelles les joueurs plus âgés ont pleuré la perte de la Dreamcast est qu'elle marquait la fin de la culture du jeu d'arcade... La console de Sega donnait l'espoir que les choses n'étaient pas sur le point de changer pour le pire et que les principes du fun immédiat et des graphiques brillants et attrayants n'étaient pas sur le point de sombrer dans un marais brun et vert de jeux de guerre réaliste». Parish, qui est alors journaliste pour USGamer, a comparé la bibliothèque diversifiée de la Dreamcast avec le "sens étouffant du conservatisme" qui a imprégné l'industrie du jeu au cours de la décennie suivante. Alors que de plus en plus de fans de la Dreamcast la présentent «comme un petit JFK carré en plastique blanc», Dan Whitehead d'Eurogamer pense que la courte durée de vie du système «peut avoir scellé sa réputation d'être l'une des plus grandes consoles jamais vu» : «Rien ne construit mieux un culte qu'une mort tragique». Enfin, selon Travis Fahs d'IGN, «De nombreux fabricants de hardware sont venus et sont partis, mais il est peu probable qu'aucun d'entre eux soit sorti avec la moitié de la classe de Sega». Notes et références Notes Références Bibliographie . Voir aussi Articles connexes Liste de jeux Dreamcast Liste des accessoires de la Dreamcast Liens externes Sega Dreamcast sur Sega of Japan DreamAgain Le site francophone consacré à la Dreamcast depuis 2005 NewDreamArena Le site francophone du nouveau DreamArena depuis 2004 Console de jeux vidéo de sixième génération Produit lancé en 1998 Produit arrêté en 2001
991
https://fr.wikipedia.org/wiki/Disc%20jockey
Disc jockey
Un (, ), ou (), est un animateur qui sélectionne, diffuse et mixe de la musique à destination d'un public, que ce soit pour une émission radiophonique, dans une discothèque ou à l'occasion d'un événement spécifique. Définition Dénomination À l'origine, un Disc Jockey ou DJ est un animateur qui produit des effets sonores, avec sa voix et surtout, comme le terme anglais l'indique, avec une platine portant un disque 45 tours ou 33 tours. La dénomination s'est ensuite généralisée pour qualifier les musiciens des multiples courants de musique électronique, qu'ils soient créateurs originaux, joueurs interprètes, chanteurs ou conteurs accompagnateurs, arrangeurs pratiquant l'art du mixage et de l'enregistrement sur de multiples supports à codage analogique ou numérique. Fred Rister, qui a débuté dans les années 1970 en discothèque, explique que et ajoute qu'. Il précise qu'à ses débuts, il ne suffisait pas de passer des disques et qu' Origines du terme Le terme original de DJ désigne la personne qui tient le microphone et intervient en direct sur la version instrumentale d'un disque (souvent en face B), dans les « » jamaïcains. Le deejay reggae est un artiste vocal au même titre que le chanteur. Son style vocal est un mélange de voix parlée, scandée et chantée et préfigure en cela celui du rappeur. Les deejays ont été reconnus à partir de la fin des années 1960 comme des artistes vocaux à part entière (avec des couplets et refrains complets chantés sur une version instrumentale) à égalité avec les chanteurs et sont devenus hégémoniques dans le reggae (aujourd'hui, à peu près 70 % des artistes vocaux du reggae sont des deejays), et le public a également vu l'apparition du singjay (mélange de style deejay et de chant pur) au cours des années 1970. Le DJ travaillant derrière les platines est quant à lui nommé « ». Le lien entre reggae et hip-hop s'est fait par l'intermédiaire de DJ Kool Herc, un Jamaïcain ayant émigré aux États-Unis et pionnier du hip-hop. Historique Préambule La fonction de disque jockey en France trouve ses origines grâce à deux facteurs déterminants du : la création des premières radios vers la Première Guerre mondiale qui se développent dans les années 1930, puis la création de discothèques. Ces futures discothèques sont au départ des « dancings » datant de l'Occupation où les orchestres de jazz, chassés par les Allemands, sont remplacés par du matériel de diffusion. Après la Guerre, les deux types d'endroits cohabitent : ceux diffusant des disques et d'autres recevant un orchestre, dont les bals. La commercialisation de disques se développe peu à peu. Plusieurs lieux ouvrent par la suite où, avec des disques et deux platines, les morceaux sont enchaînés les uns après les autres. Dans les années 1950, les dancings disparaissent peu à peu et sont remplacés par un mélange de bars, de restaurants ou de « clubs ». La musique y est de la responsabilité du « disquaire » qui ne s’appelle pas encore disc jockey. Appartenant « au monde de la nuit », le disquaire n'exerce pas un métier noble : il n'a pas de statut, reste mal payé et mal considéré, un employé anonyme au même titre que les serveurs ou barmans : son métier n'est pas encore reconnu car , même si déjà, le disquaire réalise parfois une performance et que certains essayent tant bien que mal de conserver le rythme dans leurs transitions, sans équipement réellement adapté. En parallèle, le métier se développe à la radio dans les années 1950, grâce à l'influence des États-Unis : la musique prend de plus en plus de place dans la programmation. Les premières radios pirates lors de la décennie suivante vont mettre en exergue le rôle du « disc jockey-animateur » jusqu'à influencer les grandes radios nationales. Ceux-ci ne cherchent pas à enchainer les morceaux au rythme, ils annoncent et parlent durant la phase d'introduction de chaque morceau. Les premiers jingles radiophoniques sont utilisés. Dans les années 1960, ces hommes de radio vont influencer les disquaires des discothèques jusque là muets. Dans les années qui vont suivre, deux types de disquaires vont cohabiter suivant les lieux : celui, technique, qui va enchaîner les disques en parlant rarement au micro et le second, plus centré sur l'animation. Mais progressivement, les simples enchaînements de titres deviennent un ensemble cohérent qui accompagne les danseurs. C'est de l'autre côté de La Manche, en Angleterre, que le métier devient un peu reconnu vers la fin des années 1960 à l'époque du , dans quelques boites branchées de la capitale britannique. Pourtant, à l'aube de la décennie suivante, la fonction reste encore à l'état de balbutiements. Le disquaire est parfois relégué dans une cabine sans prise directe avec les danseurs. Mais les choses changent sensiblement dès le milieu des années 1970 avec certains tels Guy Cuevas ou Yannick Chevalier plus largement reconnus en France. Des écoles, des salons voient le jour ainsi que des magazines, beaucoup de discothèques s'équipent de . Le « disquaire » devient « disc jockey ». Du disco au hip-hop À la fin des années 1970, un ensemble de facteurs tant musicaux que sociaux et techniques (évolution du rock vers un style moins dansant, développement d'une musique soul plus dansante, amélioration des sound systems, libération des mœurs, besoin de reconnaissance de certaines minorités) aboutissent au développement aux États-Unis d'un mode de sortie et d'un style de musique qui sera finalement nommé disco. Les discothèques se multiplient et le métier de DJ évolue alors dans les lieux de sorties avec musique (bars, clubs). Le DJ sera au centre de mouvement jusqu'au moment où, à la fin des années 1970, les maisons de disques et l'évolution de la société se chargent soit d'exploiter le filon disco puis de le rejeter une fois épuisé, soit de juger ce genre vide et décadent. Cependant, dans des clubs des quartiers noirs de New York où se joue et évolue le disco, des DJs observent les danseurs et constatent que certains d'entre eux se déchaînent en solo quand le titre marque un break. De ce constat naît la breakdance qui donnera naissance au hip-hop, dont l'idée vient de personnalités comme DJ Kool Herc qui, en enchaînant les breaks de plusieurs morceaux, parvenait à prolonger la durée des coupures rythmiques. Avant que puisse être dupliquée par enregistrement cette répétition, la technicité demandée au DJ pour effectuer cet exercice s'est accrue. Progressivement, avec des artistes comme Grandmaster Flash, le deejaying prend alors un nouveau sens qui exprime l'idée que le DJ produit du son à partir d'un instrument, le disque, grâce à tout un ensemble de techniques nouvelles qui nécessitent une dextérité extrême. Le DJ passe ainsi du rôle de sélectionneur à celui d'artiste. Arrivés aux années 1980, le domaine est maintenant une fonction effectuée par des professionnels, avec chacun leur style artistique, mais pour la grande majorité anonymes ; l'héritage des quelques DJ stars du disco, dont les habitués citent les noms, ne suffisant pas à en faire des personnes reconnues. La libéralisation des radios en France change la donne : en quelques années, le pouvoir que prennent ces radios imposent la programmation dans les discothèques ; le disc jockey conserve alors moins de liberté sur ses choix et les hit-parades marquent leur hégémonie. La France compte, vers cette époque, environ disc jockeys dont un bon tiers non déclarés, le métier n'ayant toujours pas de réelle existence administrative. Outre quelque noms sortants du lot, pour une majeure partie de DJ cela consiste toujours à animer et diffuser, la fonction reste sans reconnaissance ni considération. Lorsque la house arrive en France, les DJ sont pour la plupart timides avec ce style musical. Il faut attendre la déferlante de la French touch pour qu'enfin surgisse une génération de disc-jockeys-musiciens créant leurs propres compositions. La technique de mixage elle aussi évolue, où le simple enchainement de titres laisse place au turntablism. Émergence du turntablism Kool Herc est crédité comme le premier DJ qui mixe deux disques réglés sur le même BPM, faisant ainsi une transition appelée de nos jours calage tempo. Par la suite, cette pratique se développe dans le Bronx notamment grâce à la culture Zulu Nation du milieu des années 1970. Au début des années 1980 vient ensuite le scratch, inventé par . Cette manipulation révolutionnaire du disque est largement popularisée en 1983 par Grand Mixer DXT et Herbie Hancock dans le titre Rockit. Après 10 ans d'amélioration des techniques de scratch, le terme de Turntablism est finalement proposé par DJ Babu en 1995 pour décrire cette pratique. Déferlante techno Jusque là le plus souvent exclusifs à un lieu, les disc jockeys avec un peu de notoriété deviennent de plus en plus indépendants, changeant de discothèque et de pays. Le nom de certains apparaît sur les flyers, marque de reconnaissance encore rare au début des années 1990. Après le déclin des raves au milieu des la décennie, une grande majorité de clubs et de disc jockeys se sont convertis à la musique électronique. Fonctions Animateur Dans des bars et dans les fêtes techno ou les rave parties. Il peut simplement enchaîner les morceaux de musique les uns après les autres en fonction des envies des auditeurs. Il peut aussi modifier ou superposer deux musiques, ou une musique et une version a cappella, et faire preuve de créativité et d'ingéniosité, voire utiliser des équipements spéciaux ou des ordinateurs pour refondre entièrement le morceau utilisé. Dans le milieu du « DJing », cette technique est connue sous le nom de « » ou encore de « » ou « ». L'animateur DJ de soirée privée comme le mariage ne peut pas être considéré comme un artiste du spectacle. Par contre, depuis fin 2015, le DJ ayant une activité en discothèque est considéré comme un grâce à une loi votée par les députés français. Il peut à ce titre prétendre au statut d'intermittent du spectacle pour autant que le lieu qui le reçoit cotise en conséquence. Musicien Depuis, le rôle du disc-jockey a pris de l'ampleur dans les musiques populaires récentes. Il est parfois reconnu comme un musicien à part entière. Le DJ peut parfois produire une œuvre originale à partir de matériaux musicaux existants, soit qu'il joue un rôle de découvreur de titres passés inaperçus ou tombés dans l'oubli, soit qu'il combine avec talent des œuvres mineures. Il se réapproprie alors le travail d'autres musiciens, exploitant un matériau sonore qu'il n'a pas lui-même créé. Cependant, le juste mélange des musiques diffusées, leur arrangement en live demandent une certaine créativité, et peut donc être considéré comme un art, qui diffère un peu de celui des musiciens. DJ star Certaines têtes d'affiches, particulièrement en EDM, sont devenues de véritables vedettes, à l'instar de David Guetta, Tiësto ou Avicii par exemple. , annonce Alesso. Les salaires se mettent alors en adéquation avec leur statut : ils . D'après les études du magazine Forbes, une douzaine de DJs gagnent plus de quinze millions de dollars dans l'année : les quinze premiers DJs mondiaux représentent à eux seuls de dollars de chiffre d'affaires en 2014 puis plus de 300 millions l'année suivante, sachant que le chiffre global estimé du domaine de l'EDM atteint six à sept milliards de dollars dont plus de 400 millions d'euros rien qu'en France d'après la Sacem. Selon ce même magazine économique, les gains de Calvin Harris se montent alors à plusieurs dizaines de millions de dollars, comprenant, outre ces prestations scéniques, son travail de production ou les revenus de ses labels et droits d'auteur, et ce, quatre ans de suite. , précise Martin Garrix qui est passé en peu d'années d'un salaire individuel à quatre chiffres pour six chiffres, rémunérant aussi une importante équipe technique derrière lui ; mais cela ne profite guère aux majors du disque, reléguées en fin de peloton en terme d'influence ou de gains financiers. Cette course aux enchères des cachets peut aller jusqu'à des contrats annuel de plusieurs dizaines de millions pour certains DJ résidents de Las Vegas ; la Chine ou Dubaï suivent cette escalade. Si la transition du marché de l'electro, des discothèques aux festivals relayés mondialement, a évolué en une quinzaine d'années, c'est David Guetta qui reste considéré comme l'élément clef avec sa production avec Fred Rister I Gotta Feeling en 2009 faisant rapidement décoller l'electro aux États-Unis. Jusque là, précise le rédacteur en chef de DJ Mag et ajoute . En parallèle, Internet a changé la donne par la diffusion globale de vidéos ; , les grands événements, rentables, se multiplient sur un modèle unique : l'Ultra, Tomorrowland ou l'Electric Daisy Carnival se déclinent à travers la planète, avec globalement une programmation identique. Résultat, cette uniformisation savamment marketée laisse les disc-jockeys acquérir un succès plus seulement national, mais bien mondial. Une réciprocité s’établit alors entre la réputation des grands festivals et la renommée de l'artiste, chacun ayant besoin de l'autre pour obtenir revenus et reconnaissance du public. Le vedettariat de la profession et l'inflation des festivals oblige les discothèques à se renouveler et à s'agrandir. Mais cette starisation coûteuse, combinée à l'industrialisation de cette culture musicale, font disparaître ces mêmes disc-jockeys des clubs dont ils sont pourtant issus. De plus, David Guetta précise que la fonction de DJ reste également de faire connaître des nouveautés, mais . En définitive, cet avènement d'une frange de disc-jockey entraîne comme conséquence de renforcer une scène underground, plus accessible, dans le domaine de la dance : , commente l'artiste français. Pratiques musicales courantes Scratch : utilisation d'un fader ou crossfader pour découper le son enregistré sur le vinyle, de manière à le transformer et à le rendre plus rythmé ou incisif. Dans la musique hip-hop, le Disc Jockey peut être parfois accompagné d'un MC (, le rappeur). Le DJ scratche, c'est-à-dire qu'il pose ses doigts sur le vinyle et en modifie la vitesse et le sens de lecture afin de déformer et de rythmer les sons existants. Cette déformation de sons est associée à l'utilisation, sur la table de mixage (élément central), d'un fader ou crossfader. Cet élément permet de passer du son d'une platine à l'autre et de couper le son d'une des deux platines. Il existe diverses techniques de scratch, comme le cutting, le transforming, ou encore le flare, qui peuvent être cumulées et alternées. Fondu enchaîné : la fin d'un morceau de musique est mélangée avec le début du morceau suivant de manière à assurer une transition progressive. Calage tempo : les rythmiques des deux disques sont superposées pour adopter le même BPM (battement par minute). Le mixage : les disques sont synchronisés manuellement à l'aide des réglages de vitesse des platines et sont mélangés avec diverses variations, portant notamment sur les égalisations (niveau des fréquences graves, médium et aiguës), ainsi que sur l'utilisation des faders et crossfaders. Les disques sont enchaînés de plusieurs façons : soit en scratchant (principalement utilisé en hip-hop et en rap) ; soit en mélangeant (mixant) progressivement les deux titres : il est alors question d'un fondu-enchaîné (fade ou crossfading) ; soit en mélangeant (mixant) progressivement les deux titres, et en calant le tempo du premier morceau (en réglant sa vitesse, il aussi question de pitch), il est alors question de mix dans le tempo (beatmix) ; soit en jouant le deuxième titre juste après le premier (un cut) ; en fait, le premier battement du deuxième titre (premier beat) est joué en même temps que le dernier beat du premier. Certains musiciens se disent également DJs du fait qu'ils utilisent les mêmes outils, bien que ce ne soit pas dans le but d'enchaîner des morceaux, mais bien d'en créer de nouveaux à partir d'éléments de plusieurs supports musicaux selon le principe des boucles et du sampling. Le DJ-ing ne se fait pas toujours en direct, ni face à un public. Par exemple, certains DJs utilisent des logiciels comme Cubase, FL Studio, ou Reason pour créer leur propres tracks. Certaines maisons de disques ne publient rien d'autre que les réalisations en studio de DJ. Il existe aussi un championnat du monde des DJs, qui se rencontrent dans différents types de catégories. Le concept du DJ-ing s'applique également à la vidéo. Le « VJ » (visual jockey ou vidéo jockey) enchaîne et superpose des images fixes et animées qui peuvent être projetées sur écran à l'occasion de soirées ou de concerts, mais également, sur les chaînes télévisées musicales. Le terme a d'ailleurs été élargi au simple présentateur d'émissions de telles chaînes du fait qu'il est censé choisir les clips vidéo qui passent. De la même manière, il est question de KJ (karajockey) pour les animateurs de karaoké. Support musical et DJing Si, historiquement, le vinyle a été le premier support des DJ (par le scratch), . La raison de cette résistance est l'absence de platine CD à vitesse réglable au départ, condition nécessaire pour mixer en discothèque. De ce fait, durant plusieurs années, la Technics 1200 MKII est devenue puis restée la platine vinyle la plus répandue dans les clubs. Dans les années 2010, certains labels sortent les nouveautés sous le format vinyle, à destination des DJ qui diffusent ainsi ces morceaux et permettent d'évaluer leur potentiel. Le pressage en plus grand nombre peut alors suivre, et selon le succès du morceau, le public pourra ensuite le trouver dans des compilations CD ou sur les albums des artistes correspondants. Cependant, à l'exception de la scène underground, de moins en moins de disc-jockeys mixent sur vinyles, ce format étant supplanté par le format numérique pour des raisons de gain de place (ainsi, Laurent Garnier a pu dire ), d'ergonomie et de possibilités de création. L'utilisation combinée du format MP3 (ou d'autres plus performants) et des ordinateurs a ainsi révolutionné le monde du DJing : grâce aux programmes qui permettent, à partir d'un ordinateur et de deux platines vinyles, de reproduire le mix sur vinyle tout en utilisant des MP3 contenus dans l'ordinateur ; grâce aux programmes tel qu'Ableton Live, Virtual DJ, ou encore Traktor Pro qui permettent de jouer des boucles, d'ajouter des effets et d'augmenter considérablement les possibilités d'actions sur les sonorités d'un mix. Le contrôle d'un logiciel prend maintenant un intérêt de plus en plus important pour des DJs pros, grâce à l'apparition de contrôleurs de qualité ou de systèmes comme le Vinyl timecodé. Cela dit, il est généralement plus aisé d'effectuer des transitions de type Calage tempo sur ces programmes, qui disposent souvent d'une fonction de synchronisation automatique des morceaux à caler, ainsi que l'affichage du BPM. Équipement de base Platines vinyles, platines CD ou console numérique Table de mixage ou Contrôleur DJ + logiciel DJ Casque de pré-écoute Microphone (optionnel) Sonorisation Contrôleur DJ Jeux de lumière Boîte à effets (optionnel) Risques pour la santé Du fait de leur profession ou spécialité, et parce qu'ils sont souvent exposés à des intensités sonores élevées, de nombreux disc jockeys courent le risque de développer une surdité ou une de perte d'audition ; et s'ils sont, en outre, chroniquement exposés aux infrasons à forte intensité, et plus généralement aux basses-fréquences à haute intensité (≤ 500 Hz, soit à des longueurs d'onde pour certaines totalement inaudibles et contre lesquelles les protections auditives sont sans efficacité), ils sont alors aussi exposés à un syndrome dit maladie d’origine vibroacoustique (ou maladie vibroacoustique), principalement caractérisée par un épaississement du péricarde. Selon Alves-Pereira & Branco, les deux spécialistes de ce syndrome, il est possible d'empêcher l'évolution de la maladie vers des stades cliniquement graves ou mortels à condition de détecter la maladie précocement, ce qui implique un échocardiogramme chaque année, ainsi qu'un suivi médical par des médecins du travail bien informés travaillant avec la participation active du patient. Vocabulaire En , la commission générale de terminologie et de néologie française a proposé de traduire en français les termes « deejay (DJ) » et « disc jockey (DJ) » sous l'appellation platiniste. Cette proposition a reçu l'accord de l'Académie française et le nouveau terme a été publié au Journal officiel le 16 octobre 2011. Le vocabulaire du DJ comprend un certain nombre de termes techniques : BPM battement par minute (mesure le tempo d'un morceau). Calage tempo (ou beatmatching) synchronisation des rythmes de deux morceaux. Cellule tête de lecture d'une platine vinyle. Cross-fader fader placé horizontalement sur une table de mixage permettant de basculer d'une voie à l'autre (la courbe de « fondu » peut être linéaire, exponentielle, « tout ou rien » et/ou réglable selon le modèle). Facilite le fondu enchaîné. CUE point de départ de la lecture sur un lecteur CD. Peut être le début de la chanson ou un point quelconque du morceau prédéfini sur platine CD. Fader bouton à glissière permettant de modifier le volume sonore d'une voie (aussi appelé potentiomètre linéaire). Feutrine également appelée , sorte de tapis intercalé entre le vinyle et le plateau de la platine permettant de faire glisser le vinyle sans dommage. Ainsi pour faire Pause, un DJ jouant sur vinyles utilise rarement la touche play et stop. Pour arrêter un morceau il pose ses doigts sur le disque, qui doit donc pouvoir glisser sur la feutrine. Il peut alors le lancer (throwing) dans le rythme. Hamster style méthode utilisée par les DJ à platines ou la configuration du crossfader est inversée, c'est-à-dire que la platine droite est à gauche du crossfader. Loop boucle sonore composée d'un point d'entrée (loop-in) et d'un point de sortie (loop-out). Pitch bend mécanisme (potentiomètre ou boutons) d'une platine (vinyle ou CD) permettant de modifier la vitesse de lecture (modification exprimée en pourcentage par rapport à l'original). Son réglage permet ainsi de synchroniser les beats de deux morceaux (entrant et sortant), mais en conséquence décale la hauteur. Mashup ou versus remix mixant la version a cappella d'un morceau avec l'instrumental d'un autre. Résident ou DJ résident concerne un disc jockey présent à date régulière sur une radio ou dans une discothèque. Ses sessions de mix donnent alors l'image musicale du lieu ou de l'émission. Certaines radios sont connues pour avec des DJ résidents telles Fun Radio ou Radio FG par exemple. Sample En français « échantillon ». Le sample est un court extrait ou une partie d'un morceau de musique, joué en boucle ou par intermittence. Il peut être déformé pour atteindre l'effet recherché. White label disque vinyle une étiquette blanche sans marquages ; il s'agit généralement d'un morceau produit par un DJ peu connu, et pressé en faible nombre d'exemplaires. Il permet souvent d'évaluer le potentiel du morceau avant pressage sous un vrai label. La plupart des bootlegs sont pressés en « white ». Notes et références Notes Références Annexes Bibliographie Arnold Passman, The Deejays. How the tribal chieftains of radio got to where they're at, New York/Londres, MacMillan Publishing, 1971, . Ulf Poschardt, DJ Culture. Londres, Quartet Books, 1998. Bill Brewster et Frank Broughton, Last Night a DJ Saved My Life: The History of the Disc Jockey, New York, Grove Press (USA), et Londres, Headline (UK), 2000. Charles A. Graudins, How to Be a DJ, Boston, Course Technology PTR, 2004. Tim Lawrence, Love Saves the Day: A History of American Dance Music Culture, 1970–1979, Duke University Press, 2004. Paul D. Miller, aka « DJ Spooky », Sound Unbound: Writings on DJ Culture and Electronic Music, MIT Press, 2008. Filmographie Berlin Calling, un film de fiction allemand racontant l histoire d’un DJ et compositeur Ickarus (Paul Kalkbrenner) en prises avec la toxicomanie. , film documentaire américain sur les artistes techno Modeselektor, Wighnomy Brothers, Philip Sherburne, Monolake et David Day. Kvadrat, film documentaire franco-russe sur les réalités de DJing techno, prenant pour exemple DJ Andrey Pushkarev. Articles connexes Beatmaker Liens externes « La place stratégique des DJ dans le spectacle vivant et industrialisé », par Emmanuel Soumounthong, dans Web-revue des industries culturelles et numériques, (consulté le 20 mars 2017). « Officiellement, votre DJ s’appelle désormais un PLATINISTE ! », djfrenchy.com (webzine spécialisé) (consulté le 20 mars 2017). Métier de la musique Musique hip-hop Musique électronique Reggae
992
https://fr.wikipedia.org/wiki/Do%20it%20yourself
Do it yourself
(, anglicisme, en français « faites-le vous-même », « faites-le par vous-même », « fait maison », voire « fait à la main » au Québec) désigne à la fois des activités visant à créer ou réparer des objets de la vie courante, technologiques (hacking), ou artistiques, généralement de façon artisanale (bricolage), et un mouvement culturel, notamment musical. Histoire Au début du paraissaient en Amérique du Nord des revues sur le sujet de niche qu'était le DIY. Des magazines tels (fondé en 1902) et (fondé en 1928) permettaient au lecteur de maintenir à jour ses compétences pratiques et sa connaissance des techniques, outils et matériaux. De nombreux lecteurs habitant alors en milieu rural ou semi-urbain, le contenu publié était initialement surtout lié à leurs besoins à la ferme ou au village. Dans les , le DIY se répandit auprès de la population nord-américaine d'étudiants et de jeunes diplômés. Le mouvement touchait notamment à la rénovation de maisons délabrées et abordables, et plus généralement à une grande variété de projets exprimant la vision sociale et environnementale des et début 1970. Le jeune et visionnaire Stewart Brand, aidé de sa famille et de ses amis, publia en 1968 la première édition du (sous-titré Accéder aux outils), à la composition et à la mise en page rudimentaires. Le catalogue resta comme une des premières formes contemporaines du mouvement. En 2007, la croissance des ressources de DIY en ligne est en forte progression et le nombre de blogs personnels à propos d'expériences personnelles ne cesse de croître, de même que les sites web DIY d'organisations. Philosophie On peut associer la formule au bricolage ou à la débrouillardise (le DIY anglais s'apparentant ainsi au « système D » français, la lettre « d » signifiant « débrouille »), mais elle ne s'arrête pas là. Différents domaines s'apparentent à la philosophie du « faites-le vous-même », tels : participer et échanger ses connaissances, sa culture, son information, débattre et décider, par exemple sur une encyclopédie libre telle Wikipédia ; la traduction et la diffusion d'un média numérique (seul ou à l'aide d'un fansub), tels les films ou séries d'animation (à l'aide de logiciels libres comme MKVToolNix ou ). Pour les livres, bandes dessinées et manga, il peut s'agir de scanlation ; l'auto-édition de livres, magazines et bandes dessinées alternatives ; la musique libre ou de label indépendant ; la musique électronique jouée à l'aide de ou de ; la culture cassette et la copie « privée » ; la création artisanale, comme le tricot, la couture, la bijouterie, les book nook, la céramique le cosplay, qui implique de confectionner son déguisement soi-même, sur mesure ; le design de partage ; le façonnage d'objets, les fab labs ; les systèmes embarqués d'objets interactifs ou automatiques, à l'aide de composants électroniques Arduino ou Raspberry Pi et de matériel libre ; les jeux vidéos indépendants et les mods ; les logiciels libres, ou le hack (par exemple les ) ; en biotechnologie, la conception libre de médicaments et la biologie participative ; en comédie, le détournement situationniste, ou toute parodie ; le roller derby contemporain ; les skateparks construits par des skateboarders ; les activités créatrices pour enfants ; l'autorégulation, l'auto-organisation, la démocratie directe ; le recyclage consumériste, technologique ou culturel ; et plus généralement, toute activité où l'on n'est pas seulement spectateur ou consommateur. Engagement politique Au-delà d'une simple volonté de récupération, pour certains le mouvement (il ne s'agit pas d'un mouvement constitué) se voit comme une autre voie politique en opposition au monde d'ultra-consommation dans lequel il baigne. Ses membres peuvent ainsi être liés à l'autogestion, à l'anarchisme, ou aux mouvements squat et punk. Le besoin de créer, d'avoir une certaine indépendance par rapport à l'industrie et aux grands groupes commerciaux, de retrouver un savoir-faire abandonné, les pousse à trouver des solutions pour faire le maximum de choses par eux-mêmes, en opposition à la marchandisation dominante, tout en recherchant la gratuité ou les prix faibles. Les survivalistes ainsi que les populations défavorisées du monde entier sont aussi adeptes du DIY, dont certains sont engagés politiquement et d'autres non. Dans la culture punk Le DIY comme sous-culture a sans doute commencé avec le mouvement punk des . Cependant, la débrouille, le bricolage, les activités pour enfants, existaient avant le mouvement punk DIY. Dans la culture punk, l'éthique DIY est liée à la vision punk anti-consumériste ; c'est un rejet de la nécessité d'acheter des objets ou d'utiliser des systèmes ou des procédés existants. C'est également une réaction à l'échec politique, économique et social des Trente Glorieuses qui n'ont pas tenu leurs promesses et laissé dans la précarité toute une partie de la population. Cette éthique a notamment été véhiculée par le slogan (« Fais-le toi-même ou meurs ») qui exprime l'idée de s'en sortir par soi-même sans rien attendre d'autrui. En musique, les groupes punk émergents produisent souvent des spectacles dans les sous-sol des habitations, plutôt que sur des scènes traditionnelles, pour éviter le mécénat d'entreprise ou pour assurer la liberté de la performance. Partant, alors que de nombreuses salles ont tendance à fuir la musique expérimentale, les maisons ou leurs caves sont souvent les seuls endroits où ces groupes peuvent jouer. L' est alors réellement (« souterrain »), et pourtant les salles de spectacle dans les caves gagnent en renommée dans les grandes villes. Les adhérents de l'éthique punk DIY peuvent également travailler collectivement. Par exemple, le CD (une compagnie musicale de promotion de concert) de l'imprésario punk David Ferguson permet une production de concerts DIY et l'octroi d'un studio d'enregistrement ainsi que l'accès à un réseau de maisons de disques. L'éthique punk DIY s'applique également à la vie quotidienne, par exemple dans l'apprentissage de réparation de vélos plutôt que le recours à l'atelier, la couture (réparation/modification des vêtements plutôt que l'achat de nouveaux), la culture de jardins potagers, la récupération de produits réutilisables dans les poubelles. Certains enseignants ont recours à des techniques d'enseignement de bricolage, parfois appelé Edupunk. De ce fait, le mouvement DIY est une approche concrète et une mise en pratique de l'écologie et de l'anticapitalisme, par l'anti-consumérisme. Bijoux de fantaisie DIY Face à la grande différence entre la valeur marchande des matériaux utilisés et le prix de vente du bijou final, de nombreuses boutiques, notamment sur Internet, vendent aujourd'hui les éléments nécessaires à la fabrication maison de bijoux fantaisie. Leurs produits se résument de manière générale aux apprêts (fermoirs, estampes), fils (en métal ou en laine) et différentes sortes de perles en (plastique, pâte Fimo, verre, pierres semi-précieuses). Un grand nombre de blogs et tutoriels vidéos sont disponibles sur Internet, permettant ainsi aux novices de fabriquer eux-mêmes leur bijoux. Les clients des boutiques DIY sont en général motivés par la possibilité de création d'un bijou unique, mais aussi par la possibilité de concevoir des bijoux à partir d'éléments recyclés. L'intérêt économique entre également en compte. Musique DIY Les groupes de musique DIY tentent de faire tout eux-mêmes, depuis la production de l'album jusqu'aux concerts, en passant par les actions de communication. Ce choix de production reflète avant tout une volonté de marquer son indépendance face aux grandes maisons et à l'industrie du disque en général : rendu possible par le développement de l'informatique grand public, ce type de production connaît un véritable essor ces dernières années, particulièrement dans la musique électronique. En contrôlant l'intégralité de la chaîne de production et de distribution, ces groupes musicaux tentent d'inventer une nouvelle conception de la relation entre les artistes et le public, sans aucune forme d'intermédiaire. Plus qu'une simple forme de communication, le DIY permet un contrôle total sur la production finale qui n'est influencée par personne d'autre que les artistes eux-mêmes. Ceci peut aussi bien être analysé d'un point de vue positif, la production finale étant plus personnelle qu'une production industrielle, que négatif, cette production étant par nature même une production non-professionnelle, terme ayant tendance à avoir une connotation négative. Cette opposition « DIY vs industrie » suscite d'ailleurs de vifs débats entre les deux camps : les majors ne cessent d'assurer que les maisons de disques ont un rôle déterminant à jouer dans la production de musique enregistrée, quand certains artistes très en vue défendent le modèle d'auto-production (Radiohead, Trent Reznor et Bérurier Noir, par exemple). De nombreux termes sont utilisés pour qualifier les groupes de musique DIY (autoproduction, …) et l'on retrouve cette opposition avec le mode de production industriel dans les termes de « musique indépendante », « musique libre », ou encore « artisanat musical ». Design DIY En 1974, Enzo Mari présente sa à la . Le designer fournit des plans permettant au consommateur de fabriquer du mobilier à partir de matériaux courants, principalement des planches, à assembler selon un petit guide disponible à la demande. Derrière son projet, une démarche artistique engagée et généreuse : proposer une nouvelle relation entre le créateur et l’acheteur. Enzo Mari a à l’esprit la démocratisation de la création et affirme : . Les mouvements que sont le , l' et le design de partage puisent largement dans son travail. Composer avec des éléments manufacturés, s’inspirer des objets du quotidien et les détourner, offrir à un large public les ressources pour fabriquer du mobilier de qualité, sont autant d’initiatives qui s’inscrivent dans sa démarche. Aujourd'hui, cette pratique de partage devient plus courante, favorisée par Internet, mais aussi par l'édition classique. Le projet « Bricoler chic et design », lancé par Le Grand appartement dans la continuité du livre Lumière ! en est le prolongement dans le domaine du design de luminaire. Notes et références Notes Références Voir aussi Bibliographie ! Autodétermination et culture punk, de Fabien Hein, Le Passager clandestin (édition), 2012. et fanzines, !, Eyrolles . , techniques et philosophie, site du Groupe Anarchiste Autonome Non Fides, (lire en ligne ). , 1997 . McKay, George. , 1996 . , 1998 . St John, Graham, . , , London: Routledge, 1999 . Articles connexes Bricolage Jugaad Contre-culture Capacitation Edupunk Apprentissage en ligne Anticonsommation Autodidacte Cosmétiques faits maison Hack Hacker Loisir créatif Makerspace Mouvement autonome Urbanisme DIY Liens externes
993
https://fr.wikipedia.org/wiki/Dubplate
Dubplate
Définition générale Un dubplate désigne un disque microsillon en acétate très fragile gravé en un seul exemplaire, créé à l'origine pour faire les 2 moules matricielles du futur disque, ceux des Faces "A" et "B", qui permettront de presser des disques vinyles par la suite.Le format du dubplate (33t - 45t ) dépend de la production prévue. Pourtant il ne fut pas juste utilisé pour créer des disques vinyles, différents label en produisirent pour les distribuer aux radios et aux sound system afin d'évaluer les réactions du public en vue d'une production commerciale ultérieure. Ce procédé promotionnel a encore lieu de nos jours bien que les formats numériques aient remplacé les formats analogiques. Le dubplate est également utilisé par les sounds systems et les DJ pour créer des productions musicales ou des remixes qui leur sont propres afin de développer leurs identités musicales et d'accroitre leurs notoriétés via une promotion musicale de qualité. Comme les radios, les sounds systems et DJ de nos jours pressent rarement leurs dubplates sur acétate, préférant le format numérique plus pratique d'utilisation. Sens actuel On assimile aujourd'hui le dubplate au special à une production musicale exclusive pour un sound system ou un D.J et sur lequel un artiste (chanteur ou deejay) modifie les paroles d'une de ses compositions pour en faire un hommage au sound-system qui le lui a commandé (on parle aussi de VIP mix, spécialement dans la musique électronique actuelle). Histoire des dubplates et des specials Apparition des dubplates À l'origine, à la fin des années 1950, la dubplate désigne un disque promotionnel que les producteurs envoient aux sound-systems pour mesurer leur popularité avant un éventuel pressage en 45 tours. Si la réaction du public est bonne, le morceau est ensuite normalement pressé. Alors que l'industrie musicale jamaïcaine est balbutiante, presser un 45 tours qui ne rencontrerait aucun succès est un risque énorme que les producteurs cherchent à minimiser en ayant recours aux dubplates. Mais l'engouement immédiat des Jamaïcains pour leur musique locale induit un développement rapide de l'industrie musicale jamaïcaine et le risque d'échec étant nettement réduit, on presse désormais directement les 45 tours sans passer par le stade des dubplates. Innovation et exclusivité Les dubplates ne disparaissent pas pour autant et deviennent même un instrument majeur dans l'évolution de la musique jamaïcaine. Pour les producteurs, ils permettent de prendre la température des sounds et d'observer presque instantanément la réaction du public aux dernières innovations qu'ils apportent. Si cette réaction est bonne, les producteurs sont confirmés dans l'orientation musicale qu'ils ont prise. Pour les sound-systems et leurs propriétaires, le dubplate est un moyen de se distinguer de leurs concurrents de par son caractère exclusif : on se rend chez "Downbeat" (sound-system de Studio One) plutôt que chez un autre car lui seul peut passer avant tout le monde les derniers morceaux en version dubplate des Heptones ou des Wailers. Un accord implicite se noue entre labels et producteurs : les dubplates servent à faire la promotion de morceaux avant leur sortie et de tester des innovations avant que le processus ne soit tout à fait enclenché, et à attirer le plus de monde possible dans un sound-system. Naissance du dub C'est d'ailleurs au cours de la gravure d'un dubplate que le dub est créé en 1967 : l'opérateur oublie de connecter la piste vocale et seule la rythmique nue est gravée. Mais la réaction du public face à ce qui n'est finalement qu'une version accidentellement instrumentale est telle qu'elle convainc les producteurs de généraliser les versions instrumentales, qui servent ensuite à combler les faces B de 45 tours, puis, avec l'inventivité de Lee Perry ou King Tubby (dont les premières expérimentations surviennent en gravant des dubplates à la fin des années 1960), se retrouvent bardées d'effets sonores pour devenir le dub que l'on connaît depuis les années 1970. Du dubplate au special Au début des années 1980, apparaît la mode non-démentie jusqu'à aujourd'hui des specials (voir définition). Le special n'a plus le caractère de disque promotionnel du dubplate initial. En revanche, il va encore plus loin dans le principe de l'exclusivité, puisque désormais, le morceau est enregistré directement et exclusivement pour le sound-system, sans intervention du producteur. Un artiste y parodie voire y plagie donc un de ses tubes en forme d'hommage plus ou moins glorificateur et guerrier à un sound-system (les dubplates peuvent également consister en un pot-pourri par l'artiste de ses tubes). Dans les dubplates qu'il signe, le chanteur Johnny Osbourne transforme ainsi généralement son I don't want no ice-cream love 'cause it's too cold for me en I don't want no ice-cream sound 'cause it's too soft for me. Ce qui compte, ce n'est évidemment pas la qualité du son ni la performance artistique : les sound-systems n'ont pas les moyens d'enregistrement des grands labels et les specials sont enregistrés à la va-vite. Ce n'est même pas la nouveauté puisque l'artiste ne crée pas des paroles totalement nouvelles ni une nouvelle mélodie et les dubplates sont d'ailleurs plus souvent réalisés sur des riddims classiques déjà éprouvés et connus de tous, que sur la rythmique originale du morceau (sauf si celle-ci est un classique). Par ailleurs, il faut rendre immédiatement identifiable le dubplate : par l'utilisation d'un riddim classique et la parodie d'un morceau déjà existant, le public saisit instantanément le caractère exclusif du dubplate. D'autant plus que celui-ci comprend généralement le nom du sound voire de ses membres. Cette dernière pratique s'est estompée depuis que les résidents des sound-systems ont pris l'habitude de quitter leur sound pour être "transféré" dans un autre ou pour fonder le leur : après leur départ, le sound ne peut plus passer un dubplate dans lequel est cité le nom d'un ex-membre désormais concurrent ! Plus l'artiste est coté, plus le dubplate a de la valeur (valeur décuplée si l'artiste est décédé ou "retraité"). Des rumeurs de specials de Bob Marley ont fréquemment circulé dans le milieu reggae, mais leur existence paraît assez improbable vu que la mode des specials est postérieure à la mort du chanteur. Les specials sont principalement utilisés lors de clashs (joutes par vinyles interposés) entre différents sound systems. Les grands sound-systems réalisent d'ailleurs parfois des specials exclusivement destinés à un clash précis dans lesquels le nom du sound concurrent est mentionné et discrédité (on parle de "nominatifs"). Dub Lexique du reggae
994
https://fr.wikipedia.org/wiki/Duke%20Reid
Duke Reid
Arthur Duke Reid, surnommé Trojan, né en 1915 dans la Paroisse de Portland (Jamaïque) et mort en 1975, est un producteur de musique jamaïcain. D'abord propriétaire du plus populaire sound system de Kingston, le Trojan (en 1956, 1957 et 1958, il est même sacré roi du sound & blues par le public), il monte un studio d'enregistrement à l'étage de son magasin de vins et spiritueux en 1965, puis fonde les labels Treasure Isle et Trojan. Il était aussi le rival historique de Coxsone. Biographie Duke Reid va participer activement à l’émancipation et au développement de la musique yardie. Tout d’abord amateur de Calypso, rhythm and blues, et de jump blues, il se tourne ensuite vers le ska et le reggae. Au début des années 1950, il devient DJ pour une radio locale, et anime un programme qu’il nomme « Treasure Island Time » du nom d’un magasin d’alcool acheté avec sa femme : « Treasure Isle Liquor store ». Il lance aussi une affaire de sound system mobile, en déplaçant son matériel et ses disques à l'aide d'un pick-up « Trojan », d'où lui vient son surnom. Il est aussi et surtout, un des premiers opérateurs de sound system de l’île, avec Tom the great Sebastian et Coxsone Dodd. Les sound systems, ou « maison de la joie » comme on les surnomme en Jamaïque, sont des espèces de discothèques mobiles, composées d’une quarantaine d’amplis environ, et qui représentent pour le peuple jamaïcain le principal moyen d’accès à la musique. Bien que peu nombreux, la compétition entre les sounds systems fait rage, ils s’affrontent sur les « longs » (pelouses) et c’est alors l’originalité du son et le talent des DJ qui font la différence. Le Duke se démarque notamment par ses performances scéniques souvent spectaculaires, la qualité de ses riddims et de ses Dj : Cuttins et Cliffie. Ce qui ne l’empêche pas à l’occasion d’utiliser la violence pour briser les oppositions. Ancien policier, il inspire le respect de tous, d'autant plus qu'il ne sort jamais sans une arme et une ceinture de munitions, voire une grenade ou une machette en tant qu'accessoires. De plus, il emploie des vieilles connaissances et des voyous (« dancehall crashers ») pour saboter le matériel des sounds systems concurrents et provoquer des bagarres chez eux, dans le but d'attirer des danseurs par la bonne ambiance de son sound. Duke Reid est en quelque sorte le précurseur d'un comportement « gangsta » dans la musique jamaïcaine. Sa rivalité avec Coxsone augmentant, il multiplia ses voyages aux États-Unis pour dénicher d'obscurs vinyles R&B ou des pistes instrumentales de saxophone. L'exclusivité devenant un critère de plus en plus important pour garantir le succès d'un sound system, Reid et Coxsone rayaient les noms des artistes et des labels sur leurs disques, et les renommaient pour protéger leurs vraies identités. Une anecdote célèbre est que Reid s'est risqué à passer une chanson portant la signature de Coxsone, ce qui entama un « battle » entre Duke Reid et un Coxsone choqué et consterné. Reid était souvent accusé de tactiques peu scrupuleuses à cause, entre autres, de son recours aux « dancehall crashers », des voyous dont le rôle consistait à saboter le matériel hi-fi des sound-systems rivaux et de provoquer des bagarres. Il remporta le Jamaica's top sound-system battle trois années consécutives, de 1956 à 1958. Fin des années 1950, il produit du Calypso sur son label « Trojan » ; en 1959, il construit son propre studio d'enregistrement, qu'il baptise logiquement Treasure Isle et forme un groupe de studio, le Duke Reid Band, auquel participent ponctuellement Rico Rodriguez, Don Drummond, Roland Alphonso, Johnny Moore et Ernest Ranglin. Il enregistre un grand nombre de chansons destinées à déchainer les foules lors des soirées organisées à l'aide de son Sound System. Après quelques mois et devant la demande du public Duke Reid commence à commercialiser certains morceaux en les pressant au format 45 tours en petite quantité (500 exemplaires environ). Devant le succès populaire, Duke Reid se lance dans le commerce de l'édition de disques. De 1962 à 1965, les labels de Reid - Treasure Isle en premier - sortent de nombreux hits ska des Skatalites, Stranger Cole, the Techniques, Justin Hinds & the Dominoes... Cependant, c'est avec l'arrivée en 1966 d'Alton Ellis et du rocksteady, plus lent que le ska, que Duke Reid devance Studio One et Coxsone dans la course à la renommée. L'apogée du rocksteady (1966-1968) fut très fertile pour les productions de Reid, avec Alton Ellis, Phyllis Dillon, the Melodians, the Paragons, the Ethiopians, the Jamaicans et bien d'autres. La plupart d'entre eux étaient entourés du nouveau house band de Reid, Tommy McCook & the Supersonics, menés par l'ancien saxophoniste des Skatalites. Dans une interview pour Kool 97 FM, Jackie Jackson avec Paul Douglas et Radcliffe "Dougie" Bryan ont été interrogés sur les nombreux enregistrements qu'ils ont fait ensemble comme la section rythmique pour Treasure Isle Records. Ils ont été interviewés sur leur travail avec Sonia Pottinger et Duke Reid. Avec la fin du rocksteady et l'avènement du roots reggae à tendance rasta, Reid se trouva face à un dilemme, cette nouvelle musique n'étant pas de son goût, particulièrement les paroles relatant des revendications sociales. Cette position fit petit à petit de lui un personnage de la « vieille garde », passé de mode. Bien qu'ayant été un des plus grands producteurs jamaïcains, il n'hésitait pas à refuser d'enregistrer des chansons rastas, en répliquant « je suis moi-même Babylone, j'ai été flic, c'est de moi que tu parles, pas de rasta-song ici ». Heureusement, il y avait une autre mode à l'époque qui fleurissait dans les dancehalls : les DJ commençaient à insérer leurs propres rythmes, jouant avec les rimes, et commençaient véritablement à « chatter » et à « toaster » sur des mélodies populaires. Le leader des Paragons, John Holt, présenta le pionnier du genre, U Roy à Duke Reid en 1970, qui décida très vite de l'enregistrer, et insiste sur l'idée de rajouter simplement des voix sur les enregistrements Treasure Isle existants. Les résultats ont été époustouflants de popularité. Quatre singles de U Roy sont apparus dans le Top5 jamaicain d'un seul coup. Reid continue d'enregistrer U Roy jusqu'au début des années 1970, et sortit également des disques d'autres jeunes DJs, comme Dennis Alcapone. Il tombe gravement malade en 1974, et finit par s’éteindre en 1975 à l’âge de 60 ans. Les collections, productions estampillées Trojan, Treasure Isle, etc. forment une œuvre tout simplement faramineuse. Notes et références Liens externes Liste des productions de Duke Reid sur Roots-Archives Producteur jamaïcain de reggae Naissance en juillet 1915 Décès en janvier 1975 Décès à 59 ans Artiste de Trojan Records Naissance dans la paroisse de Portland
995
https://fr.wikipedia.org/wiki/Don%20Drummond
Don Drummond
Don Drummond est né le à Kingston, Jamaïque, dans le quartier de Trenchtown. Il est mort le à Kingston. C'est un tromboniste et compositeur jamaïcain issu du jazz, il restera une des plus grandes légendes du ska et de la musique jamaïcaine pour son œuvre individuelle ainsi que pour sa carrière au sein des Skatalites, groupe mythique formé en 1963. Biographie Don Drummond était parmi les figures les plus représentatives du ska et un des membres fondateurs des Skatalites. Il fut le compositeur le plus prolifique dans son genre, avec près de 300 titres sous son nom. Même avant la naissance du ska, Drummond était déjà considéré comme une légende jamaïcaine pour ses prouesses en jazz et en tant que professeur des jeunes orphelins de l'Alpha Boys School de Kingston. C'est d'abord en tant qu'élève qu'il fréquente cet établissement sous la direction de Rupert Anderson. La tradition veut que les anciens pensionnaires deviennent par la suite professeurs. Il enseigne alors à Rico Rodriguez, Vernon Muller, Joe Harriott et Vincent Gordon. Don Drummond intègre par la suite les orchestres locaux tel que le Colony Club Orchestra d'Eric Dean ou le Tony Brown Orchestra. Aimant le jazz, il forme un groupe, le Don Drummond Four et est élu meilleur tromboniste de l'année 1954. Clement Dodd le repère lors d'un de ses shows et l'embauche dans ses groupes de studio (les Blues Blasters, The City Slickers ou le Studio One Orchestra), où officient plusieurs futurs Skatalites. Sa carrière de studio commence en 1956, il a principalement enregistré des specials (enregistrements originaux et exclusivement pour sound system). En 1959, cependant, ces specials ont commencé à être commercialisées pour la Jamaïque puis l'Angleterre. Drummond enregistre également pour les producteurs Leslie Kong (Spitfire), Vincent Chin (Don't Bury Me, Dandy Don D.), Prince Buster (That Man Is Back, Dewdrops, Corner Stone), Justin Yap (Ringo, Confucious, Ska-Ra-Van) et Duke Reid (Eastern Standart Time, Occupation, Let Georges Do It). Ses premières influences viennent de grands jazzmen américains tels Jay Jay Johnson ou Kai Winding. Le génie de Don Drummond n'est pas venu sans prix, il fut un homme notoirement excentrique qui a souffert de schizophrénie, son comportement erratique lui ayant valu le surnom de "Don Cosmic" de la part de Dodd. Il était fréquent que lors de concerts, il s'arrête de jouer et reste immobile sur la scène devant un public remuant. Il est l'un des premiers musiciens rasta et fréquente les groundations de Count Ossie. Ses titres King Solomon, African Beat, Mesopotamia ou Addis Ababa rendent hommage à l'Afrique et quant à Marcus Junior et Garvey Burial, dédiés à Marcus Garvey, ils témoignent de ses convictions et de sa foi. Drummond est devenu par la suite un des chefs créateurs et spirituels des Skatalites. En 1964, le Ska inonde les ondes hertziennes jamaïcaines tout au long de l'année, et il participe à des dizaines de séances d'enregistrement. Les Skatalites accompagneront les stars jamaïcaines de l'époque tel que Joe Higgs ou Jackie Opel mais également une nouvelle génération où l'on retrouve Delroy Wilson, The Wailers, Lee 'Scratch' Perry et Ken Boothe. Man in the Street, composition de Drummond, rentre dans le Top 10 au Royaume-Uni en 1964, et un an après, son adaptation du thème du film "Guns of Navarone" réussit le même exploit en Angleterre. Le nouvel an 1965, il se rend au commissariat pour le meurtre de sa femme, une danseuse nommée Anita 'Margarita' Mahfood (que l'on peut entendre sur le titre Woman A Come), poignardée. Son corps a été trouvé dans sa maison, la victime avait de multiples blessures causées par des coups violents. Drummond a été considéré comme non-responsable de ses actes par le tribunal et interné au Bellevue Hospital. Il meurt le à l'âge de 37 ans. Sa mort a suscité d'étranges rumeurs (notamment une vengeance de la famille de sa concubine ou un suicide), la version officielle étant une mort naturelle. Heather Augustyn, auteur d'une biographie exhaustive de Don Drummond parue à l'été 2013, affirme avoir la preuve que la mort de Don Drummond fut causée par les médicaments administrés à l'hôpital de Bellevue et qu'il était impossible que la famille d'Anita Mahfood ait été derrière un meurtre de vengeance. Notes et références Liens externes Une biographie Tromboniste de jazz Compositeur jamaïcain Musicien jamaïcain de reggae Musicien de ska Meurtrier supposé Naissance en mars 1932 Naissance à Kingston (Jamaïque) Décès en mai 1969 Décès à 37 ans Tromboniste jamaïcain Artiste de Trojan Records Artiste d'Island Records
997
https://fr.wikipedia.org/wiki/Doctrine
Doctrine
Une doctrine (mot attesté en 1160, du latin doctrina, « enseignement », « théorie », « méthode », « doctrine ») est un ensemble global de conceptions d'ordre théorique enseignées comme vraies par un auteur ou un groupe d'auteurs. Les doctrines peuvent être considérées quelquefois comme fallacieuses, sophistiques, et ou dogmatiques, de par leur origine religieuse ou mythologique. Elle a une dimension idéologique et elle peut être d'ordre politique, juridique, économique, religieuse, philosophique, scientifique, sociale, militaire Principes stratégiques et plans d'actions Dans le domaine militaire, politique, diplomatique, et du management, on appelle par extension doctrine les principes de base sur lesquels s'appuient une stratégie et des plans d'actions. Droit Doctrine (droit) Doctrine juridique française Économie En matière économique, les doctrines peuvent se manifester dans différentes théories économiques, ou en intelligence économique. Doctrine (économie) Doctrine économique islamique Religion Des exemples de doctrines religieuses inclus : Dans la théologie chrétienne : Voir la :Catégorie:Doctrine chrétienne Dans l’Église catholique, la Congrégation pour la doctrine de la foi a pour mission de « promouvoir et de protéger la doctrine et les mœurs conformes à la foi dans tout le monde catholique » Les quatre nobles vérités comprennent les doctrines du bouddhisme Esotérisme La Doctrine Secrète Doctrine spirite Domaine militaire Doctrine militaire Doctrine policière Doctrine policière ou doctrine d'action policière. Produits portant le nom de « Doctrine » En informatique, Doctrine (ORM) est un framework de mapping objet-relationnel pour PHP. Doctrine est un moteur de recherche juridique. Conservation et restauration du patrimoine Doctrines et techniques de conservation - restauration Notes et références Voir aussi Théorie Paradigme Doxa Concept philosophique
998
https://fr.wikipedia.org/wiki/Dennis%20Tito
Dennis Tito
Dennis Tito est un homme d'affaires californien d'origine italienne et un millionnaire américain, né le à New York, connu pour avoir été le premier « touriste de l'espace » en 2001. Biographie C'est à l'âge de 17 ans que sa passion pour le cosmos est née, avec l'envoi du satellite Spoutnik dans l'espace, en 1957. Il a ensuite travaillé pour la NASA au calcul des trajectoires. Il s'est finalement tourné vers les affaires : il a fondé son entreprise de conseil en technologies en 1972, et est aujourd'hui à la tête d'une fortune s'élevant à 200 millions de dollars. Dennis Tito détient un record de vitesse en planeur. Vol spatial réalisé Le , il devient le premier « touriste de l'espace » à bord de la mission Soyouz TM-32. Pour un montant de 20 millions de dollars octroyé à l'agence spatiale fédérale russe, l'Américain a réalisé son rêve, après un rude entraînement à la Cité des étoiles de Moscou. Le vol a duré 7 jours, 22 heures et 4 minutes et comporta un amarrage à la station spatiale internationale. Il revient sur Terre le 6 mai 2001 à bord de Soyouz TM-31. Projet Dennis Tito a annoncé en 2013 le projet Inspiration Mars. Références Liens externes Projet de 2018 Résumé du vol réalisé Naissance dans le Queens Naissance en août 1940 Touriste spatial Étudiant de l'université polytechnique de New York Pilote de vol à voile
1004
https://fr.wikipedia.org/wiki/Esp%C3%A9ranto
Espéranto
L’espéranto est une langue construite internationale utilisée comme langue véhiculaire par des personnes provenant d’au moins à travers le monde, y compris comme langue maternelle. N’étant la langue officielle d’aucun État, l'espéranto vise à établir un pont neutre entre cultures ; certains locuteurs nomment « Espérantie » la zone linguistique formée des lieux géographiques où ils se trouvent. Nécessitant un court apprentissage pour être utilisable, l'espéranto est ainsi présenté comme solution efficace et économiquement équitable au problème de communication entre personnes de langues maternelles différentes. Fondée sur une grammaire régulière sans exception, l'espéranto est une langue globalement agglutinante où les mots se combinent pour former un vocabulaire riche et précis à partir d'un nombre limité de racines lexicales et d’affixes. Ces particularités la rendent aisément adaptable aux exigences les plus variées et facilitent son apprentissage à tout âge. L’Académie d'espéranto contrôle en particulier l'introduction de mots découlant d'inventions ou de notions nouvelles et l’Association mondiale anationale publie le Plena Ilustrita Vortaro de Esperanto, dictionnaire tout en espéranto le plus vaste et reconnu internationalement. C’est en 1887 que Louis-Lazare Zamenhof, sous le pseudonyme (Docteur qui espère) qui donnera par la suite son nom à la langue, publie le projet Langue Internationale. La langue a connu un rapide développement dès les premières années, donnant lieu à des publications et des rencontres internationales. L'apparition des premières méthodes d'apprentissage en ligne au début des années 2000, puis de cours d'espéranto sur des sites d'apprentissage de masse comme sur Duolingo en 2015 suscitent un regain d’intérêt pour l'espéranto. L’Association universelle d’espéranto, fondée en 1908, est en relation officielle avec l’Organisation des Nations unies et l’UNESCO, qui a publié des recommandations en faveur de l’Espéranto en 1954 et 1985. L’espéranto est l’une des langues officielles de l’Académie internationale des sciences de Saint-Marin. L’université Loránd Eötvös en Hongrie sanctionne son cursus universitaire d’enseignement de l’espéranto par un diplôme reconnu par le cadre européen commun de référence pour les langues. Plusieurs universités proposent des cycles d’études espérantophones au Brésil, en Bulgarie, Pologne, Roumanie et Slovaquie. Définition Nom Utilisation du mot espéranto en tant que métaphore Le nom espéranto fonctionne comme un nom propre quand il désigne la langue même, mais est parfois utilisé comme nom commun (dans une sorte d'antonomase) pour représenter une langue commune ou un moyen commun dans un domaine donné où cette mise en commun ne va pas de soi. Cette utilisation du mot espéranto peut aussi bien être prise dans un sens positif que dans un sens négatif ou péjoratif. Dans le domaine de l'informatique, Java fut qualifié d'« espéranto des langages de programmation », en particulier à cause de sa simplicité et de son universalité (indépendance par rapport au système d'exploitation), métaphore reprise pour XML, qualifié à son tour d'espéranto du système d'information. En Allemagne et en Autriche, les opposants à l'euro le décrivirent comme ou ( = « argent » ; = « Monnaie »), voulant dire par là qu'un tel projet international était intrinsèquement voué à l'échec. Classification En tant que langue construite, l'espéranto n'est généalogiquement rattaché à aucune famille de langues vivantes. Cependant, une part de sa grammaire et l'essentiel de son vocabulaire portent à le rattacher aux langues indo-européennes (bien souvent aux langues romanes). Ce groupe linguistique a constitué le répertoire de base à partir duquel Louis-Lazare Zamenhof a puisé les racines de la langue internationale. Toutefois, la typologie morphologique de l'espéranto l'écarte significativement des langues indo-européennes, qui sont largement à dominante flexionnelle. En effet, il consiste en monèmes invariables qui se combinent sans restriction, ce qui l'apparente aux langues isolantes. En espéranto, comme en chinois, on dérive « mon » (), de « je » () et « premier » () de « un » (). Sa tendance à accumuler, sans en brouiller les limites, des morphèmes porteurs d'un trait grammatical distinct le rapproche aussi des langues agglutinantes. Géographie Histoire L'idée d'une langue équitable pour la communication internationale germa à Białystok au cours des années 1870, dans la tête d'un enfant juif polonais nommé Louis-Lazare Zamenhof. Quelques années plus tard, à l'âge de , il ébaucha son premier projet qu'il présenta à ses camarades de lycée. Ce n'est qu'après ses études en ophtalmologie qu'il publia en langue russe, à Varsovie, le 26 juillet 1887, l'ouvrage Langue Internationale, premier manuel d'apprentissage. Il fut suivi au cours des deux années suivantes de versions dans plusieurs autres langues. Dans ce manuel, Zamenhof avait défini ainsi le but de la Langue Internationale : « Qu’on puisse l’apprendre, comme qui dirait, en passant [et] aussitôt en profiter pour se faire comprendre des personnes de différentes nations, soit qu’elle trouve l’approbation universelle, soit qu’elle ne la trouve pas [et que l’on trouve] les moyens de surmonter l’indifférence de la plupart des hommes, et de forcer les masses à faire usage de la langue présentée, comme d’une langue vivante, mais non pas uniquement à l’aide du dictionnaire. ». Très vite, l'espéranto rencontra un vif succès, dépassant même les espérances de son initiateur. Le nombre de personnes qui apprirent la langue augmenta rapidement, au départ principalement dans la Russie impériale et en Europe de l'Est, ensuite en Europe occidentale et aux Amériques. L'espéranto pénétra au Japon à la suite de la guerre russo-japonaise de 1904-1905. En Chine, les premiers cours furent donnés à Shanghai dès 1906 et à Canton dès 1908. Durant ces premières années, l'espéranto fut essentiellement une langue écrite, les échanges se faisant essentiellement par correspondance et par l'intermédiaire de périodiques spécialisés. Le premier congrès mondial d’espéranto se déroula en 1905 à Boulogne-sur-Mer. Ce premier congrès marqua un tournant important pour l'espéranto. La langue qui était jusqu'alors essentiellement écrite fut dès lors de plus en plus utilisée pour des échanges directs, notamment lors de rencontres internationales et des congrès qui se déroulent depuis chaque année, mis à part les interruptions dues aux deux guerres mondiales. C'est au cours du premier congrès de 1905 que fut publié le Fundamento de Esperanto fixant les bases de la langue. La Première Guerre mondiale mit un frein au développement de l'espéranto, qui reprit cependant au cours des années 1920 dans l’enthousiasme généré par les espoirs de paix issus de la création de la Société des Nations. L’espéranto y est proposé comme langue de travail : la proposition, soutenue par des pays tels que le Japon et la Perse, échoue notamment à cause du véto de la France, qui estime que la langue internationale est et doit être le français. Mais les années 1930 avec la montée en puissance des régimes totalitaires, puis la Seconde Guerre mondiale marquèrent un nouveau coup d'arrêt au développement de l'espéranto. Malgré des conditions difficiles liées aux bouleversements politiques de l'après-guerre, l'apprentissage de l'espéranto a redémarré à partir des années 1950 essentiellement grâce à l'apparition de nombreuses associations et clubs d'espéranto. Au cours de cette deuxième moitié du , les publications en espéranto connaissent un certain succès et les rencontres espérantophones se multiplient. C'est surtout avec la généralisation d'Internet et à l'initiative de jeunes espérantophones que les années 2000 sont le début d'un renouveau de l'espéranto. Des méthodes d'apprentissage en ligne souvent gratuites sont apparues et de nouveaux usages se sont développés au travers des réseaux sociaux et des échanges directs. Évolutions et dérivés de l'espéranto Dès l'origine de l'espéranto, des propositions de réformes de la langue sont proposées, y compris par Zamenhof lui-même. Cependant, la communauté espérantophone fut toujours très réticente à de telles réformes et tous les projets échouèrent. De fait, le projet de réforme le plus connu est celui qui fut présenté par Louis de Beaufront et Louis Couturat en 1908. À l'époque, il provoqua une crise au sein du mouvement espérantophone. Les partisans de ce projet quittèrent le mouvement pour créer une nouvelle langue construite : l'ido. Au , l’ido ne compte que quelques centaines de locuteurs, même si on trouve quelques sites en ido, dont Wikipédia. D'autres propositions de réforme d'ampleur plus limitée virent le jour ultérieurement notamment le riisme, mais n'obtinrent que des soutiens limités. De fait, l'espéranto parlé aujourd'hui est très proche de ce qu'il était à l'origine. Sociolinguistique Statut Espéranto-France a lancé une préparation à une future épreuve écrite d'espéranto comme langue facultative au baccalauréat français et propose aux lycéens intéressés de passer un bac blanc d'espéranto. Le premier examen blanc de ce type a eu lieu le samedi ; cependant la date d’introduction de l'espéranto dans la liste des langues facultatives au baccalauréat dépend d’une décision du ministère de l’Éducation nationale. Le , la directrice générale de l’enseignement scolaire Florence Robine précise par une lettre qu’« il est tout à fait possible d’entreprendre, dans les établissements où l’enseignement de l’espéranto pourrait se développer, une démarche expérimentale à l’échelle locale ». L’espéranto est l'une des langues officielles de l'Académie internationale des sciences de Saint-Marin (AIS) dont le but est de favoriser l'utilisation de l'espéranto dans toutes les sciences. Parmi les universités disposant de cycles d'études espérantophones, les plus réputées sont : Sibiu en Roumanie ; Karlovo en Bulgarie ; Komárno en Slovaquie ; Poznań en Pologne. Concernant l’Université Adam-Mickiewicz de Poznań, des cours d’interlinguistique sont dispensés depuis 1997 dans le cadre de la faculté de philologie, et un cursus de trois ans en espéranto est proposé. Il valide des crédits ECTS. C’est Ilona Koutny, membre de l’Académie d'espéranto, qui guide ce cursus. À l'instar des autres langues, l’espéranto dispose de diplômes validant les acquis, mais seul l'institut des langues étrangères (ITK) de l'université Loránd Eötvös (ELTE) délivre des diplômes d'État sur la base du cadre européen commun de référence pour les langues (CECRL) : niveaux B1, B2 et C1. Il est à noter que parmi les trente langues proposées par ITK, l'espéranto se classe en par le nombre de candidats, après l'anglais et l'allemand. De son côté, la Ligue internationale des enseignants d'espéranto (ILEI) agit pour la promotion de l’apprentissage et propose des ressources pédagogiques aux enseignants d’espéranto. La Commission européenne, par l'intermédiaire de l'agence croate du programme Erasmus+, a décidé de soutenir financièrement la création en une quinzaine de langues du programme « Accélérateur de multilinguisme ». Dans ces ressources, gratuites et libres d’accès, l’espéranto y est enseigné à des élèves d’environ neuf ans, dans le but de leur permettre un apprentissage plus rapide d’autres langues vivantes, du fait du caractère propédeutique de l’espéranto. En Chine, l'enseignement de l'espéranto en vue de la préparation du baccalauréat a été autorisé au début de l'année 2018. L'UNESCO a adopté plusieurs recommandations en faveur de l'espéranto. La première a eu lieu le lors de la générale à Montevideo (Uruguay). De plus, la revue Le Courrier de l'Unesco est disponible en espéranto depuis 2017. En 1980, l’organisation mondiale du tourisme a souligné à Manille « l’importance de connaitre des langues, notamment celles à vocation internationale comme l’espéranto ». L'espéranto n'est la langue officielle d'aucun pays, mais il est la langue de travail de plusieurs associations à but non lucratif, principalement des associations d'espéranto. La plus grande organisation d'espéranto est l'association universelle d’espéranto, qui est en relation officielle avec les Nations unies et l'UNESCO dans un rôle consultatif depuis 1998, ainsi que l'organisation mondiale des jeunes espérantophones depuis 2021. Nombre de locuteurs Le nombre d'espérantophones est difficile à évaluer. Les estimations varient entre cent mille et dix millions. Deux millions est le nombre le plus couramment repris, voire jusqu'à trois millions. Toutefois, on peut affirmer en 2015 qu'il y a dans lesquels se trouvent des espérantophones. Étant une langue construite, l'espéranto est généralement appris comme langue seconde, et très souvent en autodidacte par une méthode ou un cours en ligne. Il existe cependant un certain nombre d'espérantophones natifs. Le linguiste finlandais estime leur nombre à . Jouko Lindstedt évalue par l'échelle suivante la capacité à parler l'espéranto dans la communauté espérantophone : ont l'espéranto comme langue maternelle ; parlent l'espéranto avec un niveau proche d'une langue maternelle ; parlent couramment l'espéranto ; comprennent l'espéranto et le parlent de façon occasionnelle ; ont plus ou moins étudié l’espéranto au cours de leur vie. Sidney S. Culbert, ancien professeur de psychologie de l'université de Washington, espérantophone lui-même, est arrivé, en comptabilisant pendant vingt ans dans de nombreux pays les espérantophones à l'aide d'une méthode par échantillonnage, à une estimation de de personnes parlant l'espéranto avec un niveau professionnel. Ses travaux ne concernaient pas que l'espéranto et faisaient partie de sa liste d'estimation des langues parlées par plus d'un million de personnes, liste publiée annuellement dans le . Comme dans l'Almanach, toutes ses estimations étaient arrondies au million le plus proche, c'est le nombre de deux millions d'espérantophones qui a été retenu et fréquemment repris depuis. Culbert n'a jamais publié de résultats intermédiaires détaillés pour une région ou un pays particulier, ce qui rend difficile l'analyse de la pertinence de ses résultats. Apprentissage L'apprentissage de l'espéranto repose en grande partie sur l'utilisation de méthodes autodidactes ou de cours traditionnels via des associations ou des clubs locaux. Toutefois, quelques établissements d'enseignement ont introduit des cours d'espéranto à leur programme. Au début des , l'apparition de méthodes d'apprentissage en ligne de l'espéranto, souvent gratuites, les plus connues étant et , a permis de toucher un public nouveau, en particulier parmi les jeunes. Le , le site d’apprentissage de langues en ligne, Duolingo, met en ligne la version bêta d'apprentissage de l'espéranto pour les anglophones et les hispanophones. En 2017, la méthode compte plus d’un million d’apprenants. Une version pour francophones est disponible en version bêta depuis . Le site de langues Memrise comporte plusieurs cours d’espéranto, dont l'un publié par l'association Esperanto-France. Viendront aussi des applications d’apprentissage pour téléphone portable, comme L’espéranto en , une adaptation de la . Enfin l’espéranto est présent parmi les langues mises en place sur la plateforme de recueil d'échantillons de voix Common Voice, de Mozilla : la fonction Enregistrer permet de s’entraîner à prononcer des phrases, puis de se ré-écouter, alors que la fonction Valider permet d'entendre d'autres locuteurs en espéranto. Tests de niveaux et CECR Les tests de niveaux en espéranto sont organisés suivant deux filières : la filière officielle conforme au cadre européen commun de référence pour les langues (CECR) ; la filière associative dans le cadre du mouvement espérantophone. Actuellement seul l'institut des langues de l'université Eötvös Loránd (Budapest, Hongrie) délivre des diplômes officiels de connaissance de l'espéranto. Depuis 2009, ces diplômes sont fondés sur le cadre européen commun de référence pour les langues (CECR) et disponibles dans les niveaux B1, B2 et C1. Près de possèdent un tel diplôme à travers le monde : en 2017, environ 570 au niveau B1, 590 au B2 et 820 au C1. La Ligue internationale des enseignants d'espéranto (ILEI) propose quant à elle des examens qui testent non seulement la maîtrise de la langue, mais également la connaissance de la culture véhiculée par l’espéranto : associations, principaux acteurs, Espérantie Intérêt pédagogique de l'espéranto Ces études furent reprises et confirmées par d'autres études dans le rapport remis au ministère italien de l'enseignement public (ministère de l'instruction), ainsi que dans le rapport Grin. Cette facilité de l'espéranto fut constatée par Inazō Nitobe, membre de l’Académie Impériale du Japon, homme de science, Secrétaire général adjoint de la Société des Nations, qui avait participé au congrès mondial d’espéranto de Prague en 1921 pour se rendre compte par lui-même de l’efficacité de cette langue. Dans un rapport intitulé (L’espéranto comme langue auxiliaire internationale), publié en 1922, il avait écrit : . Lorsque l'on a déjà appris une langue étrangère, l'apprentissage d'une nouvelle langue étrangère est plus facile, d'où l'intérêt de commencer par une langue étrangère facile. Des études menées sur des échantillons comparatifs d'élèves ont montré que les élèves qui avaient d'abord étudié l'espéranto avant de passer à l'étude d'une langue étrangère atteignaient un meilleur niveau, dans cette langue, que le groupe témoin qui pendant la même durée n'avait étudié que cette langue étrangère. Du point de vue de la graphie, l’espéranto fait partie des langues dites « transparentes » : comme pour le croate, le serbe, l'espagnol, l'italien, le slovène ou le tchèque, la correspondance entre graphèmes et phonèmes est simple, stable et régulière. Une langue complètement transparente suit deux principes : à un phonème correspond une seule graphie ; à une seule graphie correspond un seul phonème. À l’opposé, les langues dites « opaques » comme l'anglais ou « semi-opaques » comme le français ont des règles de correspondance grapho-phonémique complexes et irrégulières. Un dyslexique utilisant une langue « opaque » devient souvent dysorthographique. Il est préférable de choisir l'apprentissage d’une langue transparente pour faciliter l'apprentissage des langues chez les enfants dyslexiques. L'espéranto permettrait d'aider les dyslexiques en milieu scolaire. D'autre part, l'espéranto peut aider grâce à sa construction signalant pour chaque mot un trait grammatical précis, à faire comprendre les liens entre la « fonction dans la phrase » et l'« orthographe grammaticale » de chaque mot. Claude Piron qui fut pendant cinq ans traducteur-interprète au siège de l’ONU à New York pour l’anglais, le chinois, l’espagnol et le russe : . Militantisme L'espéranto est soutenu par un réseau de militants regroupés dans de nombreuses associations. Au niveau international, ce réseau d'associations nationales et d'associations thématiques est fédéré par l'association universelle d’espéranto. L'ensemble des militants favorables à l'espéranto est souvent désigné comme Le mouvement espérantophone ou même tout simplement Le mouvement espérantiste. Toutefois, cette appellation est trompeuse dans la mesure où les espérantophones ne constituent pas un ensemble homogène. Dans les faits, les motivations, les aspirations et les idées des espérantophones reflètent la diversité des opinions présentes dans le monde. Il est également à noter que seule une minorité d’espérantophones sont membres d'associations d'espéranto. De façon générale, l'essentiel du militantisme consiste à promouvoir l'apprentissage de l'espéranto et son usage dans la communication internationale. La défense de cet objectif s'appuie sur différentes études et rapports montrant les avantages de l’espéranto pour cet usage : équité dans les échanges, car aucun locuteur n'a l'avantage d'utiliser, voire d'imposer sa langue nationale, une forme de courtoisie pour assurer une neutralité linguistique maximale. plus grande facilité d'apprentissage, comparé aux autres langues ; avantages économiques, par rapport à d'autres solutions comme le tout-anglais, comme le montre le rapport Grin. Un exemple de cet objectif militant est l'apparition récente du mouvement Europe Démocratie Espéranto qui promeut l'usage de l'espéranto comme langue commune équitable en Europe en complément des langues officielles. En , le ministère français de l’Éducation nationale accepte que l’espéranto puisse être enseigné à titre expérimental. Cette décision fait suite à une demande de militants encouragés par le résultat considéré par ces mêmes militants comme un succès d'une pétition lancée par des associations pro-espéranto pour son ajout comme langue optionnelle au bac, qui avait recueilli , mais qui n'est de la part du ministère, que l'application de dispositions générales concernant n'importe quelle langue. En , une nouvelle pétition est lancée, cette fois-ci sur la plateforme officielle des pétitions citoyennes de l’Assemblée nationale avec pour titre Encourager l’enseignement de la langue internationale espéranto. Usage professionnel Bien qu'il soit couramment utilisé dans un contexte associatif, l'usage de l'espéranto dans un contexte professionnel est jusqu'à présent resté relativement limité. On peut citer l'exemple de l'association Réinsertion et Espéranto qui de 1997 à 2008 forma et embaucha en CDI à Montpellier des jeunes chômeurs avec l'espéranto dans le cadre du dispositif Emplois-jeunes. Afin d'encourager l'usage de l'espéranto, dans un contexte professionnel, quelques chefs d'entreprises se sont regroupés au sein d'une association, Entreprise-Esperanto dont l'objectif est d'accompagner les entreprises ayant des besoins de communication internationale et qui souhaitent utiliser l'espéranto. Vie culturelle Évolution des usages de la langue L’espéranto a longtemps été une langue plus écrite que parlée. Dès le début, toutefois, son usage oral a été assuré par les clubs d'espéranto, disséminés un peu partout en Europe, en Asie orientale et dans quelques pays d'Amérique. Les personnes intéressées s'y retrouvaient une fois par semaine ou par mois pour pratiquer la langue et accueillir des voyageurs étrangers qui l'avaient apprise. Au début du sont apparus de nombreux écrivains, hommes et femmes, poètes…, qui, ayant adopté l'espéranto comme langue de leurs écrits, lui ont donné sa littérature. Dans la résistance à l'occupation japonaise, des artistes coréens, notamment des réalisateurs qui seront à l'origine du cinéma nord-coréen, choisissent ainsi de se regrouper en 1925 dans une association ayant choisi un nom en espéranto : la (KAPF), ou Association coréenne des artistes prolétariens. En fait, l'usage oral de la langue, de la simple conversation à la musique, s'est surtout développé lorsque les voyages sont devenus plus accessibles et que les rencontres internationales espérantophones se sont multipliées. La mise en place de services d'hébergement chez l'habitant, comme le , et l'apparition de l'enregistrement sonore sur cassette, de même que les programmes de conversation téléphonique par ordinateur (voix sur IP), ont contribué à faire progresser l'utilisation orale de la langue. Avec l'Internet, l'espéranto a trouvé un nouveau vecteur de communication, tant pour la langue écrite que pour la langue parlée. Il est à noter que la version de Wikipédia en espéranto a dépassé le cap de le . Amikumu, une application mobile gratuite destinée à faciliter les contacts entre espérantophones est lancée le . Il faut également noter qu'avec l'accroissement du nombre de locuteurs, l'espéranto est devenu la langue maternelle d'enfants issus de couples espérantophones. En défendant son idée à travers l’Europe, le Docteur Zamenhof s'est attiré la sympathie de nombreuses personnalités politiques, telles que Gandhi ainsi que la communauté internationale du Bahaïsme. Littérature La littérature en espéranto se compose à la fois d'œuvres originales et d'œuvres traduites. Quelques ouvrages originaux : 1907 : , Henri Vallienne : considéré comme le premier roman en espéranto ; 1925 : , Julio Baghy ; 1933 : , Julio Baghy ; 1950 : , Cezaro Rossetti ; 1963 : , Raymond Schwartz ; 1999 : , Anna Löwenstein. Parmi les œuvres traduites, on trouve des ouvrages aussi divers que Le Petit Prince, la Bible, le Coran, le Manifeste du parti communiste, une biographie du peintre Camille Pissarro par son fils Ludovic-Rodo. La majorité des ventes d'ouvrages en espéranto est réalisée par les associations espérantophones. L'une des plus importantes librairies d'ouvrages en espéranto est le de l’association universelle d’espéranto, qui compte plus de . Presse Il existe de nombreuses publications originales en espéranto. Parmi les plus connues, on trouve : Esperanto, mensuel officiel de l'Association universelle d'espéranto, Monato, mensuel indépendant d'information politique, culturelle et scientifique fondé en 1979 par , , revue trimestrielle éditée par la ligue internationale des enseignants d'espéranto, La Ondo de Esperanto, mensuel fondé à Moscou en 1909 dont la parution a été suspendue en 1917 et a repris en 1991 à Kaliningrad, Sennaciulo, bimestriel publié par l'Association mondiale anationale, Kontakto, périodique édité par l'Organisation mondiale des jeunes espérantophones, trimestriel satirique indépendant, dirigé par À côté de la presse papier, on trouve un certain nombre de sites de presse uniquement disponibles en version électronique. Les plus connus sont : Le Monde diplomatique en espéranto : site, Libera Folio, site d'information indépendant édité directement en espéranto. Deux revues paraissent en France et en français : Le Monde de l'Espéranto et Espéranto info. Musique La musique espérantophone est presque aussi ancienne que l'espéranto. , qui deviendra l'hymne du mouvement espérantophone, a été écrit par Zamenhof, peu après la publication du premier manuel, Langue Internationale, paru en 1887. La musique espérantophone a suivi les évolutions technologiques, avec l’apparition des premiers vinyles dans les , puis l'apparition des musiques rock dans les , puis des disques compacts dans les et enfin des formats électroniques téléchargeables via Internet depuis les . les musiciens espérantistes les plus connus sont JoMo (Jean-Marc Leclercq) de France, Martin Wiese de Suède, Jonny M d’Allemagne, Kim J. Henriksen du Danemark, Ĵomart et Nataŝa du Kazakhstan et de Russie, Georgo Handzlik de Pologne, les groupes Kajto dont les membres principaux sont néerlandais, Dolchamar de Finlande, de France, de Suède. La musique espérantophone est naturellement mise en scène lors des différentes rencontres internationales. Radio Les premières émissions de radio en Espéranto datent de 1922 et furent émises à () et Londres (Royaume-Uni). En 2012, les émissions sont principalement des podcasts, mais certaines radios diffusent une émission hebdomadaire comme Radio Havana Cuba, ou Radio libertaire à Paris. La première radio diffusant entièrement en espéranto, Muzaiko, est apparue le . Elle émet sur Internet grâce à la technologie de lecture en continu. Son programme se compose de musique espérantophone, d'interviews, et d'informations généralistes. Radioamateurs Sur les bandes radioamateurs l'espéranto est utilisé aux fréquences : à locale, en code Morse pour l'Europe, le mercredi. (hiver : et été : ). à locale pour l'Europe occidentale du lundi au vendredi. (hiver : et été : ). à et les samedi et dimanche, à le lundi. et pour le Japon, tous les jours. Cinéma L'essentiel des films tournés originellement en espéranto sont des courts métrages. Seuls trois longs métrages ont été tournés directement en espéranto : Angoroj, (1964), intrigue policière se déroulant à Paris. Incubus, de Leslie Stevens (1966) avec William Shatner dans le rôle principal. , sorti directement en DVD en 2006, est une adaptation du roman éponyme de Claude Piron. Plusieurs films ont par ailleurs été doublés ou sous-titrés en espéranto. Dans le film de Charlie Chaplin, Le Dictateur, les plaques des magasins du ghetto juif sont en espéranto, catalogué comme « langue juive internationale » par Hitler dans . Il est aussi possible d'entendre de l'espéranto dans la version originale du film Bienvenue à Gattaca. En effet, les haut-parleurs de l'entreprise dans laquelle travaille le protagoniste de l'histoire font les annonces d'abord en espéranto puis en anglais. La musique du générique de fin du film d'animation japonais Patéma et le monde inversé est en espéranto et est chantée par Estelle Micheau. Phonologie et écriture L'espéranto possède vingt-huit phonèmes : cinq voyelles et vingt-trois consonnes. Ils sont transcrits au moyen d'un alphabet de vingt-huit lettres : vingt-deux lettres de l'alphabet latin (q, w, x et y ne sont pas utilisés, sauf dans les expressions mathématiques), et six lettres utilisant deux diacritiques (accent circonflexe et brève), propres à l'espéranto : ĉ, ĝ, ĥ, ĵ, ŝ, ŭ. L'orthographe est parfaitement transparente : chaque lettre représente invariablement et exclusivement un seul phonème. En plus de leur rôle premier de transcription, les lettres diacritées rappellent en espéranto l’orthographe ou la prononciation d’autres langues. Par exemple, « poste », rappelle graphiquement et phonétiquement le mot du tchèque, du slovaque, du slovène, du serbo-croate, mais aussi par la graphie les mots français, anglais, néerlandais, allemand poste, post, post, Post, et par le son le bulgare поща (prononcé ). L'espéranto aboutit souvent ainsi à un juste milieu rappelant plusieurs langues sources : ainsi rappelle le français jardin, l'allemand , le néerlandais , l'italien et l'anglais . La langue comporte un accent tonique toujours situé sur l'avant-dernière syllabe des mots. Le système vocalique comporte cinq timbres : a e i o u, correspondant aux valeurs du français â é i ô ou, comme dans de nombreuses langues, sans distinction de quantité. Le cadre sonore ci-après, permet d'écouter un court extrait du discours de Zamenhof prononcé lors du premier congrès mondial d'espéranto en 1905 à Boulogne-sur-Mer. Cet extrait lu par Claude Piron a été enregistré lors de la rencontre commémorative de 2005 à Boulogne-sur-Mer. Ces extraits sont reproduits et traduits dans la page de description du fichier. Les lettres diacritées peuvent poser quelques problèmes typographiques à l'imprimerie ou l'informatique (plus particulièrement avec les systèmes informatiques anciens). Pour les francophones, le clavier BÉPO et la variante Xorg du clavier AZERTY permettent d’accéder de façon native aux caractères accentués de l'espéranto. Des logiciels peuvent également être installés pour faciliter la frappe des six lettres diacritées. Grammaire La grammaire de l'espéranto se fonde sur seize principes énoncés dans le , adopté comme référence intangible au premier congrès mondial d’espéranto de Boulogne-sur-Mer en 1905. Ils ne constituent cependant qu'un cadre dans lequel ont été progressivement dégagées des règles plus détaillées. Chaque radical peut recevoir des morphèmes invariables signalant chacun un trait grammatical précis : —o pour les substantifs, —a pour les adjectifs, —e pour les adverbes dérivés, —j pour le pluriel et —n pour le cas accusatif. La régularité de la langue permet d’en expliquer la grammaire de façon aisée sans avoir recours à la terminologie technique habituelle, parfois difficile pour certains néophytes. L’ouvrage propose ainsi un panorama complet de la grammaire espérantophone sans vocabulaire complexe. Conjugaison Les verbes se caractérisent par une série de seulement six désinences ou finales détachables invariables qui forment une conjugaison, avec, mêlant des valeurs temporelles pour l'indicatif et modales : —i pour l'infinitif, —is pour le passé, —as pour le présent, —os pour le futur, —us pour le conditionnel, —u pour le volitif. Ces terminaisons sont les mêmes pour toutes les personnes et tous les verbes. Corrélatifs L'espéranto utilise également comme déterminants un ensemble de pronoms-adjectifs assemblés systématiquement à partir d'une initiale et d'une finale caractéristiques : initiales : i- (indéfinis), ki- (interrogatifs-relatifs), ti- (démonstratifs), ĉi- (collectifs-distributifs), neni- (négatifs) ; finales : -a (qualité), -u (individu), -o (chose), -es (possession). Les deux premières de ces séries varient en nombre et en cas, la troisième en cas uniquement. D'autres finales produisent des adverbes circonstanciels : -e (lieu), -am (temps), -el (manière), -al (cause), -om (quantité). Les mots formés sur ces bases sont désignés collectivement comme corrélatifs ou (en espéranto même) tabel-vortoj. Par exemple : signifie « qui » ou « quel » ; signifie « chacun » ou « chaque » ; signifie « personne » ou « aucun » ; signifie « à un moment » ; signifie « toujours » ; signifie « jamais ». Particules invariables L'espéranto recourt également à diverses particules invariables dans l'organisation de la phrase : il s'agit de conjonctions de coordination ( « et », « ou », « donc », « mais »…) ou de subordination ( « que », « parce que », « pendant que », « si »…) qui précisent les rapports entre propositions, et des adverbes simples à valeur spatiale, temporelle, logique ou modale. Par exemple, marque la négation, et marque l'interrogation globale. Syntaxe de phrase L'ordre des mots est relativement libre en espéranto : grâce à la marque -n du complément d'objet (accusatif), toutes les constructions (SOV, VSO, OSV) sont acceptées ; l’ordre le plus fréquent est toutefois sujet-verbe-objet suivi du complément circonstanciel. L'usage d'autres dispositions est courant notamment en cas de mise en relief afin de placer l'élément le plus important en début de phrase. Il existe cependant certaines règles et tendances bien établies : l'article défini se place au début du groupe nominal ; l'adjectif précède généralement le substantif ; les prépositions se placent au début du groupe prépositionnel ; les adverbes précèdent généralement l'expression qu'ils modifient ; les conjonctions précèdent la proposition qu'elles introduisent. D'une manière générale, on peut dire que l'ordre des syntagmes est libre mais que la disposition des morphèmes à l'intérieur d'un syntagme est fixée par l'usage. Certaines tendances expressives peuvent sembler peu communes par rapport à l'usage du français : les prépositions sont volontiers préfixées au verbe, produisant des doublets entre formulation intransitive avec groupe prépositionnel et formulation transitive à verbe préfixé : ~ « Nous discuterons de l'affaire. » (Tous les verbes à préposition préfixée ne forment cependant pas doublet : par exemple, « attirer » diffère de « tirer à ».) ; un syntagme peut facilement se condenser en mot composé : ~ « Un garçon aux yeux bleus. » ; l'emploi de l'adverbe dérivé (issu de l'usage poétique) est très étendu dans la langue courante (orale comme écrite). Du fait de l'absence de restriction sur la combinaison des monèmes, une même phrase peut se formuler de multiples façons : « J'ai tout introduit dans l'ordinateur. » ; « J'irai à l'hôtel à vélo. » ; « J'irai au congrès en voiture. » ; « Nous sommes du même avis. ». L'espéranto peut ainsi alternativement se montrer synthétique ou analytique. Lexique Sources lexicales Au même titre que la majorité des langues européennes dont le français qui tirent leurs racines en partie du latin et du grec et qui empruntent à l’anglais ou à d’autres langues, l’espéranto est une langue construite a posteriori : elle tire ses bases lexicales de langues existantes. Les principales sources sont, par importance décroissante : le latin et les langues romanes, principalement le français et l'italien ; les langues germaniques, essentiellement l'allemand, le néerlandais et l'anglais ; le grec ancien, surtout pour la terminologie scientifique ; les langues slaves, essentiellement le russe et le polonais. Les mots provenant d'autres langues désignent surtout des réalités culturelles spécifiques : « renne » (du same), « yoga » (du sanskrit), « baguettes (pour manger) » (du japonais) Les morphèmes grammaticaux doivent beaucoup au latin et dans une moindre mesure au grec ancien. Une très petite partie selon certains est construite sans référence évidente à des langues existantes. Pour d'autres, il s'agit d'éléments profondément remaniés rappelant ceux de langues préexistantes, comme la série des corrélatifs. Zamenhof a suivi diverses méthodes pour adapter ses sources lexicales à l'espéranto : adaptation phonétique orthographique, à partir de la prononciation ( du français trottoir) ou à partir de la forme écrite ( de l’anglais « oiseau »). Lorsque plusieurs de ses sources comportaient des mots proches par la forme et le sens, Zamenhof a souvent créé un moyen terme ( « chef »). Le vocabulaire de l'espéranto était construit à partir d'environ 1800 radicaux dans le de 1905. En 2002, après un siècle d'usage, le plus grand dictionnaire monolingue en espéranto (), en comprend correspondant au moins à lexicaux. Ce nombre continue à augmenter notamment avec le vocabulaire technique spécialisé davantage pris en compte. Formation des mots La formation des mots espéranto est traditionnellement décrite en termes de dérivation lexicale par affixes et de composition. Cette distinction est cependant relative, dans la mesure où les « affixes » sont susceptibles de s’employer aussi comme radicaux indépendants : ainsi le diminutif forme l’adjectif « petit (avec idée de faiblesse) », le collectif forme le nom « groupe », le causatif forme le verbe « faire, rendre » Les deux principes essentiels de formation des mots sont : l’invariabilité des radicaux : contrairement à ce qui peut se passer par exemple en français, en anglais, en allemand… la dérivation ne provoque aucune altération interne des monèmes : « voir », « vue », « invisible » l’ordre de composition où l’élément déterminant précède le déterminé : « oiseau chanteur » et « chant d’oiseau », « bateau à voile, voilier » et « voile de bateau », « centenaire (= centième année) » et « siècle (= centaine d’années) ». Pour l'initiation à la langue, Zamenhof recommandait de séparer par un petit tiret les différents radicaux, mais dans l'écriture courante, ces petits tirets sont ensuite supprimés. En théorie, il n’existe pas d’autre limite que sémantique à la combinatoire des radicaux. Il en résulte un certain schématisme qui aboutit à la formation systématique de longues séries sur le même modèle, parfois sans équivalent direct dans d’autres langues. Par exemple : à côté de « compatriote », littéralement membre du même pays, et « camarade de classe », il existe « partisan du même idéal » et « personne du même âge » pour exprimer le fait de prendre une couleur, le français possède « rougir, jaunir, verdir, bleuir, blanchir, brunir, noircir ». L’espéranto possède comme équivalents respectifs mais le procédé y est illimité : « devenir gris », « devenir orange » il est possible de former le contraire de n’importe quelle notion par le préfixe très fréquent : « gai » ~ « triste », « aider » ~ « gêner », « beaucoup » ~ « peu » Ce schématisme a pour effet de diminuer le nombre de radicaux nécessaires à l’expression au profit de dérivés, réduisant ainsi la composante immotivée du lexique. Le procédé pouvant parfois paraître lourd, la langue littéraire a cependant introduit quelques radicaux alternatifs à titre de variantes stylistiques : par exemple « vieux » peut doubler (formé sur « jeune ») ou (formé sur « neuf, nouveau »). L’usage courant tend cependant à préférer les dérivés. Le système de dérivation s’adapte aisément aux besoins en mots nouveaux. Ainsi, du mot (« réseau, filet »), on a extrait le radical pour former tout un ensemble de mots liés à Internet : (« adresse de courriel »), (« pirate informatique ») Exemples Phrases simples Le tableau ci-dessous présente quelques mots et phrases ainsi que leurs transcriptions en alphabet phonétique international : Texte analysé en constituants La akcent estas sur la antaŭlasta silab. La kernn de la silab formas vokal. Vokalj ludas grandan roln en la ritm de la parol. Substantivj finas per , adjektivj per -a. La sign de la plural estas -j. La plural de « lasta vort » estas « lastaj vortj ». « -o » = substantifs« -a » = adjectifs« -j » = pluriel« -n » = accusatif Traduction : L'accent tonique est sur l'avant-dernière syllabe. Le cœur de la syllabe est formé par une voyelle. Les voyelles jouent un grand rôle dans le rythme de la parole. Les substantifs finissent par -o, les adjectifs par -a. La marque du pluriel est -j. Le pluriel de « » (« dernier mot ») est « ». Notes et références Notes Références Annexes Bibliographie Ouvrages généraux . . . Historique . . Xavier Vanandruel, Dirk Dumon, Gassy Marin, Tour du vieux monde d'un anarchiste espérantiste : 1928-1938, Artisans-Voyageurs, , 2017, présentation en ligne. Dictionnaires, apprentissage . . Le cours de Z. Mraihy et Th. Saladin est divisé en trois tomes : . . . . . . Apologétique . . . . Témoignages . Vidéos : André Cherpillod, La langue la plus facile du monde Claude Piron, Les langues : un défi Articles connexes Interlinguistique Langue auxiliaire internationale Fundamento de Esperanto Grammaire de l'espéranto Vocabulaire de l'espéranto Étymologie de l'espéranto La culture Espéranto La danĝera lingvo Politique linguistique de l'Union européenne Multilinguisme linguistique Linguistique comparée Sociolinguistique liste de langues langues par famille Liens externes (fr) Idées reçues sur l’espéranto et ceux qui le parlent, Apprenti polyglotte Portail multilingue sur l'espéranto Didacticiel multilingue d'apprentissage Site multilingue d'apprentissage Cours international gratuit Inventaire de langues Langue véhiculaire Langue internationale ou mondiale Éponyme d'un objet céleste
1005
https://fr.wikipedia.org/wiki/Eure
Eure
Hydronymes L'Eure est une rivière qui coule dans les départements de l'Orne, d'Eure-et-Loir et de l'Eure. C'est un affluent direct en rive gauche de la Seine en France. La Fontaine d'Eure ou sources d'Eure, groupe de résurgences qui alimentaient l'aqueduc romain de Nîmes qui franchit le Gardon sur le pont du Gard et approvisionnent aujourd'hui la ville voisine d'Uzès dans le département du Gard en France. À ne pas confondre avec la source de l'Eure qui se trouve à Marchainville dans le département de l'Orne en France. La vallée d'Eure, nom d'une petite vallée au pied d'Uzès. Toponyme L'Eure est un département de la Normandie. Armée Eure, un aviso de la marine nationale française de la fin du . Eure, nom d'un chars français victorieux lors la bataille de Stonne en 1940. Patronyme Sampson Eure (1592-1659) est un homme politique anglais.
1006
https://fr.wikipedia.org/wiki/Eure-et-Loir
Eure-et-Loir
Le département d'Eure-et-Loir () est un département français dont la préfecture, Chartres, est située à à l'ouest-sud-ouest de Paris. Les villes de Dreux, Châteaudun et Nogent-le-Rotrou en sont les sous-préfectures. Il fait partie de la région Centre-Val de Loire. L'origine de son nom provient des deux principales rivières qui le traversent, l'Eure, affluent de la Seine, et le Loir, affluent de la Sarthe. L'Insee et la Poste lui attribuent le code 28. Géographie Le département d'Eure-et-Loir s’étend à l'ouest-sud-ouest de l’agglomération parisienne et comprend plusieurs plateaux : le Thymerais au nord-ouest, le Drouais au nord, et la Beauce qui s’étend sur l'est, et dont fait partie le Dunois au sud. Dans l’ouest du département, le relief s’élève et forme les collines du Perche, attenantes à la fois à la Normandie et aux Pays de la Loire. Le Faux Perche marque la transition entre la Beauce et le Perche. Le département a par ailleurs bénéficié de la création du parc naturel régional du Perche. Les principales rivières du département alimentent deux bassins versants. Celui de la Seine au nord avec son affluent l'Eure et ses sous-affluents Avre et la Blaise et celui de la Loire au sud avec son affluent le Loir et ses sous-affluents Ozanne, Conie et Yerre. La forêt, avec près (appartenant à 80 % au domaine privé et de forêts domaniales) est également présente, notamment dans le Nord-Ouest du département. Les forêts de Senonches () Dreux (), Châteauneuf () et de Montécot () abritent les massifs les plus importants. La vallée de l'Eure constitue également une trame verte et boisée qui contraste avec le plateau beauceron attenant. L'Eure-et-Loir est limitrophe des départements de Loir-et-Cher et du Loiret, qui font également partie de la région Centre-Val de Loire. Il jouxte la région Île-de-France avec les départements de l'Essonne et des Yvelines, la région Normandie avec les départements de l'Eure et de l'Orne et enfin la région des Pays de la Loire avec le département de la Sarthe. Géologie et relief Schématiquement, quatre « régions » partagent le département : le Perche, au sud-ouest ; le « Faux Perche », à sa marge ; à l'est et au sud, la Beauce, avec la « Beauce chartraine » autour de Chartres ; et au nord-ouest, on trouve le Drouais-Thymerais (autour de Dreux et de Châteauneuf-en-Thymerais). Le relief et la disposition des cours d'eau dans le Perche et en Beauce peuvent se déduire à partir d’une carte. La répartition des cours d'eau La répartition des cours d'eau est différente : il y en a plus au sud-ouest, dans le Perche, qu'en Beauce. S'il y a une petite différence de la pluviométrie, elle ne peut expliquer à elle seule cette disposition. Quoi qu'il en soit, on constate donc, que dans le Perche l'eau ruisselle en surface, et qu'en Beauce ce n'est pas le cas. Elle s'infiltre : cela est dû à une différence géologique au niveau des roches du sous-sol. Le sous-sol du Perche est plutôt fait de sable et de grès, avec de l'argile à silex, et le sous-sol de Beauce est, lui, plutôt constitué de calcaire. Le sous-sol du Perche Concernant la géologie du Perche, la structure actuelle serait en lien avec la formation des Alpes. Lors de cet événement, les roches sédimentaires se sont plissées et cela a formé un bourrelet (anticlinal) dans la région du Perche. En effet, comme les roches du Massif armoricain sont « rigides » (il s'agit surtout de granite), elles se sont comportées comme un « mur » contre lequel se sont bloquées les roches sédimentaires du Bassin parisien, donc du Perche. Le Perche se retrouve donc plus haut que la Beauce. D’autre part, les anciennes failles hercyniennes (ici du Massif armoricain) ont rejoué et permis l’affaissement du sommet du bourrelet. Ainsi, actuellement, la zone centrale est de l’argile à silex, et autour on trouve du sable ou du grès. La présence d'argile, de grès ou de sable permet somme toute à l'eau de ruisseler et de se rassembler en cours d’eau. La pluviosité est relativement importante (). Le sous-sol de la Beauce Dans le calcaire de Beauce, on trouve des fossiles, notamment, des planorbes et des limnées (des espèces d’eau douce – qui existent toujours -) : il y avait donc un lac en Beauce, c’est lui qui a permis la formation de ce calcaire. On trouve aussi de l’argile à silex, par décalcification du calcaire (qui n’était donc pas pur). Le calcaire s’est dissout, l’argile et les morceaux de silex sont restés. Ainsi, en Beauce, le calcaire se dissout facilement et permet à l’eau de ruissellement de s’infiltrer et il n'y a pas (ou peu) de rivières. De plus, la pluviosité est relativement faible (). Le relief Le relief est différent au sud-ouest, et au nord et nord-est : vallonné dans le sud-ouest, relativement plat au nord et au nord-est. D'une part, l'érosion (l'eau) a creusé des vallées dans le Sud-Ouest, donc des reliefs. Dans le Nord et le Nord-Est, l'eau a « ramolli » la roche et a donc permis que la surface soit plate : c'est du calcaire plus ou moins argileux (en fait, le calcaire est naturellement dissous par l'eau de ruissellement qui est enrichie par du dioxyde de carbone rejeté par les êtres vivants du sol, et à la fin, cela peut former des « trous » ou des « fissures », appelées diaclases). Ainsi, l'eau s'infiltre relativement rapidement en profondeur (sans vraiment ruisseler) pour rejoindre la nappe phréatique retenue par les couches plus profondes et imperméables. L'habitat en lien avec la géologie Les constructions anciennes montrent en général le contenu du sous-sol : en Beauce, les anciennes maisons sont en calcaire, dans le Perche, elles sont en torchis, en conglomérat appelé « grison » (morceaux de silex cimenté par du calcaire et de l'argile), en brique et en grès « roussard » (il est de couleur rousse, car assez riche en fer oxydé : la rouille). Ces constructions sont aussi en lien avec l'activité agricole. Dans le Perche Les fermes sont allongées (maison d’habitation que l’on agrandit avec le temps, lorsque les besoins s'en font sentir ou lorsqu'il y a suffisamment d'argent…) : on les appelle « longère » ; les champs sont délimités par des haies. Les animaux sont « parqués » par ces haies. En Beauce Les cours des fermes sont fermées, mais les champs sont ouverts (openfield). Cela permet de maintenir les animaux d’élevage dans la cour. L'évolution du paysage Il y a eu une diminution du nombre de parcelles (donc une modification du paysage), en Beauce et dans le Perche à la suite du remembrement entre le et 1980, pour accroître la surface et permettre l’utilisation du matériel agricole. Climat Le département présente un contraste climatique entre sa partie ouest et sud-ouest, humide et bocagère (qui fait partie du Perche) et sa partie sud et est, beauceronne, qui fait partie des régions les moins arrosées de France, avec le Haut-Languedoc. Histoire Le département a été créé à la Révolution française, le en application de la loi du , à partir, principalement, de parties des anciennes provinces de l'Orléanais (Beauce) et du Perche (partie Est), mais aussi de l'Île-de-France (Drouais, Thymerais, Vallée de l'Avre, Hurepoix). Au Moyen Âge, le territoire actuel du département est dominé par la ville de Chartres. La ville se développe grâce à la culture des riches terres de Beauce (marché au blé) et à sa vocation religieuse due notamment à la présence de la relique du Voile de la Vierge (don de Charles-le-Chauve en 876). Sur l'impulsion de Fulbert de Chartres, elle sera le berceau d'une renaissance intellectuelle avec la fondation de l'École de Chartres. Au nord, Dreux, la vallée de l'Avre et le Thimerais, de même que le comté du Perche à l'ouest, constituent des postes avancés des rois de France face aux ducs de Normandie. Les terres d'Eure-et-Loir, par leur intérêt stratégique, sont donc très tôt ancrées dans la mouvance capétienne et progressivement rattachées aux anciennes provinces de l'Orléanais et de l'Île-de-France. Durant la guerre de Cent Ans, le territoire du département est au centre de plusieurs conflits (dont la Journée des Harengs à Rouvray-Saint-Denis), en raison de sa proximité avec Paris et Orléans. Le traité de Brétigny, qui met fin provisoirement à la guerre, y sera signé près de Chartres. À la Renaissance, l'Eure-et-Loir devient également une région prisée par les rois François et Henri II avec la présence du château d'Anet, appartenant à une grande dame de la cour : Diane de Poitiers. Le département est également marqué par la présence de Madame de Maintenon, la marquise de Pompadour (Crécy-Couvé), Maximilien de Béthune, duc de Sully, décédé en son château de Villebon et inhumé à Nogent-le-Rotrou. À la Révolution, il est dans un premier temps envisagé de créer un département beauceron. La Beauce a en effet l'avantage de n'avoir jamais été une province sous l'Ancien Régime. Sa dimension essentiellement géographique et non politique s'inscrivait donc parfaitement dans l'idéologie révolutionnaire. Ce projet est mis en échec principalement par la volonté du roi de ne pas voir dispersées en un nombre trop important de départements ses possessions franciliennes. La création du département dans sa configuration actuelle tient également aux résistances des terres du Thimerais et du Drouais à se voir agrégées à celles de l'ancienne Normandie, et à l'impossibilité de conserver au Perche son unité, en partie pour des raisons politiques (ancien comté), et surtout à cause de l'absence d'une ville suffisamment importante pour se prévaloir du rang de chef-lieu de département. Chartres, avec entre autres le général Marceau, l'abbé Sieyès ou encore Brissot de Warville, chef de file des Girondins, donne plusieurs grands hommes à la Révolution. Au , le nord du département connaît une forte industrialisation, avec notamment l’imprimerie de Firmin Didot et les manufactures textiles des Waddington. Chartres conserve essentiellement sa vocation commerciale grâce à son important marché au blé et au commerce de la laine des nombreux élevages de moutons, dont la foire de Châteaudun est aussi un haut lieu. Le Perche qui s'est peu développé, et a connu une notable émigration vers le Québec les siècles précédents, devient une terre de nourrices réputées pour leur qualités maternelles auprès des familles aisées de Paris. Dreux devient également une ville industrielle, en particulier après la crise du phylloxéra qui met définitivement à bas les vignes normandes. Après le coup d'État du 2 décembre 1851 de Napoléon III, l'Eure-et-Loir fait partie des départements placés en état de siège afin de parer à tout soulèvement massif. Moins d'une centaine d'opposants sont arrêtés. Le département est durement touché par la guerre de 1870, avec la bataille de Loigny et l'incendie de Châteaudun par l'armée prussienne. Au , le département devient de plus en plus économiquement lié au développement de la région parisienne. Chartres et Dreux profitent pleinement de cette proximité avec l'implantation de plusieurs grandes entreprises (dont les futurs établissements Philips), pendant que la vallée de l'Eure qui les relie devient un lieu de villégiature avec la construction de nombreuses résidences secondaires. Des bases aériennes importantes s'installent à Chartres de 1909 à 1997 (base aérienne 122 Chartres-Champhol), ainsi qu'à Châteaudun de 1936 à 2014 (base aérienne 279 Châteaudun). Durant la Seconde Guerre mondiale, le département est marqué par son préfet Jean Moulin qui y fait son premier acte de Résistance face à l'occupant. La ville de Chartres est partiellement détruite en 1944 par un bombardement qui incendie sa bibliothèque. La ville de La Loupe est quant à elle presque totalement sinistrée. Après-guerre, l'est du département intègre progressivement l'aire urbaine de Paris, les cantons d'Anet, de Maintenon et de Nogent-le-Roi, voire d'Auneau, qui sont dès lors intimement liés à ceux du département des Yvelines limitrophes. En politique, le département est la terre d'élection et le berceau de plusieurs grandes figures des et républiques : William Henry Waddington (ministre de l’Instruction publique en 1873 et 1877), Maurice Viollette (ministre d'État sous le Front populaire), Paul Deschanel (président de la République en 1920), Maurice Bourgès-Maunoury (président du Conseil en 1957). Au tournant des années 1980, Dreux devient une ville politiquement singulière en élisant comme maire en 1977, puis députée en 1981, Françoise Gaspard, l'une des premières femmes politiques ayant assumé publiquement son homosexualité. En 1983, Dreux est le théâtre d'une alliance entre la droite locale et le Front national mené par Jean-Pierre Stirbois, dont la veuve Marie-France Stirbois est élue députée en 1989. Politique et administration Histoire politique du département Ce département fut dirigé entre 1907 et 1960 par le parti républicain, radical et radical socialiste (PRRRS), avec les présidences de Gustave Lhopiteau (1907-1920) et de Maurice Viollette (1920-1960) qui furent tous les deux ministres sous la République, le second le fut même sous le Front populaire. Le PRRRS, parti d'idéologie républicaine et laïque, se situait initialement à gauche de l'échiquier politique, mais glissa ensuite vers le centre lorsque se développa le socialisme. D'ailleurs c'est le parti socialiste qui prendra les rênes du Conseil général d'Eure-et-Loir en 1960, avec la présidence d'Émile Vivier qui durera jusqu'en 1976. 1976 est l'année du retour des radicaux à la tête du Conseil général, cependant ils apparaissent sous une forme différente : le parti radical de gauche, parti issu de la scission du PRRRS en 1972. Edmond Desouches puis Robert Huwart, occuperont successivement la présidence du Conseil général sous cette étiquette, et ce jusqu'en 1985. Les élections cantonales de 1985 sont marquées par le basculement à droite du Conseil général d'Eure-et-Loir, Martial Taugourdeau membre du RPR en devient le président, il occupera ce poste jusqu'à son décès en 2001. Après un cours intérim assuré par le sénateur, Gérard Cornu, Albéric de Montgolfier alors conseiller général du canton d'Orgères-en-Beauce et membre du RPR (qui deviendra en 2002 l'UMP, puis Les Républicains en 2015), devient président du Conseil général en 2001. Il sera continuellement réélu en 2004, 2008 et 2015. Au terme des élections départementales de 2015, il bénéficie d'une très large majorité comprenant 28 conseillers généraux sur 30, parmi lesquelles se trouvent 22 élus "Les Républicains", 3 élus UDI et 3 élus DVD. Le département d'Eure-et-Loir fut également connu pour la forte implantation qu'eut le Front National à partir des années 1980. Lors d'une élection municipale partielle à Dreux en 1983, le RPR et l'UDF s'allient avec le Front National pour faire basculer la mairie qui était à gauche depuis les élections municipales de 1977. Cela amène à l'élection du RPR Jean Hieaux qui administrera la ville en compagnie du Front National. Le Front National poursuivra sa progression avec l'élection de Marie-France Stirbois au poste de députée de la deuxième circonscription d'Eure-et-Loir, à l'occasion d'une élection législative partielle en 1989. Enfin Marie-France Stirbois obtiendra un autre mandat en devenant conseillère générale du canton de Dreux-Ouest entre 1995 et 2001. Cette même année marque la fin de l'implantation du parti dans le département, lorsque Marie-France Stirbois quitte le département pour les Alpes-Maritimes. La situation actuelle À droite Trois des quatre principales villes du département sont dirigées par des maires de droite : Chartres : Jean-Pierre Gorges, maire (UMP, puis sans étiquette) ; Dreux : Pierre-Frédéric Billet, maire (LR) ; D'autres villes de moindre importance sont dirigées par des maires de droite : Lèves : Rémi Martial, maire-conseiller départemental (LR) ; Anet : Aliette Le-Bihan, maire (LR) ; Un député sur quatre, Olivier Marleix, est membre de LR. Les trois sénateurs d'Eure-et-Loir, Albéric de Montgolfier, Chantal Deseyne et Daniel Guéret sont membres de Les Républicains. Au centre Les Centristes sont surtout présents dans le sud du département marqué par l'ancien président de la région Centre-Val de Loire et député, Maurice Dousset, dont l'un des héritiers est Philippe Vigier, député-maire de Cloyes-sur-le-Loir, conseiller régional et président du syndicat du Pays Dunois. Il compte également quatre conseillers généraux (Michel Boisard, Laurent Leclerc, Marc Guerrini et Dominique Leblond) et quatre présidents d'anciennes intercommunalités (communauté de communes de la Beauce de Janville, communauté de communes de la Beauce vovéenne, communauté de communes des Trois Rivières, communauté de communes de la Beauce alnéloise). Le Parti radical, ancien parti dirigeant le département entre 1885 et 1979, compte encore plusieurs élus municipaux : Philippe Masson, maire de Brou, des conseillers municipaux à Châteaudun et un maire honoraire à Gasville-Oisème. Le Mouvement démocrate compte un conseiller général, Jean-Pierre Gaboriau, également maire de Châteauneuf-en-Thymerais. Deux députés sur quatre sont classés au centre Guillaume Kasbarian de La République en marche et Laure de La Raudière du parti Agir À gauche Vernouillet : Damien STEPHO, maire ; Chateaudun : Fabien VERDIER DVG Nogent-le-Rotrou : Harold Huwart, maire (PRG) ; Mainvilliers : Michèle Bonthoux, maire (PS) ; Elle compte 2 conseillers départementaux sur 30 : Xavier Roux et Marie-Pierre Lemaître-Lezin, élus du canton de Lucé sous l'étiquette divers gauche. La gauche a longtemps détenu (1978-2002) la première circonscription du département dont Georges Lemoine était le député. Ancien maire de Chartres et ministre socialiste, il est membre depuis 2008 du Parti ouvrier indépendant au nom duquel il s'est présenté à l'élection législative partielle de septembre 2008 (14,51 % des suffrages) et aux élections cantonales de 2011 sur le canton de Mainvilliers. Depuis 2015, elle compte enfin 5 conseillers régionaux sur 12 dont Harold Huwart (PRG), vice-président, Estelle Cochard (EÉLV) et trois élus socialistes, Fabien Verdier, Michèle Bonthoux et Valentino Gambuto. Extrême droite Le Rassemblement national (RN) compte un conseiller régional (Philippe Loiseau), depuis les élections régionales de 2004. Le RN fait partie de l'opposition aux conseils municipaux de Dreux et Chartres. Tendances politiques et résultats Élections présidentielles, résultats des deuxièmes tours Élection présidentielle de 2017 : 60,27 % pour Emmanuel Macron (LaREM), 39,73 % pour Marine Le Pen (FN), 76,38 % de participation. Élection présidentielle de 2012 : 53,47 % pour Nicolas Sarkozy (UMP), 46,53 % pour François Hollande (PS), 81,25 % de participation. Élection présidentielle de 2007 : 58,16 % pour Nicolas Sarkozy (UMP), 41,84 % pour Ségolène Royal (PS), 87,74 % de participation. Élection présidentielle de 2002 : 79,26 % pour Jacques Chirac (RPR), 20,74 % pour Jean-Marie Le Pen (FN), 80,68 % de participation Élections législatives, résultats des deuxièmes tours Élections législatives de 2017 : 55,18 % pour Guillaume Kasbarian (LaREM), 44,82 % pour Franck Masselus (LR), 43,46 % de participation. : 59,38 % pour Olivier Marleix (LR), 40,62 % pour Claire Tassadit Houd (LaREM), 40,06 % de participation. : 56,10 % pour Laure de La Raudière (LR), 43,90 % pour François Huwart (PRG), 45,04 % de participation. : 70,38 % pour Philippe Vigier (UDI), 29,62 % pour Clémence Rouvier (LaREM), 47,19 % de participation. Élections législatives de 2012 : 50,80 % pour Jean-Pierre Gorges (UMP), 49,20 % pour David Lebon (PS), 59,94 % de participation. : 53,64 % pour Olivier Marleix (UMP), 46,36 % pour Gisèle BOULLAIS (PS), 54,46 % de participation. : 52,58 % pour Laure de La Raudière (UMP), 47,42 % pour François Huwart (PRG), 59,21 % de participation. : 50,72 % pour Philippe Vigier (NCE), 61,57 % de participation (élu au tour). Élections législatives de 2007 : 50,06 % pour Jean-Pierre Gorges (UMP), 49,94 % pour Françoise Vallet (PS), 57,67 % de participation. : 60,41 % pour Gérard Hamel (UMP), 39,59 % pour Birgitta Hessel (PS), 54,36 % de participation. : 53,32 % pour Laure de La Raudière (UMP), 46,88 % pour François Huwart (PRG), 58,78 % de participation. : 57,12 % pour Philippe Vigier (UMP), 22,61 % pour Serge Fauve (PS), 63,16 % de participation. Élections législatives de 2002 : 54,31 % pour Jean-Pierre Gorges (UMP), 45,69 % pour Georges Lemoine (PS), 61,26 % de participation. : 62,56 % pour Gérard Hamel (UMP), 37,44 % pour Birgitta Hessel (PS), 55,49 % de participation. circonscription : 53,08 % pour Patrick Hoguet (UMP), 46,92 % pour François Huwart (PRG), 59,98 % de participation. circonscription : 58,49 % pour Alain Venot (UMP), 41,51 % pour Marie-Hélène Aubert (Les Verts), 52,76 % de participation. Élections référendaires Référendum de 2005 relatif au traité établissant une Constitution pour l’Europe 57,43 % pour le Non, 42,57 % pour le Oui, 71,04 % de participation. Référendum de 1992 relatif à la ratification du traité sur l'Union Européenne 54,35 % pour le Non, 45,65 % pour le Oui, 73,89 % de participation. Élections régionales, résultats des deux meilleurs scores Élections régionales de 2015 : 39,72 % pour Philippe Vigier (Union de la Droite), 31,35 % pour Philippe Loiseau (Front National, 57,70 % de participation. Élections régionales de 2010 : 45,38 % pour François Bonneau (PS), 39,20 % pour Hervé Novelli (UMP), 49,87 % de participation. Élections régionales de 2004 : 46,12 % pour Michel Sapin (PS), 34,91 % pour Serge Vinçon (UMP), 63,21 % de participation Élections européennes, résultats des deux meilleurs scores Élections européennes de 2019 Élections européennes de 2014 Élections européennes de 2009 : 30,58 % pour Jean-Pierre Audy (UMP), 14,99 % pour Henri Weber (PS), 39,07 % de participation. Élections européennes de 2004 : 27,40 % pour Catherine Guy-Quint (PS), 18,21 % pour Brice Hortefeux (UMP), 42,49 % de participation. Population et société Démographie Les habitants d'Eure-et-Loir sont les Eurélien(ne)s. Au niveau national le département occupe le . L'évolution démographique du département, bien que positive, cache des contrastes importants selon les secteurs L'est du département, dans la zone d'influence directe de Paris, bénéficie depuis quelques années, de l'arrivée conséquente d'une nouvelle population poussée hors de l'Île-de-France par la pression immobilière et à la recherche d'une meilleure qualité de vie. Les agglomérations de Chartres et de Dreux, bien desservies en transports et en infrastructures, sont au cœur des bassins de vie les mieux pourvus. À l'ouest : le Perche et son cadre bucolique s'est revitalisé depuis la création du parc naturel régional en 1998 grâce à une population plus touristique et aisée, en quête d'une résidence secondaire Le centre et le sud du département connaissent une évolution moins favorable. Si la région de Courville-sur-Eure, reliée à Paris et Chartres par le rail et proche de l'autoroute A11 se maintient bien, les secteurs de Châteaudun et d'Illiers-Combray, mal desservis, subissent un solde démographique nul, voire négatif. Évolution démographique Communes les plus peuplées Résidences secondaires Selon le recensement général de la population du , 6,9 % des logements disponibles dans le département étaient des résidences secondaires. Ce tableau indique les principales communes d'Eure-et-Loir dont les résidences secondaires et occasionnelles dépassent 10 % des logements totaux. Source Insee,chiffres au . Enseignement Manifestations culturelles et festivités Parmi les festivals et événements culturels, peuvent être citées : Journées lyriques de Chartres et d'Eure-et-Loir, Rencontres Musiques électroacoustiques, Jazz de Mars, Festival du légendaire, Caravane des poètes, Festival Top In Humour et Festival de musiques actuelles L'Paille à Sons (Chartres), Festival du Thé Vert et Festival Percheval (Nogent-le-Rotrou), Hurluperku (Châteauneuf-en-Thymerais), Fête des livres de La Ferté-Vidame, Fête des Flambarts de Dreux, Foire aux laines de Châteaudun. Chartres en Lumières Sports Principaux clubs euréliens : Football masculin C'Chartres Football évoluant pour la saison 18/19 en National 2 groupe C FC Drouais évoluant pour la saison 18/19 en Régional 1 Olympic Club Châteaudun évoluant pour la saison 18/19 en Régional 1 Rugby masculin C'Chartres Rugby évoluant pour la saison 18/19 en Fédérale 2 poule 1 RCP (Rugby Club Percheron) Nogent-le-Rotrou évoluant pour la saison 18/19 en Honneur RC (Rugby Club) drouais évoluant pour la saison 18/19 en Honneur Basket-ball féminin C'Chartres Basket Féminin (ex-AB Chartres) évoluant pour la saison 18/19 en Ligue Féminine 2 masculin C'Chartres Basket Masculin évoluant pour la saison 18/19 en PRO B Handball féminin Dreux AC évoluant pour la saison 18/19 en Nationale 2 masculin C'Chartres Métropole Handball évoluant pour la saison 18/19 en Proligue CO (Club Omnisport) Vernouillet évoluant pour la saison 18/19 en Nationale 1 poule 2 Dreux AC évoluant pour la saison 18/19 en Nationale 2 poule 2 Volley-ball féminin Châteaudun VB évoluant pour la saison 18/19 en Nationale 3 poule E masculin Châteaudun VB évoluant pour la saison 18/19 en Nationale 3 poule E C'Chartres Volley évoluant pour la saison 18/19 en Nationale 3 poule E Tennis de table féminin Entente Pays Courvillois / Yèvres évoluant pour la saison 18/19 en Nationale 3 poule A masculin C'Chartres TT évoluant pour la saison 18/19 en Pro A Pays Courvillois Tennis de Table évoluant pour la saison 18/19 en Pré-Nationale poule B Tennis féminin C'Chartres Tennis évoluant pour l'année 2018 en Pré-National masculin C'Chartres Tennis évoluant pour l'année 2018 en Nationale 3 AC Dreux évoluant pour l'année 2018 en Nationale 4 Baseball masculin French Cubs de Chartres évoluant pour l'année 2019 en Division 2 Médias Quotidiens : L'Écho républicain (seul quotidien à diffusion départementale, groupe Centre-France). La République du Centre (groupe Centre-France, l'édition Orléans-Beauce ne couvre que les cantons d'Orgères-en-Beauce et Janville après la cessation de parution des éditions de Chartres, Dreux, Châteaudun et Nogent-le-Rotrou en mars 2011). Paris-Normandie (groupe Hersant Média, couvre partiellement les cantons Anet et de Brezolles). Hebdomadaires : L'Action républicaine (siège à Nogent-le-Rotrou, groupe Publihebdos). Le Perche (groupe Publihebdos). L'Écho de Brou. Horizon (journal agricole). Le Réveil normand (couvre les cantons de La Ferté-Vidame et Brezolles - groupe Publihebdos). Courrier du Loiret (couvre les cantons de Janville et Orgères-en-Beauce - groupe Centre-France). Mensuels : Le Mag' Dunois et Perche (magazine d'informations générales de l'arrondissement de Châteaudun). Radios locales : Intensité (Chartres et Châteaudun). Radio Trois Vallées (RTV) (Dreux). Radio Grand Ciel (membre de la FFRC). Sweet FM (émetteur à Nogent-le-Rotrou, siège à La Ferté-Bernard (72)). Evasion (Dreux). Économie L'Eure-et-Loir est un département de tradition agricole (Beauce) mais aussi en pointe dans trois filières économiques : Agriculture Le département est un acteur économique majeur dans la production de céréales et d'oléo-protéagineux en France. Son économie agricole est néanmoins très fortement dépendante de la conjoncture et de l'environnement réglementaire des marchés des grandes cultures. L'Eure-et-Loir est le premier céréalier français. Il occupe également le premier rang national pour la production de colza et de pois protéagineux. Le blé tendre est de loin la production emblématique du département. Ainsi, près de 40 % des surfaces agricoles du département sont consacrées à la culture du blé tendre, qui a généré en moyenne 29 % de la production agricole marchande du département au cours des cinq dernières années. L'agriculture du département est également promue par le Pôle AgroDynamic, une filière de valorisation des ressources agricoles du département mis en place dans différents secteurs : agroénergie, agroalimentaire, agromatériaux, agrosanté. Industries La Cosmetic valley (pôle de compétitivité), qui constitue le premier pôle français de l'industrie de la beauté et du bien-être (parfums/cosmétique), avec de grands noms comme Guerlain, Paco Rabanne, Lolita Lempicka, JC Castelbajac, Jean-Paul Gaultier… La représente d'euros de chiffres d'affaires, regroupe , travaille en collaboration avec les universités de Tours, d'Orléans et de Paris et emploie plus de . Un projet de petit aéroport sur l'ex-base aérienne 279 Châteaudun porté par l'élu local Fabien Verdier est à l'étude, qui aurait pour vocation de bénéficier aux entreprises du pôle. L'industrie pharmaceutique, autour de Dreux et Polepharma. Créé en 2002 sous l'impulsion du CODEL, PolePharma est un pôle de compétitivité français de production pharmaceutique qui regroupe les entreprises du secteur comme Ipsen, Novo Nordisk, Expanscience, Leo Pharma, Ethypharm, Famar, Norgine, Nypro, Synerlab/Sophartex, Seratec... Le pôle représente 50 % de la production de médicament en France et . Le Pôle Pharma est par ailleurs l'un des créateurs de l'alliance inter régionale qui regroupe en son sein trois réseaux partenaires : PolePharma, Technopole CBS et le Grepic. À elle seule, l'alliance regroupe 50 % de la production de médicament en France, 60 % des effectifs des sites de production implantés en France et d'euros de chiffre d'affaires. L'industrie agro-alimentaire, promue par Agrodynamic (pôle d'excellence rurale), avec deux entreprises importantes du secteur : Ebly à Châteaudun et une filiale Andros à Auneau. L'industrie et l'artisanat du bois et de l'ameublement autour de l'association Perchebois. L'industrie du caoutchouc et des matières plastiques, à travers le pôle de compétitivité Elastopole. L'industrie mécanique, avec l'équipementier ascenseur Octé à Châteauneuf-en-Thymerais. Énergies Le département est également en pointe en matière d'énergies renouvelables. Déjà classé au deuxième rang national en termes de production électrique grâce à ses parcs éoliens notamment situés dans la Beauce, l'Eure-et-Loir aurait été, dès 2012, le premier producteur d'électricité français d'origine photovoltaïque avec la création sur la base aérienne de l'OTAN désaffectée de Crucey-Villages, près de Brezolles dans la région naturelle du Thymerais, du plus grand parc photovoltaïque de France. Confié en février 2011 par le conseil général à l'opérateur EDF énergies nouvelles, le parc couvre 245 des de l'ancienne base militaire et a une puissance nominale de (équivalent à la consommation électrique de ou la production de ). Le nombre de panneaux installés est de . Tourisme Culture locale et patrimoine Lieux et monuments Théâtres : Chartres (Théâtre de Chartres - scène conventionnée, Théâtre du Seuil, Théâtre de Poche, Théâtre du Portail-Sud), Dreux, Châteaudun, Nogent-le-Rotrou. Salles de spectacles et de concert : Théâtre de Chartres, Vernouillet (Atelier à spectacles), Lucé (Centre culturel Edmond Desouches), Lèves (Espace Soutine), Épernon (Les Prairiales), Chartres (Salle Ravenne), Châteaudun (Espace Malraux), Nogent-le-Rotrou, Luisant (Salle André Malraux), Anet (Dianetum). Musées : Chartres (Musée des Beaux-Arts, Centre international du vitrail, Maison Picassiette), Mainvilliers (Le Compa), Châteaudun (Musée des Beaux-Arts et d'histoire naturelle), Dreux (Musée d'Art et d'Histoire), Épernon (Conservatoire des meules et pavés), Illiers-Combray (Musée Marcel Proust), Nogent-le-Rotrou (Musée du château Saint-Jean), Loigny-la-Bataille (Musée de la Guerre de 1870), Charpont (Petit musée de peinture), Unverre (musée-école), Pont-sous-Gallardon (Musée ateliers des pionniers et Vélorails Du Pays Chartrain). Écomusées, maisons thématiques : Maison de la Beauce à Orgères-en-Beauce, Écomusée des vignerons et des artisans drouais, Écomusée de la vallée de l'Aigre à La Ferté-Villeneuil. Cinémas : Chartres, Dreux, Châteaudun, Nogent-le-Rotrou, Senonches, Anet. Art contemporain : Ateliers Gabriel Loire (Lèves), Arts itinérance (expositions en plusieurs lieux du département), l'ARTsenal (Dreux). Monuments historiques : église Saint-Pierre et cathédrale de Chartres (patrimoine mondial - UNESCO), château d'Anet, château de Châteaudun, château de Maintenon, château de La Ferté-Vidame, château Saint-Jean de Nogent-le-Rotrou, maison Picassiette à Chartres, église Saint-Pierre et chapelle royale de Dreux, abbaye de la Sainte-Trinité de Thiron-Gardais, château de Villebon, tombeau du duc de Sully à Nogent-le-Rotrou, aqueduc du canal de l'Eure, château de Crécy-Couvé, abbaye Saint-Florentin de Bonneval, château de Maillebois, château de Frazé, Forges de Dampierre-sur-Blévy, église de Meslay-le-Grenet (fresques), beffroi de Dreux, celliers du Pressoirs d'Épernon, Pavillon de chasse d'Abondant, Château de Montigny-le-Gannelon, Chapelle Notre-Dame d'Yron à Cloyes-sur-le-Loir (fresques), château de Montigny-sur-Avre, maison de Tante Léonie à Illiers-Combray, chapelle de Reveillon à La Ferté-Vidame (peintures), château des Vaux à Saint-Maurice-Saint-Germain et Pontgouin, château de Villeprévost à Tillay-le-Péneux, abbaye du Bois de Nottonville, moulins à vent de Beauce, château de Moléans, château de Courtalain, château du Bois-Ruffin à Arrou, château de Bouthonvilliers à Dangeau. Personnalités reliées à l'Eure-et-Loir Antiquité Tasgetios, prince des Carnutes de 57 à 54 av. J.-C. Cotuatos et Conconnetodumnos, instigateurs et meneurs de l'insurrection des Carnutes contre les Romains en 53 av. J.-C. Gutuater, druide carnute, désigné comme le responsable de l'insurrection de 52 av. J.-C. et exécuté par Jules César Moyen Âge Hasting, chef viking qui fut comte de Chartres (882-892) Hugues Capet (mort en Eure-et-Loir près de Voves) Seigneurs du Puiset Fulbert de Chartres (évêque fondateur de l'École de Chartres) Amaury de Chartres, né vers 1150 à Bennes, petit village entre Ollé et Chauffours à l'ouest de Chartres. Jean de Salisbury (1115-1180), élève d'Abélard et de Fulbert de Chartres. Intellectuel anglais, ami de Thomas Becket. Évêque de Chartres de 1176 à 1180. Bernard de Tiron, fondateur de l'ordre monastique de Tiron et de l'abbaye de Thiron-Gardais. Philippe de Valois, roi de France, décédé à Coulombs, près de Nogent-le-Roi Jean II de France, qui signa pendant la guerre de Cent Ans un traité à Brétigny Jean de Dunois (1402-1468), compagnon d'armes de Jeanne d'Arc Foucher de Chartres (ou Foulques), aumônier de Baudouin premier roi de Jérusalem. Il a écrit l'histoire de ce qui s'est passé de 1095 à 1117. Il avait suivi en Terre Sainte Étienne comte de Chartres et de Blois ainsi que le duc de Normandie. Il les quitta pour s'attacher à Baudouin qu'il accompagna dans sa conquête de la principauté d'Edesse. Originaire d'une des plus anciennes familles de Chartres, il fut fait en 1123 gouverneur du royaume de Jérusalem pendant la captivité de Baudouin qui en était roi. Il partit avec Saint-Louis et devint son chancelier en l'an 1248 pour la septième croisade. Il mourut lors de ce voyage après la prise de Damiette. Renaissance Rémy Belleau (1526-1577) : poète de la Pléiade Duc d'Épernon, mignon d'Henri III. Henri IV (sacré en la cathédrale de Chartres) Maximilien de Béthune, duc de Sully (mort au château de Villebon, repose à Nogent-le-Rotrou) Jeanne de France, née à Nogent-le-Roi, épouse de Louis XII, canonisée par le pape Pie XII en 1950. Diane de Poitiers (château d'Anet) Mathurin Régnier (1573-1613) : poète Philippe Desportes (1543-1606) : poète Époque moderne Jean de Rotrou (1609-1650), dramaturge et poète drouais Ducs de Saint-Simon (propriétaires du château de la Ferté-Vidame) Julien Fleury (né à Montainville 1647 - Paris 1725) philologue et poète Nicolas Chaperon (né en 1612 à Châteaudun) peintre dessinateur et graveur Madame de Maintenon (épouse de Louis XIV) Jacques Lenfant (1661-1728) pasteur protestant et historien allemand Madame de Pompadour (favorite de Louis XV, propriétaire du château de Crécy-Couvé) Philippe de Courcillon de Dangeau, militaire, diplomate et mémorialiste né au château de Dangeau. François-André Danican Philidor (né le à Dreux – mort le à Londres) compositeur et joueur d'échecs français. Michel-Philippe Bouvart (1707-1787) docteur régent de la faculté de médecine de Paris, membre de l'Académie des sciences et ancien professeur au collège royal de France né à Chartres le et mort à Paris. François Doublet docteur régent et ancien professeur de la faculté de médecine de Paris, associé ordinaire de la Société royale de médecine, sous inspecteur des hôpitaux civils et des maisons de force né à Chartres le . Il fit imprimer en 1781 un mémoire sur la fièvre puerpérale. Il meurt à Paris le 18 prairial an IV. Jean Dussaulx né à Chartres le , écrivain (La passion du jeu depuis les temps anciens jusqu'à nos jours), traducteur de Juvénal et membre de l'assemblée constituante et législative. Mort à Paris. Charles-Pierre Colardeau, poète né à Janville en 1735 et mort en 1776 à Paris après son entrée à l'Académie française. Gérard Du Doyer de Gastels poète et dramaturge né au château de Voventriers près de Chartres le et mort à Paris en 1798. Léonor Jean Christine Soulas d'Allainval, auteur dramatique, né à Chartres en 1700, mort à Paris en 1753 Révolution française (par ordre alphabétique) Jacques Pierre Brissot, né à Chartres, chef de file des Girondins ; Claude François Chauveau-Lagarde, né à Chartres, avocat, défenseur de Marie-Antoinette et de Charlotte Corday ; Jean-François Delacroix, anetais et député d'Eure-et-Loir, membre du Comité de salut public sous la Convention, il proposa et fit voter l'abolition de l'esclavage ; François Séverin Marceau, général de la Révolution ; Jérôme Pétion de Villeneuve, né à Chartres, homme politique (maire de Paris, membre de la Convention) et essayiste ; Emmanuel-Joseph Sieyès, nommé vicaire général de Chartres en 1787, il y rédigera « Qu'est-ce que le tiers état ? » (1789). Arts et lettres (par ordre alphabétique) Noël Ballay, poète, né à Fontenay-sur-Eure en 1847, a vécu à Chartres et a eu droit à des funérailles nationales le dans la cathédrale de Chartres. Philippe Beaussant, musicologue et nouvelliste, membre de l'Académie française, qui vit au Mesnil-Thomas. Jean Bertholle, peintre, membre de l'Académie des beaux-arts qui vécut à Saint-Lucien. Madeleine Castaing, décoratrice de renommée internationale, qui habita à Lèves. Philarète Chasles, homme de lettres et journaliste né à Mainvilliers en 1798. Charles-Pierre Colardeau, poète, membre de l'Académie française, né à Janville. Bernard Friot, enseignant et écrivain, auteur de livres pour la jeunesse, né à Saint-Piat. Anna Gavalda, femme de lettres, qui a grandi (1974-1980) à Nogent-le-Roi. Ivry Gitlis, violoniste israélien, qui vit en Eure-et-Loir. Pierre-Jules Hetzel, écrivain et éditeur (Balzac, Jules Verne, George Sand...) né à Chartres. Pascal Lainé, écrivain, prix Goncourt, né à Anet. Septime Le Pippre, peintre, aquarelliste, militaire et agriculteur au château de Morville, maire de Hanches Gilles Leroy, écrivain, prix Goncourt 2007, qui vit près de La Ferté-Vidame à Boissy-lès-Perche. Gabriel Loire, maître verrier lévois. Diane de Margerie, femme de lettres, membre du jury du prix Fémina, qui habite Chartres et a consacré l'un de ses ouvrages à la cathédrale. Noël Parfait, né à Chartres en 1813, journaliste, auteur des philippiques, pamphlets contre Louis-Philippe, duc de Chartres. Charles Péguy, qui écrivit sur la Beauce et la cathédrale de Chartres. Marcel Proust (qui s'inspira du village de sa tante Léonie, Illiers-Combray où il passa une partie de son enfance). Jacqueline de Romilly, philologue française, membre de l'Académie française, née à Chartres. Rhoda Scott, organiste et chanteuse de jazz qui habite dans le Perche d'Eure-et-Loir. Chaïm Soutine (peintre), qui séjourna à Lèves chez Madeleine Castaing. Bertrand Visage, écrivain, prix Fémina 1984, né à Châteaudun. Maurice de Vlaminck, peintre cubiste et fauve qui habita et mourut à Rueil-la-Gadelière. Émile Zola, qui s'inspira de Romilly-sur-Aigre pour son roman La Terre. Haim Epstein, peintre, ayant vécu à Épernon à partir de 1938 jusqu'à son arrestation et sa déportation. Sciences Michel Chasles, mathématicien né à Épernon. Gustave Le Bon, né à Nogent-le-Rotrou, anthropologue, précurseur de la psychologie sociale, sociologue. Henri Ey, psychiatre, ancien médecin chef de l'hôpital de Bonneval. Henri Hureau de Senarmont, physicien et minéralogiste. Religion Jeanne de France (Sainte), née le à Nogent-le-Roi, morte le à Bourges, est la seconde fille de Louis XI et de Charlotte de Savoie. Fondatrice de l'ordre monastique de l'Annonciade. Antoine Godeau, né à Dreux le et mort à Vence le , est un homme de lettres et évêque français. François de Montmorency-Laval (Saint), né le à Montigny-sur-Avre et mort le à Québec (Canada), premier évêque de Québec. François Lamy, né le à Montireau et mort le à Saint-Denis, moine bénédictin de la Congrégation de Saint-Maur, théologien et auteur spirituel français. Louis-Édouard Pie ( - ) né à Pontgouin, cardinal de l'Église catholique, évêque de Poitiers. Franz Stock, (1904-1948) prêtre allemand, aumônier dans les prisons parisiennes durant la Seconde Guerre mondiale (il assiste les condamnés à mort) puis supérieur du « séminaire des barbelés » du Coudray. Armées Michel Joseph Maunoury, maréchal de France, né à Maintenon Alexandre-Antoine Hureau de Senarmont, baron d'Empire et général d'artillerie enterré à Dreux Alexandre-François de Senarmont, héros de Valmy et général enterré à Dreux Louis Emmanuel Rey, général de division, enterré à Bazoches-les-Hautes Louis-Gaston de Sonis, général, héros de la bataille de Loigny, enterré à Loigny-la-Bataille Athanase de Charette de la Contrie, général, héros de la bataille de Loigny, enterré à Loigny-la-Bataille Sports Louis Blériot, qui réalisa le premier vol entre deux villes à Toury. Hélène Boucher (pionnière de l'aviation) chartraine. Géo Lefèvre (1887-1961), chartrain, journaliste, penseur et créateur du Tour de France cycliste Charles Brennus, maître-graveur et président d'honneur de la Fédération française de rugby (1921), il est le créateur du Bouclier de Brennus, la récompense suprême du Championnat de France de rugby. Il est né à Châteaudun en 1859. Jean Gallet (1916-1989), né à Allonnes, athlète et député d'Eure-et-Loir. Un stade et un complexe sportif portent son nom, respectivement à Chartres et Voves. Jacky Lemée, footballeur né à Epernon. Jean Todt, qui réside au Gué de Longroi. Philippe Quintais, né à Chartres, douze fois champion du monde de pétanque. Francis Joyon, né à Hanches, navigateur recordman du tour du monde à la voile. Patrick Vieira (footballeur originaire de Dreux). Daniel Fernandes, judoka né à Nogent-le-Rotrou, vice-champion du monde en 2003 (poids légers). Terry Bouhraoua, né à Châteaudun le , jeune joueur de rugby à XV et de rugby à 7 prometteur, évoluant actuellement au Stade français CASG Paris au poste de demi de mêlée. Nicolas Escudé, joueur de tennis professionnel né à Chartres. Kalifa Cissé, footballeur international né à Dreux. Julien Escudé, footballeur international né à Chartres. Romain Feillu, coureur cycliste professionnel est né à Châteaudun le . Il a été vice-champion du monde espoirs à Salzbourg en 2006 et porteur du maillot jaune en 2008. Anthony Gonçalves, footballeur né à Chartres. Jérémy Stinat, footballeur né à Chartres. Catherine Maunoury, championne du monde de voltige aérienne en 1988, habite à Chartres. Adrien Trebel, footballeur né à Dreux. Culture, arts décoratifs, spectacle, cinéma et médias Madeleine Castaing, antiquaire et décoratrice, mécène, qui a vécu à Lèves. Françoise Rosay, actrice française, inhumée au cimetière de Sorel-Moussel Thérésa, née à La Bazoche-Gouet, chanteuse de cabaret surnommée . Charles Denner, acteur de théâtre et de cinéma, est mort le 10 septembre 1995 à Dreux. Robert Massin, typographe, figure majeure du graphisme en France, né à La Bourdinière-Saint-Loup Gabriel Gabrio, acteur français, décédé à Berchères-sur-Vesgre. Stéphane Grappelli, un des plus grands violonistes de jazz du , qui vécut de nombreuses années à Fontaine-la-Guyon. Jean Delannoy, cinéaste français, qui vécut et mourut à Guainville. Jacqueline Maillan, qui vécut à Anet de 1960 à 1992. Georges Cravenne, créateur des Césars, qui vécut à Charpont. Patrick Pesnot, journaliste français, vécut à Bleury dont le maire et conseiller général fut son épouse Catherine jusqu'en 2004. Jean-Marc Providence (muséographe, fondateur du Compa, du Pass (Belgique), commissaire du Pavillon français à l'exposition universelle d'Aichi) Jean-Pierre Coffe, qui réside à Alluyes. Ève Ruggieri, journaliste, écrivain, directrice artistique des Journées lyriques de Chartres et d'Eure-et-Loir Arlette Chabot, journaliste née à Chartres Mireille Dumas, animatrice de télévision née à Chartres Lolita Lempicka, créatrice de mode et de parfum, qui réside à Berchères-sur-Vesgre. Muriel Montossey, actrice française et professeur de théâtre vivant à Dreux Catherine Corsini, réalisatrice, scénariste et actrice née à Dreux Cécile de Ménibus, animatrice de télévision née à Chartres Dominique Chapatte, journaliste sportif vivant à Gallardon Alain Genestar, journaliste, rédacteur de L'Écho républicain de 1980 à 1987 Bertrand Gallet, député d'Eure-et-Loir, prix Albert-Londres en 1985 Jean Mainbourg - photographe de personnalités, né à Bernay le 28 novembre 1927 Garcimore, illusioniste et humoriste, vécut et mourut au Gué de Longroi Politique Louis-Philippe , duc de Chartres, et certains de ses ascendants et descendants reposent dans la chapelle royale de Dreux. François-André Isambert (avocat) (1792-1857), élu député d'Eure-et-Loir en 1830 et représentant de l'Eure-et-Loir à l'Assemblée constituante de 1848, cofondateur de la Société française pour l'abolition de l'esclavage. Charles Delescluze, né à Dreux, journaliste en membre important de la Commune de Paris. William Henry Waddington, ministre de l'Instruction publique, né à Saint-Rémy-sur-Avre. Maurice Viollette, élu d'Eure-et-Loir, maire de Dreux de 1908 à 1959. Paul Deschanel, président de la République, élu d'Eure-et-Loir. Jean Moulin, préfet d'Eure-et-Loir. Charles Brune, ministre des PTT et de l'Intérieur sous la République, élu d'Eure-et-Loir. Maurice Bourgès-Maunoury, président du Conseil sous la République. Pierre July, résistant et homme politique français, député d'Eure-et-Loir. Maurice Dousset, député d'Eure-et-Loir, président de la région Centre de 1985 à 1998. Georges Lemoine, homme politique, ancien ministre. Françoise Gaspard, sociologue, écrivain, féministe et femme politique française, ancienne députée-maire de Dreux. Marie-France Stirbois, députée d'Eure-et-Loir. Henri d'Orléans, « comte de Paris », qui mourut en 1999 à Cherisy. Yves Bonnet, préfet, directeur de la DST, actuel député de la Manche né à Chartres. François Huwart, ancien ministre. Pascal Ory, historien, homme politique. Michel Rousseau, économiste, président de la Fondation Concorde, ancien maire de Gallardon, maire de Saint-Denis-des-Puits. Laurent Beauvais, né à Nogent-le-Rotrou, président du conseil régional de Basse-Normandie depuis avril 2008. Entreprises Firmin Didot, typographe et imprimeur installé à Sorel-Moussel Thomas Waddington et son fils Richard Waddington, manufacturiers dans l'industrie du coton à Saint-Rémy-sur-Avre et Saint-Lubin-des-Joncherets. Ferdinand Hédiard, né à La Loupe, fondateur de la célèbre épicerie. Adrien Philippe, né à La Bazoche-Gouet, l'un des fondateurs de l'entreprise suisse d'horlogerie Patek Philippe. Jean Daninos, fondateur des automobiles Facel Vega Jean-Paul Guerlain, président fondateur de la Cosmetic valley Marc Blondel, ancien secrétaire général de Force ouvrière, qui réside à Oysonville. Colette Neuville, chartraine, présidente-fondatrice de l'Association de défense des actionnaires minoritaires Guillaume Pépy qui a des attaches familiales à Saulnières. Thierry Morin, né à Dreux, ancien PD-G de Valeo, président du conseil d'administration de l'Institut national de la propriété industrielle Notes et références Notes Références Voir aussi Bibliographie Merlet, Dictionnaire topographique du département d'Eure-et-Loir, Impr. impériale, 1861 Revue Population et Avenir - Numéro hors série consacré à l'Eure-et-Loir (2002) Articles connexes Liens externes Conseil départemental d'Eure-et-Loir Préfecture d'Eure-et-Loir , en partenariat avec le diocèse de Chartres, fondée en 1997 par le père Daniel Rambure
1007
https://fr.wikipedia.org/wiki/Espace%20de%20Hilbert
Espace de Hilbert
En mathématiques, un espace de Hilbert est un espace vectoriel réel (resp. complexe) muni d'un produit scalaire euclidien (resp. hermitien), qui permet de mesurer des longueurs et des angles et de définir une orthogonalité. De plus, un espace de Hilbert est complet, ce qui permet d'y appliquer des techniques d'analyse. Ces espaces doivent leur nom au mathématicien allemand David Hilbert. Le concept d'espace de Hilbert étend les méthodes de l'algèbre linéaire en généralisant les notions d'espace euclidien (comme le plan euclidien ou l'espace usuel de dimension 3) et d'espace hermitien à des espaces de dimension quelconque (finie ou infinie). Des espaces de Hilbert apparaissent fréquemment en mathématiques et en physique, essentiellement en tant qu'espaces fonctionnels de dimension infinie. Les premiers espaces de Hilbert ont été étudiés sous cet aspect pendant la première décennie du par David Hilbert, Erhard Schmidt et Frigyes Riesz. Ils sont des outils indispensables dans les théories des équations aux dérivées partielles, mécanique quantique, analyse de Fourier (ce qui inclut des applications au traitement du signal et le transfert thermique) et la théorie ergodique qui forme le fondement mathématique de la thermodynamique. John von Neumann forgea l'expression espace de Hilbert pour désigner le concept abstrait qui sous-tend nombre de ces applications. Les succès des méthodes apportées par les espaces de Hilbert menèrent à une époque très prolifique pour l'analyse fonctionnelle. En plus des espaces euclidiens classiques, les exemples les plus courants d'espaces de Hilbert sont les espaces de fonctions de carré intégrable, les espaces de Sobolev qui sont constitués de fonctions généralisées, et les espaces de Hardy de fonctions holomorphes. L'intuition géométrique intervient dans de nombreux aspects de la théorie des espaces de Hilbert. Ces espaces possèdent des théorèmes analogues au théorème de Pythagore et à la règle du parallélogramme. En mathématiques appliquées, les projections orthogonales sur un sous-espace (ce qui correspond à aplatir l'espace de quelques dimensions) jouent un rôle important dans des problèmes d'optimisation entre autres aspects de la théorie. Un élément d'un espace de Hilbert peut être défini de manière unique par ses coordonnées relativement à une base de Hilbert, de façon analogue aux coordonnées cartésiennes dans une base orthonormale du plan. Quand cet ensemble d'axes est dénombrable, l'espace de Hilbert peut être vu comme un ensemble de suites de carré sommable. Les opérateurs linéaires sur un espace de Hilbert sont semblables à des objets concrets : dans les « bons » cas, ce sont simplement des transformations qui étirent l'espace suivant différents coefficients dans des directions deux à deux perpendiculaires, en un sens qui est précisé par l'étude de leur spectre. Définition et exemples Exemple introductif : l'espace euclidien de dimension 3 Un des exemples les plus courants d'espace de Hilbert est l'espace euclidien de dimension 3, noté ℝ, muni du produit scalaire usuel. Le produit scalaire associe, à deux vecteurs et un nombre réel noté . Si et ont pour coordonnées cartésiennes respectives et , alors leur produit scalaire est : Le produit scalaire satisfait aux propriétés suivantes : il est symétrique : pour tous vecteurs et , ; il est linéaire par rapport au premier argument : pour tous nombres réels et et tous vecteurs , on a l'égalité ; il est défini positif : pour tout vecteur , le produit est positif, et nul si et seulement si est égal au vecteur nul. Le produit scalaire est intimement relié avec la géométrie euclidienne par la formule suivante, qui relie le produit scalaire de deux vecteurs et avec leurs normes (notées respectivement et ) et l'angle qu'ils forment : Toute opération sur les vecteurs qui vérifie les trois propriétés ci-dessus est également appelée produit scalaire. Un espace vectoriel muni d'un produit scalaire est dit espace préhilbertien réel. Un espace de Hilbert est un espace préhilbertien qui possède de plus une propriété d'analyse mathématique : il est complet, argument reposant sur les limites de suites de vecteurs dans cet espace. Définition Un espace de Hilbert est un espace préhilbertien complet, c'est-à-dire un espace de Banach dont la norme ║·║ découle d'un produit scalaire ou hermitien 〈·, ·〉 par la formule C'est la généralisation en dimension quelconque (finie ou infinie) d'un espace euclidien ou hermitien. Exemples L'espace euclidien ℝ muni du produit scalaire usuel. L'espace hermitien ℂ muni du produit hermitien usuel. L'espace des fonctions de [a, b] à valeurs dans ℂ et de carré intégrable avec la convention que deux fonctions égales presque partout sont égales (voir l'article espace ), muni de L'espace de suites ℓ, constitué des suites de nombres complexes telles quele produit hermitien de deux suites et étant par définition la somme de la série Classification Dans un espace de Hilbert de dimension infinie, le concept habituel de base est remplacé par celui de base hilbertienne (ou base de Hilbert) qui permet, non plus de décrire un vecteur par ses coordonnées, mais de l'approcher par une suite infinie de vecteurs ayant chacun des coordonnées finies. On est donc au confluent de l'algèbre linéaire et de la topologie. Deux espaces de Hilbert admettant des bases hilbertiennes équipotentes sont isométriquement isomorphes, autrement dit : tout espace de Hilbert de base hilbertienne X est isomorphe à ℓ(X). Par exemple : tout espace de Hilbert séparable (et de dimension infinie) est isomorphe à ℓ(ℕ) = ℓ. Le théorème de Riesz-Fischer peut également être vu comme un cas particulier de ce résultat. Réciproquement, deux bases hilbertiennes d'un même espace de Hilbert ont même cardinalité. Ce nombre cardinal, appelé la dimension hilbertienne de l'espace, le caractérise donc à isomorphisme près et joue ainsi le même rôle que la dimension dans la catégorie des espaces vectoriels sur un corps fixé. Un espace de Hilbert est de dimension finie si et seulement si sa dimension hilbertienne est finie, et dans ce cas, ces deux entiers sont égaux. Théorème de Fréchet-von Neumann-Jordan Un espace de Banach (respectivement espace vectoriel normé) est un espace de Hilbert (respectivement espace préhilbertien) si et seulement si sa norme vérifie l'égalité , qui signifie que la somme des carrés des quatre côtés d'un parallélogramme est égale à la somme des carrés de ses diagonales (règle du parallélogramme). Ce théorème est dû à Maurice René Fréchet, John von Neumann et Pascual Jordan. Identité de polarisation : dans le cas réel, le produit scalaire est défini par ; dans le cas complexe, le produit hermitien sesquilinéaire à droite est défini par, oùet est l'unité imaginaire (le nombre complexe identifié au couple de réels (0, 1)). Applications C'est dans le cadre des espaces de Hilbert qu'est développée la théorie de la formulation variationnelle, utilisée dans de nombreux domaines de la physique. En mécanique quantique, l'état d'un système est représenté par un vecteur dans un espace de Hilbert. Références Annexes Articles connexes Théorème de représentation de Riesz Théorème de projection sur un convexe fermé dans un espace de Hilbert Théorème de Lax-Milgram Théorème de Stampacchia Espace de Sobolev Mesure secondaire Transformation d'Aluthge Convergence faible dans un espace de Hilbert Lien externe Cours d'analyse — Jacques Harthong Espace de Hilbert
1008
https://fr.wikipedia.org/wiki/Essonne%20%28d%C3%A9partement%29
Essonne (département)
Le département de lEssonne ( ) est un département français situé au sud de Paris, dans la région Île-de-France, pour partie intégré à l'agglomération parisienne, qui tire son nom de la rivière Essonne dont le cours traverse le territoire selon un axe sud-nord jusqu’à la confluence avec la Seine. Officiellement créé le par démembrement de l'ancienne Seine-et-Oise, il porte le code Insee et et couvre un territoire de occupé en par . Son chef-lieu est Évry-Courcouronnes (Évry jusque fin 2018). Ses habitants sont appelés les Essonniens. Géographie Situation Le département de l’Essonne est situé dans la région Île-de-France, il est pour 40 % de son territoire intégré à l’agglomération parisienne et géologiquement implanté dans le bassin parisien. Quatre régions naturelles occupent le territoire, délimitées par les cours d’eau. Sur les deux tiers nord-ouest du département, à l’ouest de la rivière l’Essonne et au nord de la Louette se trouve le Hurepoix, au sud-ouest, délimité par la Louette et l’Essonne s’étendent les larges plaines de la Beauce, à l’extrême sud-est, approximativement dans la vallée de l’École se trouve le Gâtinais français et au nord-est, sur la rive droite de la Seine commence le plateau de la Brie. Ce territoire fertile est aujourd’hui encore fortement disparate, avec une urbanisation relativement dense au centre-nord dans la pénéplaine de l’Orge, la Seine et l’Essonne, la présence conjointe de bourgs, de culture maraîchère et d’espaces boisés protégés dans les vallées, de vastes espaces de grande culture céréalières sur les plateaux de l’ouest et du sud où se trouvent des villages ruraux. En 2003, ce sont ainsi près de 78 % du territoire qui étaient encore considérés comme ruraux. Plusieurs cours d’eau arrosent le département, le fleuve la Seine forme une boucle de l’est au nord, complétée par ses affluents l’Yerres sur la rive droite, sur la rive gauche du sud au nord, l’École, l’Essonne, l’Orge et la Bièvre et les sous-affluents le Réveillon qui se jette dans l’Yerres, la Juine, grossie par la Louette et la Chalouette, qui se jettent dans l’Essonne, la Renarde, la Rémarde, alimentée par la Prédecelle, la Salmouille et l’Yvette, alimentée par la Mérantaise, le Vaularon et le Rouillon se jettent toutes dans l’Orge. Ces rivières et ruisseaux ont creusé le sous-sol sédimentaire du territoire, caractéristique du bassin parisien et composé principalement de sable, de marne et de calcaire, par endroits complété par de l’argile, du gypse et de la craie ou compacté pour former de la meulière. Le terrain s’étage ainsi en un vaste plateau sur la moitié ouest, descendant en pente douce vers la pénéplaine de la Seine au nord-est et entrecoupé de vallées plus ou moins encaissées. Le point culminant du département est ainsi situé à cent soixante-dix-huit mètres à Pecqueuse tandis que le point le plus bas, en bord de Seine est positionné à trente-et-un mètres à Vigneux-sur-Seine. Le point le plus bas est d’ailleurs situé à la frontière avec le département limitrophe nord et nord-est du Val-de-Marne, tandis que le plateau ouest s’étend des Hauts-de-Seine au nord-ouest à l’Eure-et-Loir au sud-ouest en passant par les Yvelines à l’ouest. Au Sud, la Beauce occupe une large part du nord du Loiret, complétée par le Gâtinais qui s’étend aussi au Sud-Est en Seine-et-Marne. À l’Est, la Brie constitue le paysage typique de cette même Seine-et-Marne. Aujourd’hui, les communes extrême-cardinales sont Bièvres au Nord, Varennes-Jarcy à l’Est, Angerville au Sud et Chatignonville à l’Ouest. Le centre géographique du département est situé dans la commune de Lardy en lisière du bois des Célestins (). Outre la préfecture Évry-Courcouronnes et les chefs-lieux Corbeil-Essonnes, Étampes et Palaiseau, plusieurs cités apparaissent comme caractéristiques du département par leurs importance historique, culturelle, économique et administrative, soit Arpajon, Dourdan, La Ferté-Alais, Milly-la-Forêt et Montlhéry. Elles sont, encore aujourd’hui, reliées au maillage d’infrastructures de transport qui parcourt le département, constitué par les routes nationales 118 au nord-ouest, 20 au centre, 7 à l’est, 6 au nord-est et 104 d’ouest en est, l’autoroute A10 du nord au sud-ouest et A6 du nord au sud-est, le Réseau express régional d'Île-de-France avec les lignes B au nord-ouest, C au centre et D à l’est, les lignes d’autobus et l’aéroport de Paris-Orly implanté au nord du département. Hydrographie Le département de l’Essonne est traversé par de nombreux cours d'eau d’importances et de tailles diverses. En premier, le fleuve la Seine passe au nord-est du territoire, elle entre par l’est au Coudray-Montceaux et parcourt vingt-quatre kilomètres jusqu’à Vigneux-sur-Seine. Plusieurs de ses affluents parcourent le département, sur la rive droite, l’Yerres parcourt dix-sept kilomètres en Essonne entre Quincy-sous-Sénart et Crosne avant la confluence située dans le département du Val-de-Marne à Villeneuve-Saint-Georges. Sur la rive gauche, l’École fait un court passage au sud-est entre Oncy-sur-École et Soisy-sur-École, la confluence étant située en Seine-et-Marne à Saint-Fargeau-Ponthierry, l’Essonne entre par le sud du département à Boigneville et rejoint le cours du fleuve à Corbeil-Essonnes après un parcours de quarante-quatre kilomètres, l’Orge démarre son tracé essonnien à Dourdan jusqu’à se jeter dans la Seine à Viry-Châtillon et Athis-Mons sur quarante-et-un kilomètres, la Bièvre fait une petite incursion à l’extrême nord-ouest entre Bièvres et Verrières-le-Buisson. Plusieurs sous-affluents du fleuve sont ensuite répartis sur le territoire. Rejoignant la Bièvre à l’extrême nord, la Sygrie coule depuis le plateau de Vélizy, grossissant la Bièvre par sa rive gauche, au nord-ouest l’Yvette alimentée par la Mérantaise, le Vaularon et le Rouillon trace la vallée de Chevreuse, à l’ouest la Salmouille et la Rémarde alimentée par la Prédecelle descendent du plateau de Limours, sur la rive droite la Renarde descend de la Beauce. Au sud, rejoignant l’Essonne par sa rive gauche coule la Juine, alimentée par la Louette et la Chalouette. À l’extrême nord-est coule enfin le Réveillon qui se jette dans l’Yerres à Yerres. Plusieurs lacs et étendues d’eau, naturels ou artificiels, sont aussi répartis sur le territoire. En bord de Seine se trouvent le lac de Viry-Châtillon, le lac de Draveil et le lac de Vigneux-sur-Seine. Assurant la régulation et la retenue des eaux, le lac de Saulx-les-Chartreux et les étangs de Saclay constituent aujourd’hui des espaces protégés. Le lac de Vert-le-Petit, le lac de Tigery, l’étang de la Veyssière, l’étang de Trévoix et la fosse Montalbot caractérisent eux aussi le patrimoine hydrique du département. Enfin, le département est traversé du Sud au Nord par l’aqueduc de la Vanne et du Loing qui est chargé, par son prolongement formé par les aqueducs d'Arcueil et de Cachan et le réservoir de Montsouris, d’alimenter Paris en eau potable. Dans l’Essonne, il démarre son parcours entièrement souterrain à Soisy-sur-École (), traverse les communes de Champcueil, Chevannes, Mennecy, Ormoy, Villabé, Lisses, Courcouronnes, Ris-Orangis, Grigny, Viry-Châtillon, Savigny-sur-Orge et Paray-Vieille-Poste où il quitte le territoire départemental en passant sous l’aéroport de Paris-Orly (). Relief et géologie Le département de l’Essonne occupe un territoire orienté en pente relativement douce de la Beauce au sud-ouest vers la vallée de la Seine au nord-est. Le point culminant du département se trouve à l’ouest sur le territoire de Pecqueuse à cent soixante-dix-huit mètres d’altitude au lieu-dit Chaumusson à proximité de l’ancienne ligne Paris - Chartres par Gallardon (). Le point le plus bas est lui situé à trente-et-un mètres d’altitude à Vigneux-sur-Seine à proximité de la station d’épuration en bord de Seine (). La moitié sud du département est occupée par le large plateau de la Beauce, creusé par les vallées de l’Essonne et l’École à l’est, de la Juine au centre et de l’Orge au nord-ouest. Le nord-ouest du département alterne plateaux et vallées encaissées avec du sud au nord, le plateau de Limours, la petite vallée de la Salmouille, le plateau de Courtabœuf, la vallée encaissée de l’Yvette, le plateau de Saclay, la vallée encaissée de la Bièvre (affluent de la Seine) et enfin les contreforts du plateau de Villacoublay. Le nord-est du département est occupé par la pénéplaine de la Seine, de l’Essonne et de l’Orge, au relief relativement peu marqué jusqu’au lit du fleuve. Sur la rive droite commence le plateau de la Brie, traversé par la vallée peu profonde de l’Yerres. Géologiquement intégré au bassin parisien, le sous-sol est relativement homogène sur l’ensemble du territoire avec quelques variations entre le sud et le nord-est. Au sud-est le sous-sol est constitué de couches successives de sable de Fontainebleau et de calcaire. Au nord-ouest et à l’est, le calcaire est remplacé par de la marne et dans les vallées de l’Yvette et de la Bièvre, le sable compacté forme des blocs de meulière. Au centre du territoire, le gypse se mêle au calcaire et la marne. Dans les vallées de l’Essonne et de l’Orge s’ajoutent une couche d’argile à silex, et à l’extrême est du territoire, dans le Gâtinais, en profondeur une couche de craie. Au nord-est de la Seine, le plateau briard est composé de couches successives de marne, de sable et de calcaire. Départements limitrophes Le département de l’Essonne est une portion de l’ancienne Seine-et-Oise, comme ses départements limitrophes que sont les Yvelines à l’ouest, les Hauts-de-Seine au nord-ouest et le Val-de-Marne au nord et nord-est. À l’est et au sud-est se trouve le plus vaste département de la région Île-de-France, la Seine-et-Marne. Au sud et au sud-ouest, se trouvent le Loiret et l’Eure-et-Loir qui appartiennent tous deux à la région Centre-Val de Loire. Climat Le climat de l’Essonne est mesuré à partir de la station météorologique départementale de Brétigny-sur-Orge (), approximativement centrale sur le territoire et implantée à soixante-dix huit mètres d’altitude dans un secteur représentatif géographiquement. Cependant, des variations relativement importantes sont mesurables à partir de stations situées à proximité dans les départements limitrophes, comme à Orly et Vélizy-Villacoublay au nord, Melun à l’est, Trappes et Chartres à l’ouest, Orléans au sud. Le département de l’Essonne, situé en Île-de-France et dans le bassin parisien, se caractérise par un climat océanique dégradé, principalement sous l’influence des régimes d’ouest - sud-ouest, aux hivers frais et aux étés doux. Cela se traduit par une fréquence élevée des pluies, environ cent soixante jours par an. Mais paradoxalement l’Essonne figure parmi les départements les plus « secs » de France, le mot sec étant relatif aux quantités de pluie reçue avec seulement par an à la station météorologique départementale de Brétigny-sur-Orge contre à Nice ou à Toulouse. Les précipitations sont cependant bien réparties tout au long de l’année, toutefois l’été connaît des précipitations surtout sous forme d’averses orageuses brèves mais intenses. L’ensoleillement est pour sa part conforme aux moyennes relevées au nord de la Loire avec un cumul de par an, un ensoleillement maximum en juillet et minimum en décembre. Les températures sont typiques des plaines du bassin parisien avec des moyennes en janvier entre et , en juillet entre et à Brétigny-sur-Orge. La température moyenne annuelle est fixée à avec une moyenne haute à et une moyenne basse à , le mois le plus chaud est juillet avec une moyenne haute mensuelle fixée à et le mois le plus froid, janvier avec une moyenne basse à . L’influence du climat continental entraîne cependant des écarts parfois importants et des records de température élevés avec relevés le et très bas à le . À noter que les températures minimales sont systématiquement plus élevées d’un à deux degrés celsius dans le nord du département du fait de la densité urbaine plus forte. Transports Le département dispose d’un maillage important d’axes de transport d’envergure nationale, des routes en partie héritées des voies romaines et de l’ancien régime, des voies ferrées majeures et un aéroport international. Transport aérien Implanté pour 60 % de sa superficie à l’extrême nord du département, l'aéroport de Paris-Orly constitue une plaque tournante importante du transport aérien. Deuxième aéroport de France avec un trafic d'environ et en 2015. Il est complété, dans l'Essonne par l'aérodrome d'Étampes - Mondésir, l'aérodrome de La Ferté-Alais et l'aérodrome de Buno-Bonnevaux. La base aérienne 217 de Brétigny-sur-Orge a été dissoute le 26 juin 2012. Transport fluvial Malgré la présence de la Seine à l’est du département, le transport fluvial est relativement peu développé avec la seule présence du port d'Évry, installation de quatre hectares gérée par le port autonome de Paris, qui a permis le traitement en 2001 de tonnes de marchandises et qui devrait voir sa capacité augmenter par l’adjonction d’un terminal à conteneurs. Il est complété un peu en amont par les installations des grands moulins de Corbeil dont le nouveau terminal inauguré en 1995 est adapté aux convois fluviaux et par des installations d’entreprises privées à Viry-Châtillon, Grigny et Athis-Mons. En 2008, le trafic fluvial dans les ports du département s’est élevé à tonnes. Transport routier L’Essonne est traversée du nord au sud par six axes routiers majeurs. Implantés d’ouest en est, on trouve la route nationale 118 de Bièvres aux Ulis qui mènent à la porte de Saint-Cloud, l’autoroute A86 qui fait une courte incursion à Verrières-le-Buisson, l’autoroute A10 de Wissous à Dourdan vers l’ouest, la route nationale 20 de Massy à Angerville vers le sud-ouest, l’autoroute A6 de Wissous à Soisy-sur-École vers le sud-est, l’ancienne route nationale 7 de Paray-Vieille-Poste au Coudray-Montceaux vers le sud, la route nationale 6 de Crosne à Tigery, la route nationale 337 au Coudray-Montceaux et la route nationale 449 à Ris-Orangis. Assurant la liaison entre ces axes et la ceinture de la région, la route nationale 104 traverse le département d’ouest en est entre Marcoussis et Tigery. Le département totalise ainsi en 2009 cinquante-huit kilomètres d’autoroute, deux cent vingt-cinq kilomètres de route nationale et mille cent quatre-vingt-onze kilomètres de route départementale. L’entretien des axes nationaux est réalisé par la DIR Ile-de-France et les routes départementales par 3 unité territoriale de déplacement de l’Essonne, à Lisses, Linas et Étampes. Complétant ce maillage, plusieurs réseaux d’autobus de la RATP et des transporteurs membres de l'Optile relient les agglomérations. Transport ferroviaire Suivant pour la plupart ces axes routiers, des voies ferrées furent ajoutées. Le département est ainsi parcouru, selon leur implantation d’ouest en est, par l’ancienne ligne de Sceaux utilisée par la ligne B du RER d'Île-de-France de Verrières-le-Buisson à Gif-sur-Yvette, la ligne de Paris-Montparnasse à Monts (LGV) de Verrières-le-Buisson à Saint-Cyr-sous-Dourdan, la ligne de la grande ceinture de Paris entre Bièvres et Athis-Mons, la ligne de Paris-Austerlitz à Bordeaux-Saint-Jean d’Athis-Mons à Angerville et la ligne de Brétigny à La Membrolle-sur-Choisille de Brétigny-sur-Orge à Dourdan aujourd’hui toutes trois utilisées par la ligne C du RER d'Île-de-France, la ligne de Villeneuve-Saint-Georges à Montargis entre Vigneux-sur-Seine et Boigneville, la ligne de Grigny à Corbeil-Essonnes entre Grigny et Corbeil-Essonnes, la ligne de Corbeil-Essonnes à Montereau entre Corbeil-Essonnes et Le Coudray-Montceaux et la ligne de Paris-Lyon à Marseille-Saint-Charles entre Montgeron et Boussy-Saint-Antoine empruntées par la ligne D du RER d'Île-de-France. Au total, ce sont soixante-treize gares qui sont réparties sur les trois lignes de transports en commun. Les TGV desservent les gares de Massy TGV et Massy - Palaiseau. Transports en commun Lignes de RER desservant le département : Ligne , communes de Gif-sur-Yvette, Bures-sur-Yvette, Orsay, Palaiseau, Villebon-sur-Yvette, Massy, Verrières-le-Buisson Ligne , communes d'Étampes, Étréchy, Chamarande, Lardy, Marolles-en-Hurepoix, Dourdan, Sermaise, Sant-Chéron, Breuillet, Égly, Arpajon, La Norville, Brétigny-sur-Orge, Saint-Michel-sur-Orge, Sainte-Geneviève-des-Bois, Épinay-sur-Orge, Savigny-sur-Orge, Longjumeau, Chilly-Mazarin, Igny, Bièvres, Juvisy-sur-Orge et Athis-Mons Ligne , communes de Boigneville, Buno-Bonnevaux, Maisse, Boutigny-sur-Essonne, Montgeron, Crosne, La Ferté-Alais, Ballancourt-sur-Essonne, Mennecy, Brunoy, Boussy-Saint-Antoine, Épinay-sous-Sénart, Quincy-sous-Sénart, Yerres, Villabé, Coudray-Montceaux, Corbeil-Essonnes, Évry-Courcouronnes, Ris-Orangis, Grigny, Viry-Châtillon, Juvisy-sur-Orge et Vigneux-sur-Seine Lignes de tramway desservant le département : Ligne , communes de Paray-Vieille-Poste et Athis-Mons Autres moyens de transport : Ligne , communes de Corbeil-Essonnes, Saint-Germain-lès-Corbeil et de Saint-Pierre-du-Perray Dans le futur, le département sera desservi par : Des nouvelles stations métropolitaines : Prolongement de la ligne (1 station), commune de Paray-Vieille-Poste Ligne (), communes de Saclay, Saint-Aubin, Orsay, Gif-sur-Yvette, Massy, Palaiseau et Paray-Vieille-Poste (mise en place en 2027) Des nouvelles stations de Tramway : Prolongement de la ligne , communes d'Athis-Mons et Juvisy-sur-Orge Ligne , communes de Massy, Palaiseau, Champlan, Longjumeau, Chilly-Mazarin, Épinay-sur-Orge, Morsang-sur-Orge, Viry-Châtillon, Grigny, Ris-Orangis et Évry-Courcouronnes (mise en place en 2022) De nouveaux moyens de transport : Ligne , communes de Corbeil-Essonnes, Évry-Courcouronnes, Ris-Orangis, Grigny et Viry-Châtillon (mise en place en 2020) Énergie Quatre réseaux d’oléoducs traversent le département totalisant cent soixante-cinq kilomètres, dont le Donges-Grandpuits-Metz exploité par la Société française Donges-Metz avec quatre dépôts à Guigneville-sur-Essonne, D'Huison-Longueville, Cerny et Orveau et Le Havre-Grandpuits et son jumeau PLIF exploités par la Trapil et l’oléoduc reliant la station de pompage d’Itteville à la raffinerie de Grandpuits. Plusieurs gazoducs du réseau haute pression de GRTgaz sillonnent le territoire et un spécial géré par Air liquide relie l’usine Altis Semiconductor de Corbeil-Essonnes au centre de production de Moissy-Cramayel. À Villejust se trouve le centre de transformation électrique le plus important de France chargé de transformer le volts provenant des centrales électriques de la Loire en volts à destination des répartiteurs d’Issy-les-Moulineaux et Chevilly-Larue et en volts pour la consommation locale. Il est en outre relié à la ligne à très haute tension « boucle » de RTE qui entoure l’Île-de-France et traverse le département d’ouest en est. Toponymie L’appellation de la rivière l’Essonne tire ses origines du nom de la déesse gauloise des rivières, Acionna, vénérée dans l’Orléanais où le cours d’eau prend sa source. À la création du département en 1964, il fut décidé qu’il prendrait le nom de la rivière qui parcourt son territoire du sud au nord jusqu’à la confluence avec la Seine à Corbeil-Essonnes. Ce même nom se retrouvait aussi dans le toponyme de l’ancienne commune d’Essonnes et comme extension de plusieurs communes du département : Ballancourt-sur-Essonne, Boutigny-sur-Essonne, Courdimanche-sur-Essonne, Gironville-sur-Essonne, Guigneville-sur-Essonne, Prunay-sur-Essonne et Vayres-sur-Essonne. Histoire Avant l’Essonne Le territoire de l’actuel département de l’Essonne fut occupé de façon certaine dès le Néolithique, comme en témoignent les découvertes en divers points du département de silex taillés et l’élévation de menhirs comme dans la forêt de Sénart à Brunoy. À l’époque gauloise, le territoire était à la frontière entre les domaines des Parisii au nord, des Carnutes au sud-ouest et des Sénons au sud-est. Des premières villes commencèrent alors à se démarquer, dont Dourdan, réputée pour son activité de poterie. L’invasion romaine permit l’édification d’une multitude de villa rustica sur les plateaux dominant les riches vallées, comme en témoignent les résultats de fouilles archéologiques à Orsay. D’autres villages se transformèrent en oppidum à la croisée des routes, tel Arpajon. Milly-la-Forêt devint par la volonté de Dryus un centre druidique au , la région de Dourdan subissant l’autorité du roi païen Dordanus au . Au s’acheva l’évangélisation du territoire, avec l’édification en 600 d’une première église à Corbeil-Essonnes et le développement à Palaiseau d’une abbaye sous l’impulsion de sainte Bathilde et saint Wandrille. En l’an 604 se déroula la première bataille d’Étampes entre Clotaire II, roi de Neustrie et Thierry II, roi de Bourgogne allié de Thibert II, roi d’Austrasie. À partir du , la plupart du territoire était intégré au domaine royal français, les rois disposant des lieux et distribuant les terres à leurs vassaux. Commença alors au l’édification de châteaux forts contrôlant les routes commerciales, comme à Montlhéry, ou pour arrêter les raids vikings à Corbeil-Essonnes et La Ferté-Alais. À partir du , la basilique Notre-Dame-de-Bonne-Garde à Longpont-sur-Orge devint la première étape du pèlerinage de Saint-Jacques-de-Compostelle depuis Paris. Les révoltes des nobles locaux entraînèrent l’intégration complète du territoire dans le domaine royal, Robert II de France construisant le château d'Étampes, démantelant le château de Montlhéry au et réduisant à néant la puissante famille de Montlhéry, Philippe II de France construisant le château de Dourdan au . En 1131 se déroula le concile d’Étampes qui se prononça en faveur du futur pape Innocent II. En 1258 fut scellé le traité de Corbeil, fixant les limites territoriales entre le royaume de France et le royaume d'Aragon. Le domaine d’Étampes fut érigé en comté en 1298, créant alors la lignée des comtes puis ducs d’Étampes. De cette époque se fixèrent les deux composantes principales de l’économie locale, l’agriculture pour alimenter la capitale et l’industrie utilisant la force motrice des nombreux cours d’eau. Au , les Grands moulins de Corbeil devinrent « moulins du Roi ». À partir du s’installèrent dans la région d’importantes commanderies templières à Étampes, Longjumeau, Chalou-Moulineux, Auvernaux, organisant de vastes domaines agricoles prospères. En 1305 fut signé le traité d'Athis-sur-Orge qui intégrait au royaume de France les villes de Lille, Douai et Béthune. En 1326 intervint le second traité de Corbeil, renouvelant l’Auld Alliance. En 1346, Philippe VI de France signa l’ordonnance de Brunoy, considérée comme le premier acte juridique en français ayant trait au développement durable. Survint alors la guerre de Cent Ans, causant des ravages et des massacres sur le territoire, comme l’incendie en 1360 de l’église Saint-Clément d’Arpajon par les troupes d’Édouard III d'Angleterre, brûlant vifs huit cents habitants. En 1371, ce fut au tour de Milly-la-Forêt d’être ravagée par le « prince noir » Édouard de Woodstock. Entre 1353 et 1355, Paris frappé par la peste noire utilisa les coches des bateliers de Corbeil, les corbeillards pour évacuer les cadavres, donnant ainsi naissance au mot corbillard. En 1465 eu lieu la bataille de Montlhéry entre et Charles le Téméraire. Le début de la Renaissance vit le développement commercial de la région, avec l’édification de halles à Milly-la-Forêt au puis Dourdan, Arpajon et Méréville au . Dans le même temps, la fixation du pouvoir royal à Paris puis Versailles, deux villes proches et les apanages que constituaient les villes de Dourdan et Étampes, offertes en présents aux favorites Anne de Pisseleu et Gabrielle d'Estrées, entraînèrent l’établissement de châteaux, construits par les courtisans et les magistrats parisiens. En 1568 fut signée la Paix de Longjumeau, concluant la deuxième guerre de religion. En 1590, lors du siège de Paris, ce fut encore Corbeil, prise par Alexandre Farnèse qui permit le ravitaillement de Paris, bloqué par les troupes d’Henri de France. En 1628, la ville d’Essonnes fut ravagée par un incendie, provoqué par une nouvelle explosion du moulin à poudre. En 1652, en pleine Fronde, la seconde bataille d’Étampes mena à la victoire de Turenne qui avait stationné ses troupes à Arpajon. Le vit la région s’équiper de plusieurs hôtels-Dieu à Milly-la-Forêt, Dourdan et Arpajon, de relais de poste sur les routes de Fontainebleau et Orléans. Il s’acheva par la Révolution française, modifiant relativement peu le quotidien des habitants. Un fait-divers marqua cependant cette période troublée, l’assassinat à Étampes du maire Jacques Guillaume Simoneau, entraînant la création par l’Assemblée législative d’une « Fête de la Loi » sur tout le territoire. Relativement peu touché par les conflits en dehors de l’occupation prussienne en 1870, le territoire profita du pour bénéficier d’une modernisation importante, avec la création de plusieurs lignes de chemin de fer, la ligne de Sceaux en 1854, la ligne Brétigny - Tours en 1867, la ligne de la grande ceinture en 1882, plusieurs villages devenant alors un lieu de villégiature pour les riches bourgeois parisiens et les artistes. L’ouverture de la ligne de tramway de l’Arpajonnais en 1894 permit une nouvelle montée en puissance des débouchés agricoles de la région, offrant un accès direct et rapide aux halles de Paris. L’industrie lourde fit aussi son apparition avec l’ouverture des usines Decauville à Évry-Petit-Bourg et des papeteries Darblay à Essonnes, faisant entrer cette riche famille essonnienne dans le cercle des « deux cents familles ». Le début du vit une nouvelle révolution pour le département, qui devint un des berceau de l’aviation, Viry-Châtillon accueillant en 1909 le premier aéroport organisé du monde à Port-Aviation, en 1910 Louis Blériot et Maurice Farman ouvraient des écoles sur l’aérodrome d'Étampes - Mondésir, Brétigny-sur-Orge disposait dès 1938 de la base aérienne 217, lieu de nombreux records. Autre site emblématique de la course à la vitesse, l’autodrome de Linas-Montlhéry créé en 1924 resta le lieu des plus célèbres courses automobiles jusque dans les années 1960. Relativement épargné par les deux conflits mondiaux, malgré la présence du camp de concentration de Linas-Montlhéry construit en 1940 par les nazis pour l’enfermement des Tsiganes, le futur département connu dès les années 1950 une forte poussée démographique, touché comme ces voisins par l’édification de bidonvilles aux portes de Paris, situation plus tard aggravée par la nécessité d’héberger les nombreux rapatriés d’Algérie venus s’installer dans la région. Ces bouleversements démographiques allaient entraîner le redécoupage administratif. Création et organisation d’un nouveau département Au milieu des années 1960, la région Île-de-France était le théâtre de tractations politiques importantes. Le pouvoir central de la jeune Cinquième République, représenté par le président le général de Gaulle et le Premier ministre Michel Debré, décida de la réorganisation de la région capitale. Ainsi, la loi du 10 juillet 1964 portant réorganisation de la région parisienne prévoyait de supprimer les départements de Seine-et-Oise et de la Seine pour en créer sept nouveaux, dont le département de l’Essonne comprenant la presque totalité de l’arrondissement de Corbeil, l’arrondissement de Palaiseau et une partie de l’ancien arrondissement de Rambouillet. Le , le décret fixait le chef-lieu du département à Évry-Petit-Bourg, précédemment officieusement installé à Corbeil-Essonnes. Le , un nouveau décret 66-339 prévoyait le découpage administratif du département avec la création de l’arrondissement d'Évry en remplacement de celui de Corbeil-Essonnes (cette commune conservant cependant son statut de sous-préfecture) et modifiait les limites de l’arrondissement de Palaiseau. Le même jour, le décret créait l’arrondissement d'Étampes. Le , le décret portait création officielle des vingt-sept cantons du département : Arpajon, Athis-Mons, Bièvres, Brétigny-sur-Orge, Brunoy, Corbeil-Essonnes, Dourdan, Étampes, Étréchy, Évry, Juvisy-sur-Orge, La Ferté-Alais, Limours, Longjumeau, Massy, Mennecy, Méréville, Milly-la-Forêt, Montgeron, Montlhéry, Orsay, Palaiseau, Ris-Orangis, Saint-Chéron, Sainte-Geneviève-des-Bois, Savigny-sur-Orge et Viry-Châtillon. Le , le décret fixait à la date du l’entrée en vigueur de la loi du 10 juillet 1964, prévoyant effectivement la création du nouveau département, dont le territoire faisait partie jusqu'ici de celui de la Seine-et-Oise. Ainsi, le département de l’Essonne fut officiellement créé le janvier 1968, les élus du nouveau conseil général désignés lors des élections de 1967 entraient en fonction à cette date. Il fallut cependant attendre 1969 pour l’entrée en fonction du préfet Michel Aurillac. Le un décret détacha les communes de Châteaufort et Toussus-le-Noble qui sont rattachées au département voisin des Yvelines. Le , un décret actait la fusion des communes d’Angerville et Dommerville, cette dernière quitte alors le département d’Eure-et-Loir pour intégrer l’Essonne. Le intervient un redécoupage administratif, le décret portant le nombre de cantons à trente-cinq en ajoutant les cantons de Chilly-Mazarin, Draveil, Gif-sur-Yvette, Morsang-sur-Orge, Saint-Germain-lès-Corbeil, Saint-Michel-sur-Orge, Vigneux-sur-Seine, Villebon-sur-Yvette et Yerres et en supprimant le canton de Juvisy-sur-Orge. Le , le préfet de l’Essonne Paul Cousserand signait l’arrêté portant création d’une nouvelle commune, Les Ulis. Le , un nouveau décret modifiait encore les limites administratives en portant le nombre de cantons du département à quarante-deux par l’ajout des cantons de Corbeil-Essonnes-Est, Épinay-sous-Sénart, Évry-Nord, Grigny, Juvisy-sur-Orge, Massy-Est et Les Ulis. En parallèle de cette mise en place administrative, les autorités religieuses décidèrent de suivre le mouvement en créant le , à partir du vaste diocèse de Versailles, le nouveau diocèse de Corbeil-Essonnes. La collégiale Saint-Spire de Corbeil-Essonnes fut alors élevée au rang de cathédrale, avant l’édification à partir de 1991 de la nouvelle cathédrale de la Résurrection à Évry, conformément au changement de nom intervenu en 1988. Développement de l’Essonne Depuis la création du département, sa morphologie s’est considérablement modifiée, créant deux paysages radicalement différents entre le Nord urbanisé et le Sud rural du territoire. L’explosion démographique entraînant une forte demande de logements, a entraîné comme ailleurs dans la région de grands travaux et la construction de grands ensembles, certains villages devenant en dix ans des grandes villes. Cas typique, Grigny qui ne comptait que en 1962 en comptait plus de en 1975, en grande partie logés dans la nouvelle cité d’habitat social de La Grande Borne. Le chef-lieu du département, Évry connut la même évolution sur une période plus longue, passant de en 1962 à plus de en 2006. Cette dernière fut, en même temps que se forgeait le nouveau territoire, intégrée dès 1965 au grand programme de Paul Delouvrier qui ambitionnait d’y construire une ville nouvelle, menant à la création en 1969 de l’établissement public d’aménagement de la ville d’Évry. Cette ville nouvelle dépassait largement les limites de la petite commune d’Évry-Petit-Bourg puisqu’elle englobait aussi Bondoufle, Courcouronnes et Lisses avec l’objectif d’accroître le pôle urbain que constituait déjà Corbeil-Essonnes, où s’était élevée la vaste cité des Tarterêts. De fait, presque toutes les villes moyennes, quasiment chaque chef-lieu de canton ou leurs périphéries, virent leurs territoires lotis, par des barres d’immeubles, des tours ou des pavillons individuels. Palaiseau, Étampes, Massy, Longjumeau, Sainte-Geneviève-des-Bois, Vigneux-sur-Seine, Épinay-sous-Sénart, Athis-Mons, Saint-Michel-sur-Orge, Brétigny-sur-Orge devinrent des villes de banlieue typiques. Autre exemple de cette course à la construction, Les Ulis, commune créée en 1977 sur les champs de blé du plateau de Courtabœuf, atteint plus de en 1982. Cette nouvelle concentration de résidents entraîna de nouveaux besoins, permettant le développement d’une nouvelle société de consommation avec l’ouverture en 1963 du premier hypermarché de France sous l’enseigne Carrefour à Sainte-Geneviève-des-Bois, puis la création des centres commerciaux, Ulis 2 en 1973, Évry 2 en 1975, La Croix-Blanche dans les années 1980, Villebon 2 en 1988, Villabé A6 en 1992. Les besoins en transports en commun entraînèrent la création entre 1962 et 1979 du réseau express régional d'Île-de-France avec l’ouverture dans le département de la ligne B en 1977, la ligne C en 1979 et la ligne D en 1987, le percement de nouvelles voies rapides, dont l’autoroute A6 ouverte en 1960 depuis Paris jusqu’au Coudray-Montceaux, l’autoroute A10 ouverte progressivement entre 1960 et 1973 depuis Wissous et la route nationale 104 aménagée dans les années 1980. L’aéroport de Paris-Orly, dont l’aérogare Sud fut inaugurée en 1961 marquait l’avènement de la modernité, mais il fut cependant vite à l’étroit, à cause de l’urbanisation rapide de ses abords, entraînant dès 1968 la première décision d’instaurer un couvre-feu de 23h00 à 6h00. De façon concomitante, de nombreuses institutions et entreprises s’implantèrent dans le département. La création en 1960 du parc d'activités de Courtabœuf permit l’arrivée d’entreprises de renom comme Hewlett-Packard qui y ouvrit son centre de recherche européen en 1968, imitée en 1983 par Microsoft. Sur le plateau de Saclay voisin, l’implantation en 1975 de l’école supérieure d'électricité et en 1976 de l’École polytechnique renforçait l’importance prise par le secteur depuis l’ouverture en 1971 de l’université Paris-Sud 11 à Orsay et complétait le commissariat à l'énergie atomique ouvert en 1952. L’est du département suivit plus tard le même développement, porté par la ville nouvelle, avec l’implantation en 1972 du centre national d'études spatiales, en 1979 de l’école Télécom SudParis (ex-Télécom INT) et Télécom École de Management (ex-INT Management), en 1980 du groupement Arianespace, l’ouverture en 1991 de l’université d'Évry-Val d'Essonne et en 1998 la création du Genopole. En 2006, l’inauguration à Saint-Aubin du Synchrotron soleil marquait la poursuite du programme de développement économique et scientifique du département. Des équipements structurants de niveau départemental furent bientôt développés, le théâtre de l’Agora d’Évry ouvert en 1975, l'île de loisirs d'Étampes en 1977, l’opéra de Massy en 1993, Le Grand Dôme en 1994 à l’occasion des jeux de la Francophonie. La décision de créer en 2006 l’opération d'intérêt national de Massy Palaiseau Saclay Versailles Saint-Quentin-en-Yvelines, couvrant presque un quart du nord-ouest du département sur vingt-sept communes relance aujourd’hui les perspectives de développement économique et d’aménagement du territoire, et débouche sur le projet de cluster technologique Paris-Saclay. En 2009, la réorganisation des services de l'État entraîna la suppression de la sous-préfecture de Corbeil-Essonnes. En 2019, le Conseil départemental de l'Essonne a lancé le projet d'un franchissement de la Seine au niveau d'Athis-Mons et de Vigneux. En 2020, l'École normale supérieure Paris-Saclay, établissement-composante de l'université Paris-Saclay, s'installe à Paris-Saclay et inaugure son nouveau théâtre. Démographie Évolution démographique Depuis la création du département le , sa population a crû rapidement, passant de lors du premier recensement de 1968 à en 1975, puis a connu une croissance moins rapide, pour atteindre en 1982 et pour ne dépasser le million qu'en 1990. Le ralentissement de la croissance démographique depuis 1990 est dû au solde apparent des entrées-sorties, devenu négatif (- 0,4 % par an de 1990 à 1999, - 0,1 % par an de 1999 à 2006 et - 0,5 % par an de 2006 à 2011). En d'autres termes, il y plus d'habitants qui quittent le département pour habiter ailleurs que de personnes qui viennent y résider. L'augmentation de la population est donc à mettre au compte d'un solde naturel (différence entre les naissances et les décès) encore très largement positif. La proportion d'immigrés dans la population essonnienne (13,8 % en 2011) est supérieure à la moyenne nationale (8,7 %) : en 2011, parmi les immigrés habitant dans l'Essonne, 31,2 % proviennent d'un pays européen (17,9 % du Portugal), 25,4 % d'un pays du Maghreb (11,3 % d'Algérie, 9,5 % du Maroc et 4,6 % de Tunisie), 24,8 % d'autres pays d'Afrique, 4,6 % de Turquie, 10,2 % d'autres pays d'Asie. Communes les plus peuplées commune 16 = Saint-Michel-sur-orge Pyramide des âges Département jeune par sa date de création, l’Essonne l’est aussi relativement par sa population avec une nette différence de répartition des tranches d’âges comparativement à l’ensemble du territoire national. Ainsi, pour les deux catégories les plus jeunes, entre un et deux points supplémentaires caractérisent la pyramide des âges essonnienne et à l’inverse pour les trois dernières tranches, deux points de moins approximativement séparent les taux de l’Essonne de ceux de la France. L’Essonne est un département qui vieillit, dans une proportion cependant moindre qu’à l’échelle nationale. La population des en Essonne ne représente que 12,3 % en 2010 (), tandis qu’au niveau national cette tranche d’âge représente près de 15 % de la population. Par ailleurs, le département compte quelque âgées de et plus. Répartition de la population En , la densité moyenne de population s'établissait à , taux très supérieur à celui de la moyenne nationale fixée à mais inférieur à la moyenne de la région Île-de-France établie à . La densité de peuplement est cependant très inégale sur le territoire départemental, avec une concentration forte au Nord-Est, autour du chef-lieu départemental et des axes majeurs, une densité légèrement moindre au nord-ouest, exception faite des pôles urbains de Massy, Longjumeau et Les Ulis et une densité faible dans une large moitié sud, où les communes conjuguent vaste territoire et faible population, Étampes jouant là le rôle de pôle urbain. La commune la plus densément peuplée en est Juvisy-sur-Orge avec , et la moins dense est Chatignonville avec . Administration et politique Politique locale Le département de l’Essonne est dirigé par le conseil départemental de l'Essonne, assemblée délibérante départementale composée de quarante-deux conseillers généraux dont trente conseillers départementaux de la majorité de droite et 12 conseillers départementaux de l'opposition de gauche. Le Président du Conseil Départemental est depuis 2015 François Durovray, conseiller du canton de Vigneux-sur-Seine. L’Insee attribue au département le code 91, Eurostat le code NUTS3 FR104 et l’organisation internationale de normalisation le code ISO 3166-2 FR-91. Parlementaires de l'Essonne Au Sénat, le département de l’Essonne est représenté par cinq sénateurs. Les grands électeurs essonniens ont choisi pour les représenter durant la mandature 2017-2023 Laure Darcos (LR), Vincent Delahaye (UDI), Jocelyne Guidez (UDI), Jean-Raymond Hugonet (DVD) et Olivier Léonhardt (DVG). À l’Assemblée nationale, le département de l’Essonne est représenté par dix députés, dont huit issus de la majorité présidentielle LREM. Les électeurs essonniens ont choisi pour les représenter au cours de la législature Francis Chouat (DVG, affilié LREM) qui a remplacé Manuel Valls en 2018, Franck Marlin (LR), Laëtitia Romeiro Dias (LREM, Marie-Pierre Rixain (LREM), Cédric Villani (LREM), Stéphanie Atger (LREM) qui a remplacé Amélie de Montchalin en 2019, Robin Reda (Libres), Nicolas Dupont-Aignan (DLF), Marie Guévenoux (LREM) et Pierre-Alain Raphan (LREM). Autres représentants politiques Au conseil régional d'Île-de-France, le département de l’Essonne est représenté par vingt-quatre conseillers régionaux. Les électeurs essonniens ont choisi pour les représenter durant la mandature 2015-2021 six LR et apparentés, cinq UDI, cinq socialistes, trois RN, deux centristes MoDem et UDE, un LFI et une écologiste. Le département de l’Essonne compte cent quatre-vingt-seize communes. Parmi les 10 communes les plus peuplées du département, les maires sont les suivants : Évry-Courcouronnes : Stéphane Beaudet (Libres !), Corbeil-Essonnes : Jean-Pierre Bechter (LR), Massy : Nicolas Samsoen (UDI), Savigny-sur-Orge : Jean-Marc Defrémont (EELV) Sainte-Geneviève-des-Bois : Frédéric Petita (PS), Palaiseau : Grégoire de Lasteyrie (LR), Athis-Mons : Jean-Jacques Grousseau (PS), Vigneux-sur-Seine : Thomas Chazal (LR), Viry-Châtillon : Jean-Marie Vilain (Les Centristes), Draveil : Georges Tron (LR). Présidents du conseil général de l’Essonne Sept présidents se sont succédé à la tête du conseil général puis départemental depuis l’élection du premier en 1967 : Découpage administratif En 2009, le département de l’Essonne est subdivisé en trois arrondissements : à l’est, l’arrondissement d'Évry autour du chef-lieu départemental regroupe cinquante-deux communes sur quatre cent soixante-neuf kilomètres carrés et comptait en 2008 ; au sud-est, l’arrondissement d'Étampes regroupe soixante-dix neuf communes sur huit cent soixante-seize kilomètres carrés et comptait en 2008 ; au nord-ouest, l’arrondissement de Palaiseau regroupe soixante-cinq communes sur quatre cent cinquante-neuf kilomètres carrés et comptait en 2008 ; particularité notable, la commune de Corbeil-Essonnes avait conservé son statut de sous-préfecture sans qu’elle soit chef-lieu d’aucun arrondissement. Ses services sont néanmoins sous la responsabilité du préfet d’Évry. Cette même année, les services de l’État dans le département était dirigés par le préfet Jacques Reiller et les sous-préfets Pascal Sanjuan, secrétaire général et sous-préfet de l’arrondissement d’Évry, Daniel Barnier, sous-préfet de Palaiseau, et Thierry Somma, sous-préfet d’Étampes. Le préfet délégué pour l'égalité des chances est Pierre Lambert. Les communes du département ont choisi de se regrouper au sein de 5 communautés d’agglomération (Cœur d'Essonne Agglomération, Communauté Paris-Saclay, Grand Paris Sud Seine Essonne Sénart, Val d'Yerres Val de Seine et Versailles Grand Parc) et de 7 communautés de communes (2 Vallées, Entre Juine et Renarde, l'Étampois Sud-Essonne, Le Dourdannais en Hurepoix, l'Orée de la Brie, le pays de Limours et le Val d'Essonne). 6 communes sont par ailleurs rattachées à la métropole du Grand Paris. Découpage électoral Le département de l’Essonne est divisé en trois niveaux de circonscriptions électorales, le dernier découpage électoral étant intervenu en 1986. En 2009, un nouveau redécoupage a entraîné le transfert des communes de Bruyères-le-Châtel et Ollainville (canton d'Arpajon) de la troisième à la quatrième circonscription. En 2010, il est ainsi divisé en dix circonscriptions législatives : la , dite d’Évry - Corbeil-Essonnes, qui regroupe six communes et ; la , dite d’Étampes, qui regroupe soixante-neuf communes et ; la , dite de Dourdan - Brétigny-sur-Orge, qui regroupe quarante-sept communes et ; la , dite de Longjumeau - Limours-en-Hurepoix, qui regroupe trente communes et ; la , dite de Saclay - Orsay, qui regroupe dix communes et ; la , dite de Massy - Palaiseau, qui regroupe six communes et ; la , dite de Savigny-sur-Orge - Athis-Mons, qui regroupe cinq communes et ; la , dite de Montgeron - Brunoy, qui regroupe cinq communes et ; la , dite de Draveil - Ris-Orangis, qui regroupe treize communes et ; la , dite de Sainte-Geneviève-des-Bois, qui regroupe cinq communes et . Il est aussi divisé en vingt-et-un cantons : Enfin, le département est divisé en cent quatre-vingt-seize communes dont la plus récente, Les Ulis a été créée le . La plus petite commune est Villiers-sur-Orge avec seulement carré, la plus étendue est Étampes avec carrés. D’après les données du recensement intervenu en 2008, la moins peuplée était Chatignonville avec seulement , la plus peuplée était le chef-lieu Évry avec . Outre le découpage électoral départemental, l’Essonne est intégré dans la circonscription Île-de-France dans le cadre des élections du Parlement européen et de cette même circonscription d’Île-de-France pour les élections régionales. Tendances et résultats politiques L’analyse des derniers résultats électoraux d’envergure supra-départementale montre que le département de l’Essonne suit les tendances nationales avec une propension légère au vote à gauche comme en témoignent les nettes avances des candidats du Parti socialiste lors des scrutins de 2004 et le score légèrement supérieur au national de la candidate Ségolène Royal lors de l’élection présidentielle de 2007. Cette tendance se traduit aussi lors des échéances départementales, le conseil général de l'Essonne est ainsi dirigé par l’alliance de gauche depuis 1998, même si l’on assiste depuis la dernière élection de 2008 à un rééquilibrage et une concentration des forces, légèrement en faveur de la droite. Cette propension au vote de gauche toutefois absente lors des élections législatives puisque les députés de gauche ne sont plus majoritaires dans le département depuis 1988 en n’étant plus que trois sur dix depuis 2002. De la même façon, les élections municipales amènent traditionnellement une majorité d’élus de droite au pouvoir, constat confirmé en 2008 avec cent deux communes à droite et seulement cinquante-cinq à gauche, avec une très nette différence entre le sud du département, presque exclusivement à droite et le nord, plus diversifié. Élections présidentielles, résultats des deuxièmes tours : Élection présidentielle de 2002 : 84,96 % pour Jacques Chirac (RPR), 15,04 % pour Jean-Marie Le Pen (FN), 81,01 % de participation. Élection présidentielle de 2007 : 52,08 % pour Nicolas Sarkozy (UMP), 47,92 % pour Ségolène Royal (PS), 85,92 % de participation. Élection présidentielle de 2012 : 53,43 % pour François Hollande (PS), 46,57 % pour Nicolas Sarkozy (UMP), 81,76 % de participation. Élection présidentielle de 2017 : 72,18 % pour Emmanuel Macron (LREM), 27,82 % pour Marine Le Pen (RN), 74,92 % de participation. Élections européennes, résultats des deux meilleurs scores : Élections européennes de 2004 : 27,26 % pour Harlem Désir (PS), 15,35 % pour Patrick Gaubert (UMP), 44,79 % de participation. Élections européennes de 2009 : 26,21 % pour Michel Barnier (UMP), 19,35 % pour Daniel Cohn-Bendit (Europe Écologie), 42,20 % de participation. Élections européennes de 2014 : 20,86 % pour Aymeric Chauprade (FN), 18,43 % pour Alain Lamassoure (UMP), 43,05 % de participation. Élections européennes de 2019 : 23,67 % pour Nathalie Loiseau (LREM), 17,58 % pour Marine Le Pen (RN), 49,91 % de participation. Élections sénatoriales, résultats des deux meilleurs scores : Élections sénatoriales de 2004 : 34,74 % pour Jean-Luc Mélenchon (PS), 15,67 % pour Serge Dassault (UMP), 99,06 % de participation. Élections sénatoriales de 2011 : 31,20 % pour Jean-Vincent Placé (EELV), 19,58 % pour Michel Berson (DVG), 98,67 % de participation. Élections sénatoriales de 2017 : 30,51 % pour Vincent Delahaye (UDI), 20,70 % pour Jean-Raymond Hugonet (LR), 95,94 % de participation. Élections régionales, résultats des deux meilleurs scores : Élections régionales de 2004 : 51,31 % pour Jean-Paul Huchon (PS), 37,78 % pour Jean-François Copé (UMP), 66,64 % de participation. Élections régionales de 2010 : 58,64 % pour Jean-Paul Huchon (PS), 41,36 % pour Valérie Pécresse (UMP), 48,31 % de participation. Élections régionales de 2015 : 40,90 % pour Valérie Pécresse (LR), 40,90 % pour Claude Bartolone (PS), 55,58 % de participation. Élections référendaires : Référendum de 2000 relatif au quinquennat présidentiel : 74,53 % pour le Oui, 25,47 % pour le Non, 31,69 % de participation. Référendum de 2005 relatif au traité établissant une Constitution pour l'Europe : 50,71 % pour le Non, 49,29 % pour le Oui, 71,42 % de participation. Enseignement Les établissements scolaires du département de l’Essonne dépendent tous de l’académie de Versailles, ils sont sous la direction de l’inspection académique de l’Essonne. En 2009, huit cent trente-trois écoles maternelles et élémentaires publiques sont réparties sur le territoire, découpé en cinq bassins d’éducation, complétées par vingt-neuf écoles privées. Les collèges sont gérés et entretenus pas le conseil départemental, eux aussi répartis entre cinq bassins, le département en compte cent sur l’ensemble du territoire dont vingt-trois disposant d’une section d'enseignement général et professionnel adapté. Les lycées, sous la responsabilité de la région, sont au nombre de quarante-quatre répartis dans le département. La direction diocésaine de l’enseignement catholique gère en plus seize collèges et treize lycées privés. Deux Greta sont installés à Massy et Corbeil-Essonnes. Onze centres d’information et d’orientation sont répartis sur le territoire. Enseignement supérieur Plusieurs établissements d’enseignement supérieur d’envergure régionale ou nationale sont implantés dans le département de l’Essonne, constituant deux pôles étudiants d’importance. Au total, en 2006, le département comptait ainsi et étudiants de cycle supérieurs, soit 16 % du total francilien, Paris intra-muros absorbant à lui seul plus de 50 %. Évry-Courcouronnes et ses environs À l’est, autour d’Évry-Courcouronnes se trouvent l’université d'Évry-Val d'Essonne, l’École nationale supérieure d'informatique pour l'industrie et l'entreprise (ENSIIE), Télécom SudParis, Télécom École de Management et une antenne du Conservatoire national des arts et métiers (Cnam). Le pôle scientifique et technologique Paris-Saclay Au nord-ouest, le cluster scientifique et technologique Paris-Saclay et ses alentours concentrent un important centre d'enseignement de pointe avec la présence de l'université Paris-Saclay et ses établissements-composantes : l'école d'ingénieurs Polytech Paris-Saclay à Orsay ; la Faculté des sciences de l'université Paris-Saclay à Orsay ; l'école d'ingénieurs CentraleSupélec à Gif-sur-Yvette ; l'École normale supérieure Paris-Saclay à Gif-sur-Yvette ; l’Institut des hautes études scientifiques (IHES) à Bures-sur-Yvette ; l’École supérieure d'optique de l'université Paris-Saclay à Palaiseau ; et l'école d'ingénieurs AgroParisTech à Massy. Et également, la présente de l'Institut Polytechnique de Paris et ses écoles d'ingénieurs « établissements-composantes » à Palaiseau : l’École polytechnique ; l'ENSTA ParisTech ; l'ENSAE Paris ; Télécom Paris ; et une antenne de Télécom SudParis. Avec les Yvelines, l'Essonne est l'un de deux départements concernés par le projet de cluster technologique Paris-Saclay. Autres villes de l'Essonne À Brétigny-sur-Orge se trouve l'Institut universitaire de technologie de Brétigny et l’Institut de recherche biomédicale des armées (IRBA) et à Étiolles une annexe de l'Institut national supérieur du professorat et de l'éducation de Paris. Enfin, à Orsay, Juvisy-sur-Orge, Longjumeau, Corbeil-Essonnes, Épinay-sur-Orge, se trouvent des Instituts de formation en soins infirmiers (IFSI) rattachés à la Faculté de médecine de l'université Paris-Saclay. Santé La santé et le social sont deux thèmes qui entrent dans les compétences du conseil départemental. À ce titre, il est chargé de coordonner les actions en faveur des personnes âgées, des handicapés, des enfants, des familles et des personnes en difficulté. Au janvier 2012, l'Essonne comptait près de 142 lits pour âgées de et plus - taux d'hébergement largement supérieur à la moyenne nationale. Ce taux prend en compte toutes les structures d'hébergement pour séniors: maisons de retraite, foyers-logement, unités de soins de longue durée (USLD) et hébergement temporaire. Près de 101 lits pour 1000 sont disponibles en EHPAD et USLD uniquement. À noter que le taux national de structures médicalisées pour seniors s'élève à . Il dispose aussi d’un droit de regard dans la gestion des établissements publics de santé présents sur le territoire départemental. En Essonne, quatorze centres hospitaliers et hôpitaux sont installés à Arpajon, Ballainvilliers, Briis-sous-Forges, Champcueil, Dourdan, Draveil, Épinay-sur-Orge, Étampes, Évry, Fleury-Mérogis, Juvisy-sur-Orge, Longjumeau, Orsay, Quincy-sous-Sénart et Yerres. Certains hôpitaux spécialisés d’importance régionale sont implantés en Essonne dont l’hôpital Dupuytren et l’hôpital Georges-Clemenceau qui dépendent tous deux de l’Assistance publique - Hôpitaux de Paris. À terme, le centre hospitalier sud francilien actuellement répartis sur vingt-sept sites avant son transfert à Évry deviendra le principal centre de santé du département. Ils sont complétés par quatorze cliniques à Arpajon, Athis-Mons, Brunoy, Crosne, Étampes, Évry, Juvisy-sur-Orge, Longjumeau, Massy, Morangis, Ris-Orangis, Saclas, Villiers-sur-Orge et Viry-Châtillon. Au total, quatre-vingt-cinq maisons de retraite plus ou moins médicalisées accueillent les personnes âgées dépendantes, complétant ainsi l’offre de soin au même titre que les quarante-six établissements d’accueil des handicapés. Soixante-deux centres de protection maternelle et infantile relaient sur le terrain les actions du conseil général. Sécurité et justice L’organisation juridictionnelle permet au département de l’Essonne de disposer de plusieurs tribunaux et maisons de justice. Le chef-lieu d’Évry accueille ainsi une cour d’assises, un tribunal d’instance, de commerce, de grande instance et un conseil de prud’hommes ainsi que le barreau départemental qui regroupe deux cent cinquante et un avocats. Il est complété par les tribunaux d’instance d’Étampes, Juvisy-sur-Orge, Longjumeau et Palaiseau et par les conseils de prud’hommes d’Étampes et Longjumeau. L’ensemble de ces palais de justices dépendent de la cour d'appel de Paris et du tribunal administratif de Versailles. Le département est doté d’un centre départemental d’accès au droit qui a mis en place trois maisons de justice et du droit à Athis-Mons, Les Ulis et Villemoisson-sur-Orge. Douze permanences du représentant du médiateur de la République sont réparties sur le territoire, vingt conciliateurs de justice exercent dans le département pour traiter les conflits mineurs. Le département accueille depuis 1968 le plus grand centre pénitentiaire d’Europe avec la maison d'arrêt de Fleury-Mérogis d’une capacité de , complétée par le centre de semi-liberté de Corbeil-Essonnes. La sécurité départementale relève de la préfecture de l’Essonne qui coordonne les services de police et de gendarmerie. Les services de police sont organisés autour des trois districts d’Évry, Palaiseau et Juvisy-sur-Orge et de quatorze circonscriptions. La gendarmerie nationale compte trois compagnies à Étampes, Évry et Palaiseau et trente-et-une brigades territoriales. Deux compagnies républicaines de sécurité sont stationnées dans le département à Massy et Bièvres, commune qui accueille aussi le centre de formation et de commandement du Raid. L’organisation des secours dépend du service départemental d'incendie et de secours qui regroupe agents dont 56 % de volontaires répartis dans cinquante-et-un centres de secours. Organisation militaire Le département de l’Essonne relève de la région terre Île-de-France dont le siège est basé à l’hôtel des Invalides de Paris et l’état-major au camp des Loges à Saint-Germain-en-Laye et de la Zone de défense et de sécurité de Paris. Le département dispose d’un délégué militaire départemental basé à Montlhéry et sur son territoire de plusieurs corps militaires dont l’école polytechnique à Palaiseau, le du train et la logistique implantés à Montlhéry, le logistique du commissariat à l’armée de Terre, le bureau d'enquête accident Défense-air et la structure intégrée de maintien en condition opérationnelle des matériels aéronautiques de la Défense basés à Brétigny-sur-Orge sur la base aérienne 217. Gestion des déchets En 2008, tonnes de déchets ont été collectés dans le département soit une moyenne de cinq cent trente-trois kilogrammes par habitant dont 47 % étaient incinérés et 13 % stockés, vingt-quatre déchèteries étaient opérationnelles sur le territoire gérées par neuf syndicats intercommunaux. Jumelage et coopération Vie quotidienne en Essonne Culture La Politique culturelle est une des compétences du conseil départemental, à ce titre, il dispose d’un service spécialisé, chargé de soutenir les initiatives locales et les lieux d’expression culturelle. Le département de l’Essonne dispose d’une multitude de lieux répartis sur le territoire, presque chaque commune disposant d’une salle polyvalente, d’une médiathèque, d’un centre culturel ou d’une maison des jeunes et de la culture. Un maillage important de salles de cinéma complète cette offre. Trois lieux se distinguent cependant par leur importance, le théâtre de l’Agora à Évry, labellisé scène nationale, l’opéra de Massy, labellisée scène conventionnée lyrique et le centre d'art contemporain du château de Chamarande. Plusieurs musées sont répartis aux quatre coins du département, dont certains d’envergure nationale tel le musée français de la photographie à Bièvres. Des festivals réputés sont organisés par les communes du département comme le festival international du cirque de Massy, le festival de cinéma emergence à Marcoussis ou par des personnes privées comme la fête des plantes vivaces au domaine de Saint-Jean-de-Beauregard. Héritages des siècles passés, les foires d’Arpajon, Montlhéry et Dourdan marquent encore le calendrier départemental. Les communes du département ont par ailleurs toujours attiré les artistes, devenant des centres d’expression et de création, comme Étampes où naquit une École de peinture, Milly-la-Forêt qui accueillit Jean Cocteau, Christian Dior, Jean Marais et Jean Tinguely, auteur du fameux Cyclop. D’autres artistes sont originaires du département, parmi lesquels Dany Brillant, Alain Chabat, Marc Lavoine ou Jean-Luc Lemoine, d’autres comme Claude François ont choisi de s’y installer. Sport Le Sport est aussi une compétence acquise par le conseil départemental, il participe ainsi au financement des installations et aux subventions des clubs. Le département a ainsi accueilli certaines épreuves des jeux de la Francophonie 1994, notamment au Grand Dôme de Villebon-sur-Yvette, construit pour l’occasion, il accueille aussi depuis 2002 le Centre national du rugby à Marcoussis. Presque chaque commune disposent d’infrastructures à caractère sportif, un réseau de piscines parsème le territoire mais deux sites se démarquent, le stade omnisports Robert-Bobin à Bondoufle, quatrième francilien par la taille avec (derrière le Stade de France, le Parc des Princes et le Stade Charléty) et le stade nautique Maurice Herzog de Mennecy, dimensionné pour les compétitions internationales. Plusieurs clubs sportifs évoluent au niveau national, l’AS Corbeil-Essonnes, l’AS Évry, le Juvisy FCF, le Sainte-Geneviève Sports, l’Entente sportive Viry-Châtillon en football, le RC Massy Essonne en rugby à XV, le Viry-Châtillon Essonne Hockey et le SCA 2000 Évry en hockey sur glace, les Gothics de Gif-sur-Yvette et les Lions de Savigny-sur-Orge en baseball, les Corsaires d'Évry et les Quarks de Villebon en football américain, le Massy Essonne HB en handball, le RC Villebon 91 en volley-ball, l’ASCE en canoë-kayak et le Viry Évry Nord Sud Essonne en athlétisme. Autrefois, le département était aussi connu pour les courses automobiles organisées à l’autodrome de Linas-Montlhéry et pour l’organisation du tour cycliste de l'Essonne. Aujourd’hui, l’évènement sportif marquant est l’Open international Stade français Paris au golf de Courson-Monteloup. Outre Montgeron qui fut la ville de départ du premier Tour de France 1903, plusieurs communes du département ont été villes-étapes du Tour de France : Épinay-sous-Sénart en 1987, Brétigny-sur-Orge en 1990 et 1993, Montlhéry et Viry-Châtillon en 1993, Sainte-Geneviève-des-Bois en 1995, Palaiseau en 1996, Arpajon en 1999, Évry en 2001, Montgeron en 2003, Corbeil-Essonnes en 2001 et 2005, Marcoussis en 2007, Étampes en 2008, Longjumeau en 2010. Plusieurs personnalités du sport sont originaires du département, parmi lesquels Thierry Henry et Patrice Évra des Ulis, Ladji Doucouré d’Évry et Mathieu Bastareaud de Massy. Lieux de culte Le culte catholique est organisé en Essonne autour du diocèse d'Évry-Corbeil-Essonnes, qui couvre le département et deux villes voisines des Yvelines. Il est divisé en deux zones, cinq vicariats, vingt-trois secteurs paroissiaux et cent huit paroisses. Son siège est installé à Évry, près de la cathédrale de la Résurrection, et il dispose du siège associé de Corbeil-Essonnes de la cathédrale Saint-Spire. Le culte musulman dispose à Courcouronnes de la plus grande mosquée de France, la mosquée d'Évry-Courcouronnes, et d’une multitude de centres de prières répartis sur le territoire. La religion juive dispose de synagogues dans certaines communes du département, dont la plus importante à Massy. Les protestants disposent de temples répartis dans plusieurs communes. Les chrétiens orthodoxes se retrouvent dans plusieurs lieux, principalement l’église Notre-Dame-de-la-Dormition de Sainte-Geneviève-des-Bois et le siège de la métropole orthodoxe roumaine d'Europe occidentale et méridionale à Limours. Les bouddhistes disposent de la Pagode Khánh-Anh à Évry. L’Église de Jésus-Christ des saints des derniers jours dispose d’un lieu de culte à Évry. Médias Plusieurs groupes de médias diffusent les informations locales. La presse écrite est représentée par l'hebdomadaire Le Républicain de l'Essonne et les éditions locales du quotidien Le Parisien. Sur la toile, le web-journal Essonne Info publie une édition quotidienne consacrée à l'actualité politique, économique, sociétale, sportive et culturelle. Après d'activités, la chaîne de télévision locale Téléssonne a cessé d'émettre le 30 septembre 2014. Économie Intégré à la région Île-de-France, plus importante région européenne par son produit intérieur brut (PIB), le département de l’Essonne bénéficie de son attrait économique et y participe pleinement, avec un PIB départemental fixé en 2008 à euros, soit euros par habitant, cependant en régression puisqu’il était fixé à euros par habitant en 2005. En 2008, l’Essonne participait à hauteur de d’euros aux exportations nationales avec en tête des productions exportées les produits pharmaceutiques et les produits d’entretien ou de parfumerie, et pour d’euros aux importations nationales avec en tête des produits importés les machines de bureau, matériels informatiques et appareils d’émission ou réception de son et d’image. Avec un total en 2006 de , dont 81,5 % relevant du secteur tertiaire, elle suit l’évolution économique et sociologique régionale avec cependant une certaine propension à conserver des activités industrielles (11,5 % des emplois) et dans une moindre mesure agricoles (0,8 % en Essonne pour 0,3 % en Île-de-France). Avec une population active évaluée à , le département apparaît cependant comme déficitaire en nombre d’emplois, entraînant un taux de chômage de 8,9 % en 2006 ( demandeurs d’emploi) et des déplacements pendulaires de résidents allant travailler hors du département (42,5 % des Essonniens travaillaient en 2006 hors de l’Essonne). Cette situation implique le développement d’un réseau de transports en commun fortement orienté vers Paris et sa proche banlieue, trois lignes du RER d'Île-de-France, deux lignes à grande vitesse, deux autoroutes et trois routes nationales traversant le territoire pour converger vers la capitale. Cette présence dans la « région capitale », ces infrastructures et l’histoire récente du département lui permettent aujourd’hui de concentrer sur son territoire une diversité et une richesse économique relativement importante. L’agriculture occupe ainsi une place toujours importante, avec près de trois mille cinq cents hectares cultivés aux portes de l’agglomération parisienne, sur près de 50 % du territoire consacrés pour, 80 % des exploitations se consacrant à la grande culture céréalière au sud et 16 % au maraîchage. Le commerce occupe lui aussi une place importante et historique, occupant 15,4 % des employés, pour la plupart dans de vastes centres commerciaux, dont le plus grand de la région, La Croix-Blanche sur plus de mètres carrés. L’industrie constitue le troisième pilier économique historique du département, elle y est aujourd’hui prioritairement tournée vers la haute technologie, notamment grâce à la présence concentrée de plusieurs universités et grandes écoles. Ainsi, la recherche scientifique a peu à peu pris une importance majeure dans l’économie départementale, au point d’employer plus de en 2005. Le tourisme enfin, d’agrément ou d’affaires occupe une place non négligeable dans l’économie locale avec la présence de deux bases régionales, de châteaux, d’édifices religieux classés aux monuments historiques, de parcs et jardins remarquables, du parc naturel régional du Gâtinais français, certains secteurs du département ayant conservé un caractère rural, vingt-sept communes comptaient en 2006 plus de 10 % de résidences secondaires. Statistiquement, l’Insee découpe le territoire en huit zones d’emploi dépassant les limites administratives. Le nord-ouest appartient ainsi à la zone d’emploi de Boulogne-Billancourt, le centre-nord à la zone d'emploi d'Orly, le nord-est à la zone d’emploi de Créteil, l’est à la zone d’emploi d’Évry, le sud-ouest à la zone d’emploi d’Étampes, l’ouest aux zones d’emploi de Dourdan et Orsay, une petite enclave étant rattachée à la zone d’emploi de Versailles. Développement économique Le département est au cœur du projet Paris-Saclay, inspiré de la Silicon Valley. Géographiquement, deux pôles majeurs de développement économique se distinguent, disposant chacun d’une implantation de la chambre de commerce et d'industrie de l'Essonne et de la chambre de métiers et de l'artisanat de l'Essonne. Au nord-ouest dans la « vallée de la Science », le parc d'activités de Courtabœuf, le plateau de Saclay et la vaste zone industrielle de Massy se concentrent l’université Paris-Sud 11, le pôle ParisTech regroupant plusieurs grandes écoles et de nombreux centres de recherches (Danone, Motorola, Thales, Alcatel-Lucent, Hewlett-Packard, etc.). L’ensemble est aujourd’hui intégré aux pôles de compétitivité System@tic Paris-Région, Opticsvalley et à l’opération d'intérêt national de Massy Palaiseau Saclay Versailles Saint-Quentin-en-Yvelines. Au nord-est, de Corbeil-Essonnes à Orly en suivant la vallée de la Seine, s’organisent autour de l’université d'Évry-Val d'Essonne et du Genopole le pôle Médicen et autour du centre national d'études spatiales et d’Arianespace le pôle ASTech. Plusieurs pépinières d’entreprises sont réparties sur le territoire : X Technologies à Palaiseau, Incuballiance à Orsay, Scientipole à Palaiseau, Orsay et Gif-sur-Yvette, Apis Développement à Courtabœuf, Innov'Valley à Marcoussis, Génopole, INT et Magellan à Évry. Certains lieux sensibles du département bénéficient en outre du statut de zone franche urbaine, dont les quartiers de La Grande Borne et du Village à Grigny et Viry-Châtillon, des Cinéastes et de la Plaine à Épinay-sous-Sénart, des Tarterêts à Corbeil-Essonnes, des Pyramides à Évry-Courcouronnes,Les Ardrets, Rosières à Brétigny-sur-Orge, le quartier de Guinette à Étampes . Emplois, revenus et niveau de vie En 2006 les catégories socioprofessionnelles les plus représentées dans les ménages essonniens étaient les cadres (20,7 %) suivis des professions intermédiaires (20,5 %), puis les retraités (18,6 %) et les ouvriers (18,2 %). Cette même année, 92,6 % des actifs ayant un emploi étaient salariés, dont 80,8 % titulaires d’un emploi fixe. Le revenu net imposable moyen du département était alors fixé à euros, mais seul 66,1 % des foyers étaient effectivement assujettis à l’impôt sur le revenu avec un revenu net imposable moyen à euros. Agriculture Bien que le département soit situé en Île-de-France et dans l’agglomération parisienne, l’agriculture occupe encore une place importante dans l’économie locale, au point de modeler le paysage départemental. Si elle n’occupait en 2006 que agriculteurs exploitant, soit seulement 0,2 % des actifs, au total ce sont qui occupait un emploi dans l’agriculture, soit 0,8 % de la population active. En 2000, exploitations étaient réparties sur le territoire, d’une superficie moyenne de soixante-dix-neuf hectares et pour un total de hectares soit 49,45 % de la superficie totale du département. Cette agriculture, organisée sur les plaines de Beauce et les vallées du Hurepoix et du Gâtinais, est tournée pour 805 exploitations vers la grande culture céréalière, pour 164 d’entre elles vers le maraîchage et pour trente-huit vers l’élevage, le cheptel départemental étant constitué cette année-là de trente-trois bovins et cent dix-sept volailles. Alimentant la région en produit frais, de nombreuses exploitations ont fait le choix de l’agriculture raisonnée comme pour celles adhérentes à l’association du Triangle vert du Hurepoix ou biologique, malgré leur quasi intégration au centre d’espaces urbains, d’autres comme la ferme de Viltain sur le plateau de Saclay ont choisi de proposer leurs productions directement aux consommateurs, ajoutant une fonction pédagogique à leurs activités. Trente communes du sud-est du territoire sont intégrées à la région d’indication géographique protégée de la « Volaille du Gâtinais ». Quarante pour cent de la production nationale française de cresson est originaire d’Essonne, à tel point que cette plante est surnommée « l’or vert » du département. Commerce Très tôt, le territoire fut situé aux carrefours de routes commerciales où se développèrent des foires, comme à Dourdan qui disposait d’une halle dès le ou Milly-la-Forêt dès le . C’est aussi dans l’Essonne que s’ouvrit en 1963 le premier hypermarché de France à l’enseigne Carrefour. Le commerce dans le département aujourd’hui, outre les centres-villes actifs, s’organise autour de grands centres commerciaux avec par ordre de tailles, La Croix-Blanche qui rassemble 164 enseignes sur sept cent mille mètres carrés de surface, Évry 2 qui accueille 235 magasins sur cent mille mètres carrés de surface, Villebon 2 qui propose soixante enseignes sur environ soixante mille mètres carrés, Ulis 2 qui offre 120 enseigne, le Centre commercial régional Aushopping Brétigny,Villabé A6 avec 68 magasins, Exona et VdB, de moindre importance. S’ajoute à Corbeil-Essonnes un centre de magasins d’usine géré par le groupe Marques Avenue. En 2006, 15,4 % des emplois relevaient du secteur du commerce. Industrie L’industrie en Essonne a une histoire ancienne, bien avant la création du département, Corbeil et Essonnes étaient réputées pour leurs usines de minoterie dont subsiste encore aujourd’hui les Grands moulins de Corbeil, de tannerie, de poudrerie. Plus tard, dans le même secteur géographique, la famille Darblay qui possédait les papeteries fit fortune dans l’industrie locale, Paul Decauville faisant lui fortune avec sa sucrerie à Évry puis dans le matériel ferroviaire avec l’invention de la Decauville. Le département occupe encore 11,5 % de sa main-d’œuvre dans l’Industrie, mais il s’agit maintenant principalement d’industrie de pointe, implantée à proximité des grands centres de recherche, notamment dans le parc d'activités de Courtabœuf. En , la répartition des établissements donnait 0,1 % pour l’industrie extractive, 6,8 % pour l’industrie manufacturière, 0,1 % pour la production d’énergie et 0,3 % pour la production et le traitement des eaux. Les centres de production et de recherche de Nokia Networks France (ex-Alcatel-Lucent) à Marcoussis, Arianespace à Évry, Altis Semiconductor à Corbeil-Essonnes, Faurecia à Étampes bénéficient de la présence de personnels bien formé (45 % de la population dispose d’un diplôme supérieur ou égale au baccalauréat), d’infrastructures de transports de qualité et variées. Recherche Grâce à la présence de trois campus sur son territoire à Orsay (université Paris-Saclay), Palaiseau (Institut Polytechnique de Paris) et Évry (université d'Évry-Val d'Essonne) et de nombreuses grandes écoles (Polytechnique, CentraleSupélec, Télécom Paris, ENS Paris-Saclay, Télécom SudParis, IMT Business School…), d’importants laboratoires et centres de recherches ont choisi l’Essonne pour s’implanter. Ainsi, le Commissariat à l'énergie atomique (CEA) dispose de deux centres importants à Saclay et Bruyères-le-Châtel, le Centre national de la recherche scientifique (CNRS) est à Gif-sur-Yvette, l’Office national d'études et de recherches aérospatiales (ONERA) et Danone et Thales à Paris-Saclay et Limours, Nokia France (ex-Alcatel-Lucent) à Nozay, Hewlett-Packard aux Ulis, Microsoft à Villebon-sur-Yvette, l’Institut national de la recherche agronomique à Leudeville, l’Institut national de la santé et de la recherche médicale, le Genopole, Arianespace et le Centre national d'études spatiales (CNRS) à Évry, Safran Aircraft Engines (ex-Snecma) à Corbeil-Essonnes, le Synchrotron SOLEIL à Saint-Aubin, Safran Electronics & Defense (ex-Sagem Défense Sécurité) à Massy. Afin d’aider ces acteurs, le conseil départemental a développé le dispositif d’action de soutien à la technologie et à la recherche en Essonne. Plusieurs pôles de compétitivités ont en outre été développés par l’État et sont actifs sur le territoire départemental dont System@tic Paris-Région, Medicen, ASTech et Opticsvalley. Enfin, la chambre de commerce et d'industrie de l'Essonne a développé un site consacré à la recherche dans le département, centralisant les laboratoires et les organismes et la promotion du transfert de compétences. Cette même chambre de commerce a recensé entre 2004 et 2006 le dépôt de brevets, le secteur employant en 2005 . Tourisme Le département de l’Essonne n’est pas intrinsèquement réputé pour être un lieu touristique, cependant le patrimoine dont il dispose sur son territoire et les infrastructures développées permettent au département de recevoir un nombre relativement important de visiteurs. Ainsi, les services du conseil départemental dénombre plus de huit cent mille visiteurs chaque année, plus de deux cent mille pour le seul site du château de Chamarande et la création en 2003 de cent vingt-sept entreprises directement liées au tourisme. Selon le comité départemental du tourisme, le chiffre d’affaires du tourisme s’élève globalement à trois cent soixante-et-un millions d’euros, répartis en soixante-trois millions consacrés aux loisirs dans le département et deux parts approximativement égales ( et d’euros) pour le tourisme d’agrément et le tourisme d'affaires. En 2008, divers sites ont ainsi accueilli plus de vingt mille visiteurs, le trio de tête étant la verrerie d’art de Soisy-sur-École avec , l'île de loisirs d'Étampes avec et Koony Parc à Bondoufle avec . Le tourisme en Essonne tourne autour de six grands axes, les châteaux et leurs jardins, les édifices religieux, les musées, les maisons d’artistes dont celles de Victor Hugo à Bièvres, d’Alphonse Daudet à Draveil, de Claude François à Dannemois et de Tsugouharu Foujita à Villiers-le-Bâcle, le tourisme d’affaires à destination des grandes entreprises implantées et les activités sportives. Ces dernières se pratiquent dans l’une des deux bases de loisirs d’Étampes et du Port-aux-Cerises, la randonnée pédestre ou le cyclotourisme sur les circuits balisés, dont le GR 1, le GR 2 et le GR 11, les quinze golfs dont celui du Stade français Paris rugby à Courson-Monteloup, les parcours d’accrobranche, les piscines ou les clubs équestres. En 2009, l’Insee dénombrait quatre-vingt-dix-huit hôtels dans le département totalisant chambres et vingt-et-un campings totalisant emplacements, auxquels s’ajoutaient les gîtes ruraux et les chambres d’hôtes. Communes ayant plus de 10 % de résidences secondaires Selon le recensement de la population de 2006, soit 1,43 % des logements disponibles dans le département étaient des résidences secondaires ou occasionnelles. Culture locale et patrimoine Patrimoine environnemental Le département de l’Essonne, pour moitié intégré à l’agglomération parisienne dispose néanmoins d’un environnement préservé sur une large part de son territoire. Ainsi, près de cent trente-neuf mille hectares, soit près de 78 % du territoire sont encore classés par l’Iaurif comme des espaces ruraux. Les quatre régions naturelles qui composent le département, le Hurepoix, la Brie, le Gâtinais et la Beauce présentent chacune des paysages typiques et bien distincts. Au nord-est, la Brie en Essonne est couverte par la vaste forêt de Sénart aux essences de chêne, de châtaignier, de charme et de bouleau, le Hurepoix mélange vallées boisées et plateaux agricoles, le Gâtinais est pour sa plus grande partie recouvert par l’importante forêt de Fontainebleau et sa forêt annexe de Milly, dont le sol sablonneux et rocailleux est couvert de chêne, de pin sylvestre et de hêtre, la plaine de Beauce est elle presque entièrement recouverte de grandes cultures céréalières. D’ouest en est, le département est traversé par la ceinture verte d’Île-de-France, avec depuis la forêt de Rambouillet dans les Yvelines, un bandeau formé par la forêt de Dourdan et celle d’Angervilliers, puis la forêt de la Roche Turpin, la forêt du Belvédère, la forêt des Grands Avaux et la forêt de Milly-la-Forêt qui rejoint la forêt de Fontainebleau à l’est. Au nord du département, la forêt de Verrières et la forêt de Sénart forment deux espaces préservés en bordure de la première couronne parisienne. Les forêts de Palaiseau, du Rocher de Saulx et de Bellejame complètent ces massifs. Plusieurs parcs d’envergure départementale parsèment le territoire et permettent une approche plus ou moins naturelle de l’environnement. Les deux plus importants sont les îles de loisirs d'Étampes et du Port-aux-Cerises à Draveil et Vigneux-sur-Seine. Elles sont complétées dans leur rôle pédagogique par l’arboretum Vilmorin et l’arboretum municipal de Verrières-le-Buisson, l’arboretum de Segrez à Saint-Sulpice-de-Favières et le Conservatoire national des plantes à parfum, médicinales, aromatiques et industrielles à Milly-la-Forêt. Le parc de Jeurre à Morigny-Champigny, le parc de Chamarande, le parc du château de Courances, le parc de Courson et le parc du château à Saint-Jean-de-Beauregard attirent eux aussi les visiteurs. S’ajoutent deux initiatives environnementale récentes, la coulée verte du sud parisien qui traverse le nord-ouest du département de Verrières-le-Buisson à Gometz-le-Châtel avec une continuation prévue jusque Rambouillet par Limours et la Méridienne verte qui traverse le département en son centre du nord au sud. Dans ces parcs et forêts plusieurs arbres remarquables ont été recensés dont un tilleul à Boutigny-sur-Essonne, un chêne à Bures-sur-Yvette, des platanes à Chamarande et Morsang-sur-Orge, des séquoias à Courson-Monteloup et Mennecy, un sophora du Japon à Juvisy-sur-Orge et des hêtres communs à Saint-Sulpice-de-Favières. Deux espaces renommés occupent aussi une part importante du territoire. Au nord-ouest, la vallée de Chevreuse suit le cours de l’Yvette jusqu’à Palaiseau, avec l’éventualité en 2010 d’une extension du parc naturel régional de la Haute Vallée de Chevreuse, seize communes du département ayant déjà approuvé le principe de l’intégration. Au sud-est, le parc naturel régional du Gâtinais français englobe vingt-huit communes du département entre les vallées de l’Essonne et de l’École. Dépassant pour certains les limites administratives, dix sites ont été recensés par le réseau Natura 2000 dont trois sont classées « Zone de protection spéciale » : les marais d'Itteville et de Fontenay-le-Vicomte sur cinq cent vingt-deux hectares, le Massif de Fontainebleau sur les communes de Courances et Milly-la-Forêt et le Massif de Rambouillet dont 4 % du territoire se trouve en Essonne. S’ajoutent des sites d’importances communautaires comme les champignonnières d’Étampes, les buttes gréseuses de l’Essonne, les marais des basses vallées de la Juine et de l’Essonne, les pelouses calcaires du Gâtinais et de la haute vallée de la Juine et la haute vallée de l’Essonne. Réparties dans plusieurs communes, la Réserve naturelle des sites géologiques de l'Essonne qui occupe près de cinq hectares est classée Réserve naturelle nationale, elle est complétée par plusieurs réserves naturelles régionales dont le bassin de Saulx-les-Chartreux, le parc d’Itteville, les Grands Réages à Varennes-Jarcy et l’arboretum Roger de Vilmorin à Verrières-le-Buisson. Le ministère de l'Écologie, de l'Énergie, du Développement durable et de la Mer a lui aussi classé un certain nombre de sites dont la vallée de la Juine et ses abords, la vallée de l’Yerres et ses abords. Enfin, le conseil départemental de l’Essonne a acquis des terrains pour les classer en « Espace naturel sensible ». Principalement résidentielles, les communes du département font des efforts de politique environnementale et d’embellissement, récompensées pour certaines par des fleurs au concours des villes et villages fleuris, Sainte-Geneviève-des-Bois est classée quatre fleurs ; Boutigny-sur-Essonne, Chilly-Mazarin, Corbeil-Essonnes, Dourdan, Étampes, Évry, Les Ulis, Massy, Paray-Vieille-Poste, Ris-Orangis, Villebon-sur-Yvette et Viry-Châtillon sont classées trois fleurs ; Arpajon, Briis-sous-Forges, Épinay-sur-Orge, Étréchy, Grigny, Longjumeau, Morangis, Ollainville, Orsay, Palaiseau, Saint-Germain-lès-Arpajon, Saint-Michel-sur-Orge, Savigny-sur-Orge, Villejust, Wissous et Yerres sont classées deux fleurs ; Baulne, Boussy-Saint-Antoine, Brétigny-sur-Orge, Courcouronnes, Le Coudray-Montceaux, Linas, Mauchamps, Milly-la-Forêt, Morigny-Champigny, Richarville, Saclay, Soisy-sur-Seine et Vert-le-Grand sont classées une fleur. Pour permettre de visiter ces espaces naturels, le département est équipé de plusieurs circuits de grande randonnée dont le et le qui ceinturent l’Île-de-France, le qui suit le cours de la Seine, le , le qui parcourt l’ensemble du département et le qui correspond à l’ancien chemin de pèlerinage de Saint-Jacques-de-Compostelle depuis Paris. Patrimoine architectural Le département de l’Essonne est situé dans le bassin parisien, territoire très tôt occupé par l’Homme, comme en témoigne la découverte de silex taillés et l’élévation au néolithique de menhirs, dont certains subsistent et sont aujourd’hui classés aux monuments historiques : la Pierre à Mousseau à Vigneux-sur-Seine, la Pierre droite à Milly-la-Forêt, la Pierre Fritte à Étampes, la Fille de Loth à Brunoy. L’occupation gauloise puis gallo-romaine laissa des vestiges de villages comme celui découvert à Gif-sur-Yvette, de villa rustica comme à Orsay et d’oppidum comme à Champlan. Du Moyen Âge subsistent à Longjumeau l’un des plus vieux ponts d’Île-de-France, daté du , le Pont des Templiers, des châteaux forts comme à Montlhéry (), Dourdan () ou Étampes (), les remparts de Corbeil-Essonnes ou des lieux de culte catholiques importants, tel la basilique Notre-Dame-de-Bonne-Garde de Longpont-sur-Orge du ou la collégiale Notre-Dame-du-Fort à Étampes du . Placé dans une région agricole et à proximité des capitales de Versailles et Paris, le territoire fut à la Renaissance et durant l’Époque moderne équipé d’importantes halles à Dourdan, Arpajon (), Milly-la-Forêt () et Méréville (), enrichi de châteaux, dont les plus importants sont le château de Chamarande à Chamarande (), le château du Marais au Val-Saint-Germain (), le château de Courson à Courson-Monteloup () ou le château de Courances à Courances (, d’églises dont la cathédrale Saint-Exupère de Corbeil-Essonnes () ou l’église Saint-Germain-l’Auxerrois de Dourdan (), de lavoirs et de demeures bourgeoises. Du Premier Empire à la Belle Époque, le département évolua vers l’industrie avec la construction d’importantes usines comme les Grands moulins de Corbeil du , de nombreuses communes devinrent des lieux de villégiatures pour les parisiens, qui se faisait construire des demeures et des folies, comme le temple de la Gloire à Orsay () et la propriété Caillebotte, à Yerres et de lieux de culte d’autres confessions comme l’église orthodoxe Notre-Dame-de-la-Dormition de Sainte-Geneviève-des-Bois (). Le a lui aussi laissé un patrimoine contemporain avec l’édification de la vaste cité d’habitat social de La Grande Borne à Grigny, l’édification de la sculpture monumentale du Cyclop à Milly-la-Forêt, de l’unique cathédrale française du à Évry accompagnée par la plus grande mosquée de France à Courcouronnes et la plus grande pagode d’Europe toujours à Évry. Au sud du département, Étampes, ancienne ville royale, concentre sur son territoire un patrimoine remarquable, bénéficiant ainsi du label « Villes et pays d'art et d'histoire ». Au total, ce sont cinquante-et-un châteaux et quatre-vingt-quatorze monuments religieux répartis sur le territoire qui bénéficient d’un classement ou d’une inscription aux monuments historiques. Personnalités Le département de l’Essonne a donné plusieurs personnalités politiques d’envergure nationale, parmi lesquelles des membres de gouvernement. Par ordre chronologique : Léo Hamon, secrétaire d'État de la Participation et de l’Intéressement dans le gouvernement Chaban-Delmas en 1972, Jacques Guyard, secrétaire d’État chargé de l’Enseignement technique dans le gouvernement Cresson de 1991 à 1992, Marie-Noëlle Lienemann, ministre délégué au Logement et au Cadre de vie dans le gouvernement Bérégovoy de 1992 à 1993, Jean de Boishue, secrétaire d’État chargé de l’Enseignement supérieur dans le gouvernement Juppé I en 1995, Jean-Luc Mélenchon, ministre délégué à l’Enseignement professionnel dans le gouvernement Jospin de 2000 à 2002, Pierre-André Wiltzer, ministre délégué à la Coopération et à la Francophonie dans le gouvernement Raffarin II de 2002 à 2004, Nathalie Kosciusko-Morizet, secrétaire d’État chargée de l’Écologie puis chargée de la Prospective et du Développement de l’Économie numérique dans le gouvernement Fillon II de 2007 à 2010 puis ministre de l’Écologie, du Développement durable, des Transports et Logement dans le gouvernement Fillon III de 2010 à 2012, Georges Tron, secrétaire d’État chargé de la Fonction publique dans le gouvernement Fillon II de 2010 à 2011, François Lamy, ministre délégué à la Ville dans les gouvernements Ayrault I et II depuis 2012, Manuel Valls, ministre de l’Intérieur dans les gouvernements Ayrault I et II entre 2012 et 2014 puis Premier ministre. Héraldique et logotype Gastronomie Le département est encore en grande partie couvert par les espaces de culture, dont on distingue le maraîchage au nord et les grandes cultures céréalières dans le sud, il était jusqu’au milieu du l’un des principaux fournisseurs en produits frais des halles de Paris et directement relié à elles par l’Arpajonnais. Certains produits sont ainsi réputés dans le département, comme la fraise dans la vallée de la Bièvre et sur le plateau de Saclay, la tomate dans la région de Montlhéry, le haricot et notamment l’espèce Chevrier autour d’Arpajon, le potiron rouge vif d'Étampes, la mâche verte d'Étampes et le Cresson de fontaine dans le sud-est. Le Gâtinais et la région de Milly sont aussi réputés pour leur plantes aromatiques et médicinales comme le Safran, la Menthe poivrée. Il en découle quelques spécialités culinaires comme la Quiche au cresson de Milly-la-Forêt, le Vin de cresson de Méréville, le Pâté d'alouette de Chalo-Saint-Mars et la confiserie appelée Buchette d'Étampes. L’Essonne dans la culture et les arts Littérature L’action de la pièce de théâtre La Pie Voleuse ou la Servante de Palaiseau écrite en 1815 par Louis-Charles Caigniez se passe à Palaiseau. L’action du roman Le Bout Gâleux écrit en 1955 par Jean-Pierre Chabrol se déroule à Palaiseau. La poésie Jean des herbes de Milly de Jehan Despert parue en 1973 est inspirée de la culture communale de Milly-la-Forêt. Les communes de Massy, Igny et Bièvres servent de décors à l’album S.O.S. Météores, huitième de la série Blake et Mortimer d’Edgar P. Jacobs. Longjumeau est le lieu principal de l’action de l’opéra-comique en trois actes d’Adolphe Adam intitulé Le Postillon de Lonjumeau. Sainte-Geneviève-des-Bois et Longpont-sur-Orge sont les communes où se déroule une partie de l’intrigue du roman de Gaston Leroux, Le Mystère de la chambre jaune. Itteville est le lieu de l’intrigue du roman La Folle d'Itteville de Georges Simenon, illustré de photographies de Germaine Krull. Honoré de Balzac situe de nombreuses scènes de La Cousine Bette à Corbeil, résidence de Célestin Crevel. Il situe à Arpajon une partie de son roman Un début dans la vie : . Charles Péguy cite le nom des communes de Palaiseau, Orsay et Gometz-le-Châtel dans son poème Présentation de la Beauce à Notre-Dame de Chartres : La marquise de Sévigné cite Savigny-sur-Orge dans l’une de ses lettres à sa fille : L’intrigue de la nouvelle L’enterrement d’une étoile écrite par Alphonse Daudet en 1896 est en partie localisée à Wissous. En 1927, Adrien Demont séjournant à Montgeron écrivait dans son ouvrage Souvenances, Promenade à travers ma vie . Peinture, photographie et joaillerie En souvenir de ses séjours à Milly-la-Forêt, Christian Dior créa une collection de joaillerie intitulée Milly-la-Forêt symbolisant les quatre saisons à Milly. Gaspard-Félix Tournachon, dit Nadar fit la première photographie aérienne à Bièvres en 1858. Le château d'Étampes et peut-être celui de Dourdan apparaissent dans le livre d'heures Les Très Riches Heures du duc de Berry. Le peintre Claude Monet réalisa plusieurs toiles lors de ses séjours à Montgeron en 1876 et 1877 dont Les Dindons conservé au Musée d'Orsay de Paris, Coin de jardin à Montgeron et Étang à Montgeron tous deux conservés au Musée de l'Ermitage de Saint-Pétersbourg. Le peintre Gustave Caillebotte réalisa plusieurs toiles dans sa propriété d'Yerres dont Portraits à la campagne conservé au musée Baron Gérard à Bayeux. Cinéma et télévision En 1941 furent tournées à Villebon-sur-Yvette des scènes du film Goupi Mains Rouges de Jacques Becker. Le centre commercial de Villebon 2 apparaît dans le film Podium lorsque Benoît Poelvoorde décide de se produire sur le parking plutôt que dans le restaurant trop petit. La sitcom Tranches de vie actuellement diffusée sur Disney Channel, est tournée à Orsay. Certaines scènes du film Les Misérables ont été tournées dans l’hôtel de la Pie Voleuse, demeure du à Palaiseau. Plusieurs films et téléfilms ont été tournés à Étampes : Au royaume des cieux de Julien Duvivier, avec Serge Reggiani et Juliette Gréco, en 1949 ; La mariée était en noir de François Truffaut, avec Jeanne Moreau et Jean-Claude Brialy, en 1968 ; Les Brigades du Tigre (série télévisée de la deuxième chaîne) de Victor Vicas, entre 1974 et 1983 ; Adieu poulet de Pierre Granier-Deferre, avec Lino Ventura, Patrick Dewaere et Victor Lanoux, en 1975 ; L'Année sainte de Jean Girault, avec Jean Gabin, Jean-Claude Brialy et Danielle Darrieux, en 1976 ; Arsène Lupin joue et perd (série télévisée d’Antenne 2) d’Alexandre Astruc, en 1980 ; Léon Morin, prêtre (téléfilm) de Pierre Boutron, en 1991 ; L'Instinct de l'ange de Richard Dembo, avec Lambert Wilson, François Cluzet et Jean-Louis Trintignant, en 1993 ; Le Parfum d'Yvonne de Patrice Leconte, avec Jean-Pierre Marielle et Hippolyte Girardot, en 1994 ; Le Gendre idéal (téléfilm) d’Arnaud Sélignac, avec François Berléand, Fanny Cottençon et Armelle Deutsch, en 2008. Par sa proximité avec Paris et ses décors variés, Dourdan sert couramment de lieu de tournage, notamment pour Yoyo de Pierre Étaix en 1964, La Bande à Bonnot de Philippe Fourastié en 1965, Les Visiteurs de Jean-Marie Poiré en 1993, Je reste ! de Diane Kurys en 2003 ou Marie Besnard, l'empoisonneuse de Christian Faure en 2006. La proximité de Paris et la présence voisine des studios de tournages cinématographiques à Saint-Germain-lès-Arpajon permit à Arpajon d’apparaître dans divers plan de films, notamment en 1960 la place du marché et la porte de Paris dans Le Président d’Henri Verneuil, en 1962 le magasin Thirion dans La Vie à la française et en 1966 dans Paris brûle-t-il ? de René Clément. Bien qu’aucune scène n’y ait été tournée, l’action du film Trois zéros de Fabien Onteniente sorti en 2002 se déroule à Arpajon mais aussi Les Onze Commandements de François Desagnat sorti en 2004 qui fut filmé dans le centre-ville. Le film français Yamakasi - Les samouraïs des temps modernes fut créé à Évry et dans la commune voisine de Lisses. De 2006 à 2008, la série Saint-Ex, nos années pension diffusée dans l’émission KD2A de France 2 fut tournée au conservatoire national des arts et métiers d’Évry. Certaines scènes du feuilleton télévisé Les Faucheurs de marguerites furent tournées dans à La Ferté-Alais et à l’aérodrome voisin. Milly-la-Forêt a servi de décors de films, notamment à Jean Genet qui a tourné les plans extérieurs dans la forêt pour Un chant d'amour en 1950 et Luis Buñuel qui a tourné quelques plans extérieurs en ville pour Le Journal d’une femme de chambre en 1963. Igny accueille le tournage de la série télévisée Mon père dort au grenier qui est diffusée dans le cadre de l’émission KD2A sur France 2. Certaines scènes du film de Philippe Lioret Je vais bien, ne t'en fais pas sorti en 2006 ont été tournées à Montgeron, Savigny-sur-Orge et Vigneux-sur-Seine. Musique Le chanteur Michel Sardou cite l’Essonne dans la chanson « Les deux écoles » issue de son album Io Domenico sorti en 1984. Le chanteur Renaud cite Palaiseau et Massy et plus spécialement la gare de Massy - Palaiseau dans la chanson « Le Tango de Massy-Palaiseau » issue de son album Ma gonzesse sorti en 1979. Palaiseau est citée dans la chanson de Gavroche dans la strophe : « On est laid à Nanterre, C’est la faute à Voltaire, Et bête à Palaiseau, C’est la faute à Rousseau. » Le chanteur Ricet Barrier cite Ris-Orangis dans sa chanson La dame de Ris-Orangis sur son album La Servante du château, reprise par Marcel Amont. Le groupe de Rap PNL (groupe), Ademo cite dans le son Différents, issu de leur premier EP Que La Famille : « 94 c'est l'Barça, 91 c'est l'Brésil... ». Le rappeur Koba LaD est originaire d'Évry, en Essonne. Il évoque souvent son quotidien difficile dans son bâtiment qu'il surnomme "Seven Binks", qui correspond au bâtiment de la Place du Parc aux Lièvres. Le rappeur Alkpote, emménage dans le quartier des Pyramides à Évry en 1995. Le rappeur Zola, né à la clinique de l'Essonne a passé une bonne partie de sa vie dans ce département, notamment au Parc aux Biches Notes et références Notes Références Voir aussi Bibliographie Articles connexes Liste des communes de l'Essonne Paris-Saclay Département français Liens externes Site de la préfecture. Site du conseil départemental. Division administrative fondée en 1968
1009
https://fr.wikipedia.org/wiki/Europe
Europe
L’Europe est considérée conventionnellement comme un continent, délimité à l’ouest par l’océan Atlantique et la mer de Norvège, et au nord par l’océan Arctique. Sa limite méridionale est marquée par le détroit de Gibraltar qui la sépare de l'Afrique, tandis que les détroits respectivement du Bosphore et des Dardanelles marquent sa frontière avec l'Asie de l'Ouest. Sa limite à l'est, fixée par Pierre le Grand aux monts Oural, au fleuve Oural et au Caucase est la limite traditionnellement retenue, mais reste, faute de séparation claire et précise, l'objet de controverses selon lesquelles un certain nombre de pays sont ou ne sont pas à inclure dans le continent européen. Géographiquement, ce peut être considéré aussi comme une partie des supercontinents de l'Eurasie et de l'Afro-Eurasie. Dans son acception la plus commune, le continent européen couvre une superficie d’environ et a une population d’environ : les Européens. On peut distinguer cinq grandes régions géographiques : l'Europe de l'Ouest, l'Europe centrale, l'Europe du Sud, l'Europe de l'Est et l'Europe du Nord. L'Europe comprend une diversité de climats : un climat tempéré sur la majorité de sa surface, du fait de l'influence de l'océan Atlantique Nord-Est et de la mer Méditerranée et un climat de type continental à l'est de la Pologne orientale. Elle connaît aussi un climat océanique froid, voire polaire, dans ses régions les plus septentrionales, et un climat subtropical humide dans les Balkans autour de la mer Noire. Arrosé par de nombreux fleuves et rivières, le continent n'est pas en stress hydrique. L'Europe recouvre une grande biodiversité et a été pionnière dans les questions environnementales. Le peuplement s'est effectué de manière continue depuis d'années, des cycles glaciaires et interglaciaires créant des périodes d'isolement géographique à l'origine d'une différenciation des formes anciennes du genre Homo sur le continent à partir d'une espèce commune apparue en Afrique. Arrive ensuite Sapiens, également né en Afrique, qui remplace l'espèce d'origine européenne qu'est Néandertal, et « toutes les autres humanités » à partir de avant l'ère commune. La population européenne se sédentarise entre avant J.-C., par l'effet de diffusion de populations et de techniques apparues sur le plateau d'Anatolie vers avant J.-C. et pratique l'agriculture à partir de avant J.-C. Des hypothèses linguistiques et archéologiques ainsi que des études génétiques récentes accréditent la thèse d'un peuplement de l'ensemble du continent par des populations de l'est de l'Europe qui seraient les locuteurs du proto-indo-européen, langue-mère de la quasi-totalité des langues européennes. Les peuples germains apparaissent avant J.-C. au nord de l'Europe, les peuples celtes s'étendant quant à eux à partir de avant J.-C. sur la majeure partie du territoire, du bassin des Carpates à l’est de la France. Mais c'est la Grèce, avec sa brillante civilisation de l'Époque classique (), qui doit être considérée comme le berceau culturel de l'Europe. Après l'époque hellénistique, l'Europe voit Rome commencer son expansion au et atteindre son apogée au . Le continent est alors divisé entre le monde romain et celui des barbares (Pictes celtes, Germains et Slaves). L'influence romaine s'inscrit dans la culture, via la langue latine, ainsi que dans l'usage de l'espace via les voies romaines et l'urbanisation, sur un vaste territoire borné au nord par le mur d'Hadrien et à l'Est par le Rhin et le Danube, et qui s'étend par ailleurs en Afrique et en Asie. L'Europe est ainsi le berceau de la civilisation gréco-romaine, qui a donné le jour à la civilisation occidentale. Le christianisme s'y diffuse à partir du . En , l'Empire romain est définitivement scindé en deux, l'Empire romain d'Orient seul perdurant (jusqu'au milieu du ) tandis que l'Empire romain d'Occident se délite dès le sous l'effet des attaques des peuples germains, appelées les invasions barbares. Plusieurs tentatives furent faites pour reconstituer l'Empire romain d'Occident : celles de Charlemagne, des souverains du Saint-Empire romain germanique, d’ en 962 à Charles Quint au , voire de . Le morcellement féodal prévalut au Moyen Âge, avec toutefois l'élaboration d'une civilisation commune aux Européens autour de la foi chrétienne. Des États-nations se constituèrent ensuite progressivement, et leurs rivalités entraînèrent des guerres importantes au fil des siècles, de la guerre de Cent ans aux guerres du . L'unité religieuse fut également perdue, un premier schisme séparant en 1054 les chrétiens d'Occident (catholiques) des chrétiens de l'Est de l'Europe (orthodoxes). La Réforme protestante entraîna un deuxième schisme à partir du et de nombreuses guerres de religion, notamment en France, entre catholiques et protestants. L'Europe est toutefois, à partir de la Renaissance, à l'origine de plusieurs bouleversements historiques majeurs. La période moderne voit l'invention de l'imprimerie, la première alphabétisation de masse à la suite de la Réforme protestante et la découverte de nouveaux continents lors des grandes découvertes. Elle voit éclore le siècle des Lumières et est à l'origine de la diffusion du capitalisme marchand puis de la révolution industrielle. Elle invente des formes politiques nouvelles, nées des révolutions anglaise et française. Du , elle colonise par peuplement l'ensemble du continent américain. Elle établit, par ailleurs, au travers de plusieurs de ses nations, des empires coloniaux dans la quasi-totalité de l'Afrique, l'Océanie et de grandes parties de l'Asie jusque dans les années 1950-1960. C'est en Europe également que prennent naissance les deux guerres mondiales et que se produit la Shoah. La Seconde Guerre mondiale, qui l'a laissée exsangue, fait perdre à l'Europe son hégémonie mondiale et enclenche un mouvement de décolonisation. Pendant la Guerre froide, le continent est divisé en deux blocs séparés par un rideau de fer, celui de l'Ouest et celui de l'Est, idéologiquement opposés. Le bloc occidental, zone d'influence américaine, connaît un essor économique rapide et met en place les premières étapes d'une union européenne, économique puis politique, qui va croissant dans le nombre des États membres, en intégrant en particulier un certain nombre d'ex-pays de l'Est après l'effondrement du bloc soviétique. Étymologie Deux origines concurrentes du mot « Europe » ont été proposées. La première fait provenir ce nom de l'usage par les marins phéniciens des deux mots Ereb, le couchant, et Assou, le levant pour désigner les deux rives opposées de la mer Égée : d'une part la Grèce actuelle et d'autre part l'Anatolie ( signifie pareillement, en grec, le levant). La première mention connue de ces mots sémitiques se trouve sur une stèle assyrienne qui distingue Ereb, la nuit, le [pays du soleil] couchant, et Assou, le [pays du soleil] levant. Selon Michael Barry, les deux mots sont probablement à l'origine des deux noms grecs Eurôpè et Asia dans leur acception géographique antique. En grec, dans un hymne à Apollon datant d’environ 700 avant notre ère, Eurôpè représente encore, comme Ereb, le simple littoral occidental de l’Égée. C'est également le nom de la princesse de Tyr enlevée par Zeus. Néanmoins, cette étymologie sémitique est critiquée, la proposition étant considérée par d'autres comme improbable ou indéfendable. La seconde est grecque. Dans la mythologie grecque, plusieurs « Europe » sont connues, Europe, fille du géant Tityos ; la mère de Niobé ; la fille de Nil, une épouse de Danaé ; selon Hésiode, Europe l'Océanide est l'une des trois mille nymphes d'Océan et de Téthys ; dans l’Iliade, Europe est la fille de Phœnix, ascendant du peuple phénicien. Europè (εὐρώπη) provient de deux mots grecs : et . Le premier, , signifie soit large, qui s'étend en largeur, soit vaste, qui s'étend au loin ; le second, en grec ancien , signifie soit regarder en face, regard, soit œil. Le terme signifie « [celle qui a] de grands yeux » et devient un prénom féminin, donné à plusieurs personnages mythologiques grecs, et notamment à la fameuse princesse Europe enlevée par Zeus déguisé en taureau. Hérodote fait remarquer que la jeune princesse ne pose jamais le pied sur le continent du côté grec désigné par le terme géographique Eurôpè puisque Zeus la dépose en Crète. De nos jours, les institutions de l'Union européenne retiennent et propagent l'affirmation selon laquelle le nom du continent viendrait de la mythique Europe enlevée par Zeus. Géographie Limites géopolitiques Selon Jean Haudry, Europē est initialement une désignation de la Grèce continentale par opposition au Péloponnèse, aux îles et à la Thrace. Ce serait seulement à partir des guerres médiques, que le terme s'oppose à l'Asie (qui ne désigne que l'Asie Mineure) et à la Libye (l'Afrique) pour s'appliquer au continent européen, dont les limites demeurent inconnues. L'usage fait de l'Europe un continent mais il s'agit, si l'on considère la plaque eurasiatique, de la partie occidentale (une péninsule) d'un super-continent. Cela entraîne que les limites terrestres de l'Europe ont donc toujours été imprécises à l'est car il n'existe pas de relief ou de mer venant clairement scinder l'Eurasie. Les frontières géographiques de l'Europe sont donc plus politiques que physiques. Pour les Grecs, l'Europe ne s'étendait pas . Jusqu'au règne du tsar Pierre le Grand (1682-1725), la limite orientale de l'Europe est fixée au fleuve Tanaïs (actuel Don). Pierre le Grand mène une politique de réorientation de l'Empire russe vers l'Europe, en fondant Saint-Pétersbourg capitale ouverte sur la mer Baltique et en chargeant Vassili Tatichtchev de déplacer vers l'est la frontière de l'Europe. Ce dernier choisit le massif de l'Oural et le fleuve Oural. Au sud-est, la mer Caspienne, le massif du Caucase, la mer Noire et le détroit du Bosphore séparent l'Europe du Proche-Orient. Au sud et au sud-ouest, la Méditerranée et le détroit de Gibraltar séparent l'Europe de l'Afrique. Le continent est bordé à l'ouest par l'océan Atlantique et au nord par l'Arctique. Sont considérées comme européennes l'Islande (située géologiquement sur la séparation Eurasie-Amérique) et les principales îles de la Méditerranée ; le cas de Chypre est toutefois particulièrement sujet à débat, à la fois sur les plans géographique, culturel, politique et historique. Les cas de la Russie, de la Géorgie et de la Turquie sont emblématiques du hiatus politico-géographique. Ces nations ayant la plus grande partie de leur territoire en Asie (Russie) et au Moyen-Orient (Turquie), le plan politique ne recoupe pas le « plan » géographique premier. Ainsi, si la Russie est occidentale par sa culture, son histoire et une part de son territoire, son centre de gravité fait d'elle un quasi-continent, s'étendant du Pacifique jusque dans l'Europe. Ensuite la Géorgie conserve un territoire de part et d'autre du Caucase qui atteint la mer Noire. Le cas est plus complexe pour la Turquie, celle-ci possédant la majeure partie de son territoire au Moyen-Orient, et possédant par l'histoire une culture mixte entre la culture occidentale et moyen-orientale. Le Groenland, qui appartient au Danemark, est politiquement et culturellement rattaché à l'Europe bien que géographiquement situé en Amérique du Nord. Certains territoires, les régions ultrapériphériques, font partie de l'Union européenne quoique étant situés en dehors du continent (la communauté autonome espagnole des îles Canaries, les cinq départements et régions d'outre-mer français, la collectivité d'outre-mer française de Saint-Martin et les deux régions autonomes portugaises de Madère et des Açores). L'Europe a une superficie d'un peu plus de de kilomètres carrés (). Cela représente un tiers de l'Afrique, un quart de l'Asie et de l'Amérique. On peut distinguer cinq grandes régions géographiques : l'Europe de l'Ouest, l'Europe centrale, l'Europe du Sud, l'Europe de l'Est et l'Europe du Nord. L'organisation de l'espace montre un cœur économique, la « banane bleue » ou mégalopole européenne, qui comprend notamment l'Europe rhénane ainsi que les périphéries européennes. Les frontières orientales de l'Europe sont avant tout politiques : la limite de l'Oural est due aux cartographes du tsar Pierre le Grand au . De même, la frontière fut déplacée des hautes crêtes du Caucase vers la mer Caspienne au début du pour justifier l'annexion de la Géorgie et de l'Arménie dans l'Empire russe. D'un point de vue géologique, si l'on se réfère à la tectonique des plaques, l'Europe et la partie continentale de l'Asie ne sont qu'un seul et même continent, dénommé Eurasie. Aussi, quelques géographes éminents, tels qu'Alexander von Humboldt, considéraient-ils l'Europe comme une simple péninsule de l'Asie. Climat Le climat européen est conditionné notamment par son étalement en latitude du au parallèle nord, soit plus de entre les espaces scandinave et méditerranéen. De ce fait, le contraste de température est considérable entre l'extrême nord, moyenne annuelle environ comme dans l'archipel de Nouvelle-Zemble, et l'extrême sud, moyenne annuelle environ pour la Crète. L'Europe dispose d'une vaste zone côtière, et l'influence océanique atlantique et méditerranéenne contribuent à modérer les températures sur une bonne partie de l'Europe. Elle est située à l'est et au sud de l'Atlantique nord-est dont la température est notablement attiédie par la dérive nord-atlantique. Du fait de sa latitude, la majeure partie du continent est soumise au flux d'ouest dont la température a été auparavant adoucie par son passage sur cette partie de l'océan. Ce flux d'ouest n'est pas contrarié dans sa progression vers l'est en raison des grandes plaines largement ouvertes vers l'ouest dans la partie moyenne de l'Europe. En toutes saisons, ce flux est tempéré et porteur de perturbations assurant des pluies régulières. Au fur et à mesure de sa progression à l'intérieur des terres, ce flux subit les influences continentales : il devient moins tempéré et s'assèche progressivement, les précipitations devenant moins régulières. Vers l'est, les hautes pressions hivernales prennent de l'importance, font barrage au flux océanique et sont la source d'épisodes très froids et secs. Au nord, les montagnes scandinaves font obstacle aux vents d'ouest et entraînent un climat continental froid sur la partie orientale de la Scandinavie. Le flux océanique voit également son importance climatique diminuer au sud de l'Europe, à cause de la latitude, des hautes pressions estivales, et des barrières montagneuses conséquentes qui s'interposent la plupart du temps en direction de la Méditerranée. Tous ces facteurs expliquent la répartition des climats européens. Climat polaire La bordure de l'océan Arctique connaît un climat polaire sans véritable été (température de juillet inférieure à , ET dans la classification de Köppen) avec des précipitations faibles. L'hiver est froid ou très froid avec une température moyenne de janvier qui s'abaisse à vers l'est, il est assez perturbé du fait du voisinage de la mer. Climat océanique froid Les littoraux du Nord-Ouest, la bordure côtière de la Norvège, les îles au nord de l'archipel britannique, l'Islande connaissent un climat océanique frais avec une température moyenne dépassant pendant moins de quatre mois (). Les précipitations sont abondantes, généralement plus de par an et souvent beaucoup plus dès qu'il y a des reliefs un peu importants. Les pluies sont réparties en toutes saisons avec un maximum d'automne ou d'hiver. Les tempêtes d'automne et d'hiver sont très fréquentes. Bien qu'agité, l'hiver reste « tempéré » par rapport à la latitude, entre et pour le mois le plus froid. L'été est frais et la température moyenne de juillet est comprise entre et . Climat océanique tempéré Climat océanique à continental À l'est de cette zone, le climat, encore modéré par l'influence de l'océan, connaît une altération de ses caractéristiques quand on s'éloigne du littoral. La limite avec le domaine précédent est assez floue, cependant on peut considérer qu'à partir de quelques dizaines de kilomètres du littoral, dans la vaste zone de plaines ou de moyennes montagnes qui va du Bassin parisien au sud de la Scandinavie, à l'ouest de la Pologne et limitée par les contreforts des Alpes suisses et autrichiennes au sud, le climat est assez homogène sur une grande étendue. Il se continentalise peu à peu tout en conservant des caractéristiques modérées par rapport à la latitude (comme précédemment Cfb selon Köppen), les pluies deviennent un peu moins régulières, leur volume diminue progressivement, entre en plaine, sur les reliefs. Les pluies sont réparties très uniformément tout au long de l'année avec un maximum pluviométrique qui tend à devenir plutôt estival. Les tempêtes automnales et hivernales voient leur importance diminuer au fur et à mesure que l'on s'éloigne de l'océan, mais ne sont pas exclues. L'amplitude entre l'hiver et l'été ainsi que la fréquence des épisodes de température extrêmes augmentent progressivement mais les moyennes restent modérées par rapport à la latitude. La température du mois le plus chaud est comprise entre et du nord au sud, celle du mois le plus froid de à de l'ouest vers l'est. En France, cette zone correspond aux appellations traditionnelles de climat « parisien », « semi-océanique d'abri ». Un peu plus au sud, du Bassin aquitain jusqu'à une partie des Balkans hormis la plaine du Pô, le climat est encore océanique ou semi-océanique (Cfb dans la classification de Köppen), mais se distingue par ses températures d'été plus élevées (moyenne de juillet de à ) et par une multiplication des climats locaux du fait du relief beaucoup plus compartimenté. Les précipitations peuvent être importantes à proximité des reliefs exposés aux flux humides ou bien réduites dans les bassins abrités. Les étés sont plus orageux que dans le type précédent avec des précipitations plus irrégulières. Mais la chaleur moyenne de juillet reste en dessous de et l'été connaît encore des périodes de rafraîchissement épisodiques, ce qui est un trait des climats océaniques. Les hivers restent doux à proximité de l'océan mais nettement plus froids vers l'Europe centrale. La température du mois le plus froid (janvier le plus souvent) est comprise entre et de l'ouest vers l'est. En France, cette zone correspond aux appellations traditionnelles de climat « aquitain », « semi-océanique d'abri ». Climat continental À l'est des deux domaines précédents, à partir de la Pologne orientale, la façade orientale de la chaîne scandinave et les confins de l'océan Arctique au nord jusqu'à l'Oural vers l'est, jusqu'à la mer Noire, le Caucase et la Caspienne au sud apparaît le climat continental. L'hiver est froid avec blocage fréquent du flux océanique par l'anticyclone continental générateur d'épisodes très froids et secs. La moyenne de janvier va de de l'ouest à vers le nord-est. L'été, l'anticyclone continental disparaît et le flux atlantique pénètre plus librement à l'intérieur du continent, l'été est encore frais au nord mais il est de plus en plus chaud vers le sud, en juillet à la frontière du domaine polaire, jusqu'à près de la mer Caspienne (au nord, où les étés sont frais, nous sommes dans le domaine Dfc de Köppen, Dfb plus au sud, là où la moyenne dépasse durant au moins quatre mois). Les saisons intermédiaires sont courtes. Les pluies sont plus irrégulières avec un maximum de printemps ou d'été. Au nord du domaine, les étés sont assez pluvieux et restent frais avec une évaporation modérée, la sécheresse d'été est modérée. Vers le sud, la chaleur augmente ainsi que l'irrégularité des pluies, la sécheresse relative d'été s'intensifie et les abords de la Caspienne connaissent un climat steppique (BSk selon Köppen). Climat montagnard Les montagnes (Alpes, Pyrénées, Carpates, chaînes balkaniques, Caucase, Alpes scandinaves) connaissent le climat montagnard qui correspondent à peu près à celui des plaines environnantes mais modifiés par l'altitude. Celle-ci provoque un abaissement de la température, en toutes saisons mais davantage en été qu'en hiver et une augmentation des pluies pour les versants exposés aux vents pluvieux. Les reliefs multiplient les climats locaux du fait des différences d'expositions au soleil et du fait de la modification du régime des vents qu'ils induisent. Climat subtropical humide Dans la plaine du Pô et dans les Balkans bordant la mer Noire, les chaînes de montagnes font barrage au flux océanique, la chaleur estivale s'accentue avec une température moyenne de juillet supérieure à , les précipitations deviennent plus importantes en été. Selon la classification de Köppen, ce climat est appelé tempéré à étés chauds (Cfa). Les hivers sont assez variables, de assez doux comme sur les côtes occidentales de l'Adriatique, à assez froid (Bulgarie, Roumanie), mais toujours avec une température moyenne de janvier supérieure à . La température du mois le plus froid est comprise entre et de l'ouest vers l'est. Les influences océaniques concernent peu cette zone. Le cumul annuel des précipitations s'assèche progressivement vers l'est. Les pluies, encore réparties sur toute l'année, prennent cependant une importance estivale marquée, notamment sous forme d'orages. Climat méditerranéen Les régions bordant la Méditerranée (majeure partie de l'Espagne, Sud-Est de la France, Italie excepté les Alpes et la plaine du Pô, la Croatie, la Slovénie, l'Albanie, la Grèce et les îles méditerranéennes) connaissent un climat méditerranéen, Csa et Csb d'après Köppen. À l'écart du flux océanique humide du fait des montagnes et de la latitude, ce climat est caractérisé par une sécheresse estivale et un ensoleillement nettement plus important que dans les domaines précédents. Les pluies ne sont pas souvent apportées par le flux atlantique mais la plupart du temps par des perturbations qui se développent sur place, alimentées par l'air méditerranéen, ces perturbations sont moins nombreuses que les perturbations océaniques mais les pluies qu'elles apportent sont copieuses et parfois excessives. Le total pluviométrique annuel des régions méditerranéennes est à peu près le même que pour les domaines précédents mais la répartition des précipitations est beaucoup plus irrégulière. L'été est à peu près sec surtout près des côtes et dans le sud, les pluies de printemps et d'automne sont prédominantes au nord du domaine méditerranéen et celles d'hiver au sud. Suivant les effets d'abris ou au contraire suivant les effets de couloir induits par les reliefs environnants, ce domaine est calme ou au contraire très venté (mistral, tramontane, bora, etc.). Les températures hivernales sont douces sauf en moyenne montagne, en janvier, de l'intérieur vers la côte et du nord vers le sud. L'été est chaud à en juillet du nord vers le sud. Ce type de climat est généralement limité par les versants sud ou est des massifs montagneux : chaîne Cantabrique, Pyrénées, Alpes et Balkans. Sur le littoral atlantique, la limite se trouve à peu près au nord du Portugal. C'est à partir de cette zone que l'on observe des caractéristiques méditerranéennes marquées (chaleur et sécheresse d'été entraînant des feux de forêt réguliers, un ensoleillement élevé comparé aux régions océaniques). Fleuves et rivières L'Europe est assez bien arrosée par des fleuves et rivières, et pratiquement aucune zone n'est en stress hydrique. Trois fleuves d'Europe, le Rhin, le Rhône, et le Pô, prennent leur source dans les Alpes, quelquefois appelées pour cette raison le « château d'eau de l'Europe » (au moins de sa partie occidentale). Le Rhin se jette dans la mer du Nord, le Rhône dans la mer Méditerranée et le Pô dans la mer Adriatique. Le Danube prend sa source dans la Forêt-Noire et se jette dans la mer Noire. L'Elbe se jette dans la mer du Nord. La Vistule et l'Oder se jettent dans la mer Baltique. Le Dniepr, fleuve de plaine, se jette dans la mer Noire. La Volga et l'Oural se jettent dans la mer Caspienne. Biodiversité La faune et la flore de l'Europe ne présentent pas de caractéristiques propres à l'échelle du continent. Diverses espèces ou sous-espèces rencontrées en Europe ont cependant reçu l'épithète spécifique ou le nom subspécifique (« européen, européenne »). L'Europe regroupe plusieurs zones biogéographiques et une grande variété d'écosystèmes terrestres et marins, qui ont souvent été intensivement exploités, fragmentés et pollués. L’écosystème européen fait face à de nombreux problèmes de détérioration de l’environnement engendrés par certaines actions de l’être humain comme l’agriculture intensive, l’urbanisation couplé aux activités touristiques et de loisirs… L'Europe a été motrice pour de nombreux états-membres en matière de Droit de l'environnement avec notamment les directives Habitats et Oiseaux, bien que certains états membres (dont la France) les aient tardivement et incomplètement appliquées. Une directive-cadre sur l'eau est en cours d'application, des directives sur le sol et la mer sont en projet, et le est entrée en vigueur la nouvelle norme européenne pour limiter la pollution atmosphérique : les agglomérations de plus de de l'Union européenne ne doivent pas dépasser certaines valeurs limites : 50 microgrammes () de particules par mètre cube d'air ambiant doit être le seuil maximum pour 35 jours par an, et la valeur moyenne annuelle ne doit pas aller au-delà de 40 microgrammes. Cependant, les normes anti-pollution déjà en vigueur n'étaient déjà pas respectées : en 2002, sur 15 ont dépassé la marge autorisée. Depuis 1996, le conseil de l'Europe invite les états à construire ensemble un Réseau écologique paneuropéen et ils doivent appliquer, comme toutes les collectivités la directive 2003/4 concernant l'accès du public à l'information en matière d'environnement, la directive INSPIRE (Infrastructure d’information spatiale en Europe). Un futur Réseau européen de données d'observation et de surveillance (EMODNET / European Monitoring Observation. Data Network) est en construction. Pour mesurer l'état de l'environnement, les pressions et les réponses, l'UE s'est dotée d'une Agence européenne pour l’Environnement (AEE) qui applique maintenant la méthodologie LEAC (Land and Ecosystem Accounting - Comptabilité des écosystèmes et du territoire). Le système Corine Landcover et d'autres permettent d'harmoniser les cartes européennes de données environnementales. Bilan : malgré des efforts importants, comme dans la plupart des autres régions du monde, la biodiversité qui y fait l'objet d'évaluations périodiques, est globalement en recul (sauf pour certaines les espèces plutôt généralistes et banales). Les espèces invasives continuent à gagner du terrain. À ce titre, la commission européenne a publié le , une liste des trente-sept espèces à combattre pour éviter qu'elles ne portent préjudice aux espèces indigènes. Cette liste prévoit d’interdire l’importation, la vente, la reproduction, la culture ou l’élevage de ces animaux et végétaux qui menacent la biodiversité. Les objectifs européens en matière de lutte contre le changement climatique, et limitation des émissions de gaz à effet de serre, dont celui de -25 % pour 2020 semble difficile à tenir (pour les transports et l'agriculture notamment), la Pologne s'y opposant même avant que le 21 juin 2011, les ministres de l'environnement européens (en Conseil environnement) examinent un nouveau projet de feuille de route pour 2050 (économie européenne bas carbone) présentée par la Commission européenne le 8 mars 2011, confirmant l'objectif du Conseil d'octobre 2009 de réduire les émissions de gaz à effet de serre de 80 à 95 % en 2050 (par rapport à 1990), avec un calendrier de -40 % par rapport à 1990 en 2030, -60 % en 2040 et -80 % en 2050 (un pays s'est encore opposé à ces objectifs). En 2019, on compte 20 % d'oiseaux en moins en Europe qu'en 2000. Plus de 40 % des espèces d’arbres présents en Europe sont menacées d’extinction selon un rapport de l’Union internationale pour la conservation de la nature. L'organisation appelle l’Union européenne à agir, indiquant que « Les arbres sont essentiels à la vie sur terre et les arbres européens dans toute leur diversité sont une source de nourriture et d’abri pour d’innombrables espèces animales telles que les oiseaux et les écureuils ». En outre, la moitié des espèces d’arbustes présents en Europe sont menacées de disparition, ainsi qu’un cinquième des espèces de mollusques terrestres, tels que les escargots, et certaines espèces de bryophytes (plantes non vascularisées), comme des mousses. Histoire Préhistoire et protohistoire Contexte Le peuplement de l'Europe est conditionné par les cycles glaciaires et interglaciaires qui se succèdent, notamment au Pléistocène moyen (), et qui affectent la démographie des populations, créant notamment des périodes d'isolement géographique qui sont une des raisons de la différenciation des formes anciennes du genre Homo sur le continent. Homo naît et évolue en Afrique, où il s'affranchit d'abord du milieu forestier, puis connaît une expansion constante vers les latitudes moyennes d'Eurasie, puis les hautes latitudes. Cela est rendu possible par sa capacité à s'adapter aux changements d'environnement et par ses caractéristiques de prédateur, lesquelles culminent chez Néandertal l'Européen, devenu principalement un chasseur carnivore occupant le haut de la chaîne alimentaire, un superprédateur chasseur de gros gibier. Arrive ensuite Sapiens, venu d'Afrique, qui remplace l'espèce d'origine européenne qu'est Néandertal, et « toutes les autres humanités ». Peuplement humain Le genre Homo apparaît en Afrique, probablement vers dans la basse vallée de l’Omo, en Éthiopie, et il est attesté de manière certaine vers . Les premiers Homo erectus quittent l'Afrique et atteignent l'Eurasie il y a sans doute d'années, mais les dates et les chemins empruntés ainsi que certaines différenciations en espèces (H. erectus, H. ergaster, H. antecessor, H. heidelbergensis) sont encore discutées. Homo georgicus, parfois considéré comme un Homo ergaster européen, dont les restes ont été découverts en 2002 à Dmanissi, en Géorgie (Caucase), est le premier représentant du genre Homo attesté en Europe (et aussi l'un des plus anciens hors d'Afrique) ; il est daté d'environ . D'autres lui succèdent ; on a trouvé, à Kozarnika (Bulgarie), une industrie lithique, datant de et, en actuelle Espagne, des restes humains à Sima del Elefante (appartenant au site d'Atapuerca), datant de et à Orce, les restes de l'Homme d'Orce et de l'Enfant d'Orce, datant de . Le site d'Atapuerca a livré aussi des restes d'industrie lithique d'environ , et des restes humains ayant abouti à la description dHomo antecessor, daté d'env. , possible ancêtre de , attestant d'un peuplement continu de l'Europe occidentale depuis ainsi que de l'existence possible d'une migration à partir de l'Europe centrale, depuis Dmanissi (où a été découvert H. georgicus), et non pas via le détroit de Gibraltar. Jusqu'à H. antecessor, l'industrie lithique associée à ces peuplements est l'Oldowayen, technique des galets aménagés. Vient ensuite Homo heidelbergensis (lHomo erectus européen, , espèce à laquelle appartient, par exemple, l'homme de Tautavel), décrit à partir de plusieurs fossiles, retrouvés en Allemagne actuelle, à Heidelberg, d'où provient son holotype et en Espagne, sur le site d'Atapuerca ; H. heidelbergensis pourrait être l'ancêtre dH. neanderthalensis. L'industrie lithique associée aux heidelbergiens est l'Acheuléen, caractérisé par la technique des bifaces, attesté il y a en Europe mais né en Afrique il y a . À la même époque, vers , les Européens commencent à maîtriser le feu, étape importante de l'évolution, qui permet la cuisson des aliments et donc facilite l'assimilation des nutriments, et qui permet aussi de se chauffer, dans un environnement climatique globalement plus froid qu'actuellement, ce qui concourt à un processus de socialisation. Homo neanderthalensis, l'« Homme de Néandertal », naît il y a environ en Europe occidentale, issu sans doute d'une forme de spéciation (« spéciation par distance ») d, ou d'une dérive génétique (modèle d'accrétion), dans un contexte où l'Europe est isolée par les glaces du reste de l'ancien monde. Neandertal est très adaptable, il s'accommode des périodes glaciaires et inter-glaciaires et des environnements correspondants et s'étend massivement en Europe et au-delà, vers l'Asie Centrale et le Proche-Orient entre . Physiquement robuste et adapté au froid, Néandertal possède des capacités cognitives proches de celles de l'« Homme moderne » (Homo sapiens), il pratique des rituels, il enterre ses morts, le premier en Europe à le faire, et il pratique une forme d'art. Il est associé au Moustérien. Le nombre de néandertaliens (métapopulation) est compris dans une fourchette allant de quelques milliers à , donnant en tout état de cause une très faible densité de population. Homo sapiens, quant à lui, naît en Afrique, il y a environ . Sa présence hors d'Afrique, sous une forme archaïque, est attestée par des fossiles âgés de environ, en Israël (Grotte de Misliya). L'expansion de Sapiens se fait en plusieurs vagues, lesquelles empruntent probablement un chemin passant par Bab-el-Mandeb, détroit entre la péninsule arabique et l'Afrique, outre celui par le Nil et le Proche-Orient, mais les premières n'atteignent pas l'Europe. Les vagues de Sapiens évolués qui atteignent l'Europe partent d'Afrique vers et leurs plus anciennes traces en Europe datent de (Grotta del Cavallo). À partir de , H. sapiens commence sa colonisation de l'Europe, dans un mouvement d'est en ouest. À ce moment, il a déjà eu l'occasion de se métisser avec Néandertal, leurs chemins s'étant croisés au Proche-Orient et à l'est de l'Eurasie. Ce métissage entre Néandertal et Sapiens est sans doute favorable à ce dernier ; venu beaucoup plus récemment d'Afrique, il est plus adapté aux basses latitudes et il acquiert par ce métissage des avantages évolutifs, notamment de résistance au froid. Sapiens progresse en Europe et, concomitamment, les néandertaliens régressent, se retrouvant confinés dans des zones refuges avant de disparaître vers avec des populations relictuelles perdurant jusqu'à , non sans laisser leurs traces génétiques dans l'actuelle population humaine. Les causes de la régression puis de la disparition de Néandertal sont plurifactorielles et toujours discutées. La peau de ces Homo sapiens était sombre, adaptée à leur origine africaine et aux régions très ensoleillées. Ce n'est que récemment, il y a , que les chasseurs-cueilleurs européens ont disposé des gènes responsables de la peau pâle. Les premiers Hommes modernes européens développent des industries diverses (Uluzzien, Bohunicien, Châtelperronien, attribué à Néandertal, Lincombien-Ranisien-Jerzmanowicien) ; deux d'entre elles, l'Aurignacien (env. ) puis le Gravettien (env. ) se répandent largement en Europe. Ces expansions sont concomitantes à des mouvements de populations, retracés par la génétique, eux-mêmes corrélés aux fluctuations climatiques de l'époque. L'Aurignacien est caractérisé notamment par le développement du travail des matières osseuses (bois de rennes et os de mammouths), rare jusqu'alors, à des techniques de débitage de lamelles ainsi qu'à des objets de parure et au développement de l'art ; la grotte Chauvet, occupée à l'Aurignacien () et au Gravettien (), en est un exemple. Dès , à une période particulièrement froide, on trouve des traces de sédentarisation partielle dans l'est de l'Europe, sous la forme de campements bénéficiant d'infrastructures d'habitation (à la différence des abris de plein-air), autour desquels ont été retrouvés des sépultures et des statuettes d'argile. Mais Sapiens reste néanmoins, fondamentalement, un chasseur-cueilleur mobile nomadisant sur des distances de quelques centaines de kilomètres. Entre se produit un intense refroidissement, le « maximum glaciaire » qui donne à l'Europe une configuration nettement différente de l'actuelle. Les études génétiques montrent que certains groupes, d'abord représentés en Europe du Nord-Ouest, sont repoussés dans le sud de l'Europe. C'est le moment où apparaît l'industrie lithique solutréenne, caractérisée par des pointes en pierre très fines et acérées, appelées « feuilles de laurier », servant sans doute de couteaux et armant l'extrémité des flèches et des sagaies. Émergent l'usage du propulseur et (probablement) de l'arc pour la chasse mais ces deux outils, cependant, ne se généraliseront qu'au Magdalénien qui lui succède. On a longtemps pensé que le Solutréen était aussi l'époque de l'invention de l'aiguille à chas jusqu'à la découverte, en 2016 en Sibérie, d'un tel artefact, daté de , attribué à l'Homme de Denisova. Le Magdalénien est caractérisé par un art pariétal particulièrement riche, comme en témoignent les grottes de Lascaux et d'Altamira, et par le travail des matières osseuses. La dernière période glaciaire s'achève de manière brutale. Un premier réchauffement rapide se produit vers , la température du Groenland augmente de plus de , c'est ce qu'on nomme le Bölling, qui libère des glaces une grande partie de l'Europe du Nord et de la Scandinavie, permettant leur peuplement depuis le sud. Avec ce retrait des glaces, de nouveaux apports de populations à partir du Proche-Orient font sentir leurs effets. Plus tard, vers , un retour à des conditions glaciaires se traduit par des températures extrêmement froides avant un réchauffement final, vers , qui marque la fin de la dernière glaciation et l'entrée dans l'Holocène avec l'instauration du climat actuel ; cela coïncide avec les débuts de l'extinction de la mégafaune européenne (mammouth laineux, rhinocéros laineux, cerf géant, ours des cavernes), sans doute pour des raisons climatiques probablement aggravées par la prédation humaine. Le paysage et sa faune se recomposent, la forêt tempérée progresse en Europe à partir de , la chasse à l'arc se généralise et l'alimentation des hommes du Mésolithique devient extrêmement diversifiée (les escargots par exemple, sont consommés en très grande quantité dans certaines niches écologiques). Industries et cultures en Europe Néolithisation La néolithisation de l'Europe commence vers par diffusion de populations et de techniques apparues vers dans le croissant fertile, elle s'accompagne d'une forte croissance démographique. Elle est probablement autant due à un changement culturel qu'aux conditions climatiques. Les indicateurs de la néolithisation sont la domestication des plantes et des animaux (celle du chien étant cependant largement antérieure), la tendance à la sédentarisation (la sédentarisation précède cependant l'agriculture) avec le regroupement en villages et l'émergence de la poterie pour des contenants destinés au stockage de produits agricoles. Ce sont les débuts des sociétés agropastorales et la naissance du mégalithisme. Cette néolithisation, venue du croissant fertile via l'Anatolie, emprunte deux chemins ; d'abord un courant méditerranéen par lequel se diffuse la culture de la céramique imprimée suivie de la culture de la céramique cardiale () ; ensuite un courant danubien, par lequel se diffuse la culture rubanée (vers ). Les études génétiques montrent que, outre une diffusion culturelle, l'Europe connaît l'arrivée de populations d'agriculteurs, venues d'un foyer anatolien, qui ont suivi ces chemins danubien et méditerranéen. Les îles britanniques, en configuration insulaire depuis , connaissent ce processus plus tardivement, près d'un millénaire après celui de l'Europe continentale. La néolithisation est largement effective en Europe vers . Des hypothèses linguistiques et archéologiques de la deuxième moitié du (l'hypothèse kourgane étant la plus largement reconnue) et des études génétiques du début du accréditent la thèse que des populations, ayant domestiqué le cheval et maîtrisant l'équitation ainsi que le transport en chariot, seraient venues de l'est de l'Europe, la steppe pontique, et se seraient répandues sur le continent à partir de , le dominant largement ; elles contribuent pour 75 % à l'ADN des peuples de la céramique cordée, héritière de la culture de la céramique rubanée, largement présente en Europe à ce moment. Leur foyer d'origine est la culture Yamna’’. Elle se caractérise par sa pratique de l'inhumation dans des tumuli nommés « kourganes ». Ils seraient aussi les locuteurs du proto-indo-européen, langue-mère de la quasi-totalité des langues européennes. Georges Dumézil, au début du , postule que les sociétés d'origine indo-européenne partagent jusqu'à nos jours un mode de pensée, l'idéologie tripartite. L'agriculture européenne commence sur les bords de la mer Égée, aux environs de Elle s'installe progressivement sur le continent, dans la zone danubienne et l'actuelle Hongrie (), sur les côtes méditerranéennes et le territoire de la France actuelle vers , en Germanie et sur le territoire des actuels Pays-Bas vers ; elle atteint les îles britanniques vers Vers apparaît le travail du cuivre, qui conjugué à celui de la pierre, caractérise le Chalcolithique ; des outils agricoles métalliques plus efficaces apparaissent, l'araire se développe à la place de la houe. La civilisation minoenne, inspiratrice de la culture grecque, apparaît vers avec sa langue écrite en linéaire A, une des plus anciennes formes d'écriture en Europe avec les hiéroglyphes crétois. À son apogée, elle sera la première civilisation avancée de l'âge du bronze. L'âge du bronze date de la fin de la culture campaniforme, laquelle, entre et , couvre une notable partie de l'Europe de l'Ouest. Germains Le commencement des Germains se situe vers le en Suède méridionale, au Danemark et en Allemagne du Nord entre la Weser et l’Oder. Ils s'établissent dans la grande plaine européenne, du Rhin à la Vistule et de la Baltique au Danube, entre le et le début de l'ère chrétienne. Leur expansion vers le sud est arrêtée par l' () puis par les Romains (). On distingue trois groupes linguistiques : le nordique, celui des Scandinaves ; l’Ostique ou Germains orientaux, celui des Goths, des Vandales, des Burgondes ; enfin les Westiques (Germains occidentaux), en Allemagne, au Jutland et aux Pays-Bas. Celtes Les Celtes s'installent entre l’âge du bronze moyen (env. ) et le début de l’âge du fer (env. ) dans une grande partie de l’Europe, du bassin des Carpates à l’est de la France. Leur origine est le centre de l'Europe, où étaient apparues les cultures caractérisées par leurs coutumes funéraires de l'enterrement sous tumulus ( - ) puis par la technique consistant à incinérer les cadavres et à conserver leurs cendres dans des urnes (civilisation des champs d'urnes, - ). Le noyau celte se situe à Hallstatt, en actuelle Autriche. Aux débuts de l'âge du fer, leur société, relativement égalitaire, se stratifie avec, à son sommet, des chefs militaires. Cela est probablement en lien avec la métallurgie du fer et, notamment, la conception d'armes, telles les épées droites caractéristiques, et la confection de pièces de harnachement plus efficaces qui donnent de l'importance aux cavaliers armés. Les Celtes excellent en effet dans le travail du fer, fabriquant, outre des armes, des outils tels que haches et ciseaux. Ils confectionnent aussi des poteries, ils inventent la tonnellerie, et ils exploitent le sel gemme, dont le commerce est source de richesse. On leur doit aussi, avec un apogée aux , les habitats structurés autour d'un oppidum, centre fortifié à vocation militaire, économique et cultuelle. La période laténienne ou deuxième âge du fer, commençant au , est celle où les Celtes passent de la protohistoire à l'histoire, lorsqu'ils apparaissent dans les textes des auteurs grecs. Antiquité L'Europe antique est, pour notable partie, une Europe celtique, celle des peuples héritiers de la culture des tumulus, et en partie germanique, aux côtés de la Grèce antique et de sa brillante civilisation de l'Époque classique (), considérée comme le berceau culturel de la civilisation occidentale. Pour ce qui concerne le terme et le concept, le mot « Europe » désigne d'abord, dans son acception géographique, la Grèce continentale. Le terme est mentionné pour la première fois vers , par Hésiode, dans sa Théogonie. Anaximandre et Hécatée de Milet produisent, entre 600 et , des cartes représentant un territoire appelé Europe. Le mot prend aussi un sens politique lorsque les Grecs sont confrontés aux invasions venant d'Asie, principalement lors des guerres avec l'empire perse. Selon Jacqueline de Romilly, . L'Europe en tant qu'entité géographique se retrouve chez Ératosthène au , lequel présente une tripartition du monde connu par une carte où elle figure. Mais la distinction fondamentale durant l'antiquité est celle entre les Barbares, qui habitent ce qu'en latin on nomme barbaricum (« pays des Barbares »), et ceux qui appartiennent à l'aire culturelle grecque, puis gréco-romaine. Le royaume de Macédoine désigne l'Europe comme une entité politique : lorsque part en Orient, en , il laisse en Macédoine un régent, Antipatros, qui porte le titre de « stratège d'Europe ». Après l'époque hellénistique, l'Europe voit Rome commencer son expansion au et atteindre son apogée au . L'Europe est reconfigurée, son histoire devient celle de l'Empire romain pour la zone concernée. La Grèce et le royaume de Macédoine sont supplantés au Les Celtes, qui se sont largement répandus en Europe, allant jusqu'à menacer Rome en , pris en tenaille par les attaques des tribus germaniques venues du nord, sont repoussés ou assimilés. À l'aube de l'ère chrétienne, les Romains, lorsque leur zone d'expansion dépasse la « ceinture celtique », se retrouvent entourés par les Germains qui deviennent . Les frontières orientales de lImperium, limites avec les peuples germaniques, sont le Rhin et le Danube, tandis que sa frontière septentrionale est le mur d'Hadrien, qui le sépare des Pictes celtes. À cette époque, entre et , Strabon rédige une géographie qui mentionne l'Europe et, déjà, des descriptions non seulement géographiques, mais aussi économiques et culturelles des territoires qu'il étudie. Au , Varron évoque une bipartition du monde au niveau du Bosphore, les parties situées au nord-ouest du détroit constituant l’Europe, celles situées au sud-est, l’Asie. Toujours au , Pline l'Ancien divise le monde en trois parties, l'Europe, l'Asie et l'Afrique. Les Celtes présentent une certaine unité linguistique et culturelle, mais pas d'intégration politique ; ils bénéficient d'une organisation tribale, au plus en ligues de tribus, à l'instar des Germains. C'est donc l'Empire romain qui contribue à créer les prémices d'une unité européenne. Si la Grèce est le berceau culturel de l'Europe, Rome peut être considérée comme le berceau de sa civilisation. L'influence romaine s'inscrit dans la culture, formant ce qu'on nomme la culture gréco-romaine via la langue latine, ainsi que dans les territoires et dans l'usage de l'espace via les voies romaines et l'urbanisation et esquisse même une Europe religieuse en diffusant le christianisme à partir du . Les sont ceux de la Pax Romana, période de calme relatif, notamment politique, malgré des batailles toujours existantes sur les marches de l'Empire, notamment avec les peuples germaniques pour ce qui concerne la zone européenne. L'Empire est l'entité politique unificatrice définissant le mode de gestion politique ainsi que les limites (et les frontières, qui sont une forme particulière de limites), qui séparent le monde romain de celui des barbares. Le est une période de crise interne pour l'Empire romain qui subit aussi une pression croissante des peuples germaniques, invasions difficilement repoussées. L'empire intègre nombre de ces envahisseurs par des traités, faisant d'eux des fédérés qui fournissent des troupes à l'armée. Une Tétrarchie est mise en place en pour lutter contre les Barbares et, au , « Europe » désigne l’une des six provinces du diocèse de Thrace dont le territoire correspond à . Le christianisme, dont les adeptes sont par périodes persécutés, notamment au par Dioclétien, s'était répandu dans l'Empire, comme en témoigne l'épisode symbolique de la conversion de l'Empereur Constantin et l'édit de tolérance religieuse de Milan en En , il est déclaré religion officielle de l'Empire par Théodose et les autres cultes sont interdits. Même si, à ce moment, les chrétiens sont nettement minoritaires dans la population, cette christianisation officialisée aura une importance, donnant, au moment des royaumes barbares, une légitimité religieuse à un pouvoir royal qui en était, à l'origine, dépourvu. En , l'Empire est définitivement scindé en deux, l'Empire romain d'Orient et l'Empire romain d'Occident. Le premier perdure : Inversement, dès le , l'Empire d'Occident se délite sous l'effet des attaques des peuples germains, appelées les invasions barbares : . En Europe occidentale, la déposition du dernier empereur romain d'Occident en marque conventionnellement le passage de l'Antiquité au Moyen Âge. Moyen Âge En Europe occidentale, la lente déliquescence de l’Empire romain d'Occident qui aboutit à la désunion et à l’émergence de nations parfois éphémères, au gré des invasions et conquêtes, ne fera jamais oublier l’héritage romain qui reste un modèle d’unité et de droit pour l’Europe, de l’Empire carolingien jusqu’à l’Empire napoléonien en passant par le Saint-Empire romain germanique. Les liens entre places commerciales européennes émergent. Poursuivant la politique de conquête de ses prédécesseurs francs, Charlemagne étend son royaume. Sa politique d’expansion rejoint le désir de la papauté romaine d'asseoir la prépondérance de l’évêque de Rome par rapport aux patriarches orthodoxes et coptes. Le jour de Noël de l'an 800, Charlemagne est couronné empereur des Romains par le pape Léon , à Rome, en la basilique Saint-Pierre. Cette union entre pouvoir temporel et religieux vise à réunir l’Europe en un empire chrétien d’Occident. De son vivant, Charlemagne se fait appeler Pater Europae (« père de l'Europe »), et parfois Europa vel regnum Caroli (l’Europe, ou le royaume de Charles). L’Europe occidentale de Charlemagne est franco-germanique et chrétienne de rite latin, alors que l’Europe orientale sous l’influence de Constantinople est à dominante slave et de rite grec, mais les deux tendent à christianiser l’Europe du Nord, britannique, scandinave et russe. Alors qu’à Constantinople se concentrent les deux pouvoirs religieux et politique, en Occident le rôle de Rome y est essentiellement religieux, la capitale de Charlemagne se trouvant à Aix-la-Chapelle. Charlemagne tente une réunification avec l’Empire romain d'Orient vers l’an 800 mais il échoue, et son empire se désagrège rapidement après sa mort. En 962, Otton crée le Saint-Empire romain germanique, mais celui-ci ne peut s’étendre, contrecarré par la permanence de royaumes anciennement constitués, la France et l’Angleterre surtout, par ses luttes avec la papauté, puis par le développement de l’Empire ottoman lors de l’époque moderne. L’Empire romain d'Orient (dit, depuis le , « byzantin ») est chrétien et de culture essentiellement grecque : il connaît d’importantes fluctuations de sa force et par conséquent de son territoire, qui s’étend à son apogée sur une grande partie du rivage méditerranéen, d’abord sous Justinien, puis sous les empereurs macédoniens, du au . Au cours des siècles, ses relations avec l’Occident se distendent puis se détériorent, alors que les musulmans montent en puissance à l’Est et s’emparent de la moitié de l’Anatolie au . Le schisme religieux de 1054 et l’agression militaire venue de l’Ouest en 1202 affaiblissent l’Empire d’Orient qui finit dépecé morceau par morceau par l’Empire ottoman avant de disparaître lors de la chute de Constantinople en 1453. . Temps modernes L'axe européen Bruges/Venise est déplacé à la fin du Moyen Âge. À l'époque où l'Empire d'Orient s'effondre, la Reconquista espagnole touche à sa fin. L'année 1492 est celle de l'Espagne, avec la reconquête du dernier royaume maure (Grenade) en péninsule Ibérique et le premier voyage de Christophe Colomb, sous l'égide des Rois catholiques qui va ouvrir la voie à l'établissement des hégémonies européennes. Le rêve d'un grand empire européen renaît au lors de l'affrontement entre François et Charles Quint, qui tous deux se disputent le trône du Saint-Empire. Grâce à l'appui des banquiers Fugger, Charles Quint l'emporte, se retrouvant à la tête d'un domaine très vaste, mais aussi très morcelé. Les diverses guerres menées contre la France ne donnent aucun résultat : durant deux siècles, le découpage de l'Europe va évoluer au gré des alliances matrimoniales et des guerres entre États. C'est face à la montée en puissance de l'Empire ottoman qu'une union des États chrétiens d'Europe apparaît : « Nous tenons de Gadès à l’Isler, une zone qui s’étend entre les deux mers et qui est la très courageuse et la très puissante Europe. Là, si nous nous unissions, nous ne serions pas seulement égaux à la Turquie, mais supérieurs à toute l’Asie » (Jean Louis Vivès). Mais ce ciment du christianisme catholique, qui donnait un semblant d'union à cette Europe occidentale, éclate en morceaux avec la Réforme (ou plutôt les Réformes), dont l'impact politique est considérable, permettant néanmoins la formation des Provinces-Unies et de la Confédération suisse. Les guerres de religion, la guerre de Trente Ans, les guerres de Louis XIV rythment les . Les traités de Westphalie (1648) et celui du traité des Pyrénées en 1659, redessinent durablement la carte politique de l'Europe et l'équilibre des forces en présence. L'Époque moderne est marquée par un renforcement des nationalismes en tous genres. C'est aussi l'époque où l'Europe s'étend très loin de ses frontières par la constitution des premiers empires coloniaux sur le continent américain, puis en Inde. Époque contemporaine La Révolution française inaugure un bouleversement politique très important : les idées démocratiques apparaissent sur le devant de la scène et les campagnes de Napoléon puis le Congrès de Vienne vont remodeler profondément la carte de l'Europe et les mentalités. Honoré de Balzac a cette déclaration optimiste dans Le Bal de Sceaux, (1830) : « Le seizième siècle n'a donné que la liberté religieuse à l'Europe, et le dix-neuvième lui donnera la liberté politique. » À la fin d'un long processus, le voit se réaliser l'unité de l'Italie (de 1861 à 1870) et de l'Allemagne (en 1871), ainsi que la constitution de plusieurs nouveaux pays dans les Balkans, issus du démembrement de l'Empire ottoman, appelé alors « l'homme malade de l'Europe ». C'est aussi l'apparition de nouveaux mouvements politiques prônant plus d'égalité (socialismes), voire le démantèlement du pouvoir des États (anarchismes). Ces idées se diffuseront par la suite, et avec plus ou moins de retard, largement hors des frontières de l'Europe. La domination politique et économique de l'Europe sur le reste du monde s'est affirmée après qu'elle a bouleversé son économie lors des révolutions industrielles, développant sa productivité et amorçant une forte explosion démographique. Leur avance technologique, et notamment militaire, permit aux pays européens, en concurrence les uns contre les autres, d'étendre leur emprise sur les autres continents. Cette colonisation connut son apogée au début du (cet apogée s'achève en 1914), avant que les deux guerres mondiales ne bouleversent l'ordre établi. La Première Guerre mondiale et ses conséquences favorisent l'émergence de plusieurs régimes totalitaires dont ceux, génocidaires, d'Adolf Hitler et de Joseph Staline. L'instabilité politique et économique débouche sur la Seconde Guerre mondiale et la domination nazie qui laissent l'Europe exsangue. Alors que la suprématie des pays européens occidentaux disparaît au profit de deux nouvelles superpuissances (les États-Unis et l'Union soviétique), des mouvements de libération se développent dans les colonies, aboutissant à l'indépendance de nombreux pays, notamment au cours du troisième quart du . Au cours de la Guerre Froide, l'Europe est scindée en deux blocs idéologiquement opposés, et séparées par un rideau de fer, le bloc de l'Ouest, zone d'influence des États-Unis, et le bloc de l'Est où se mettent en place des dictatures communistes patronnées par l'U.R.S.S. La séparation perdurera jusqu'à l'effondrement du bloc communiste, en 1989-1991. Parallèlement, alors que l'excédent démographique de l'Europe était tel qu'elle constituait un réservoir d'émigration massive tout au long du et au début du , les pays du continent furent confrontés à une stabilisation à partir de la Première Guerre mondiale, et parfois à une régression démographique ensuite (les guerres, génocides et famines y contribuant). Après la Seconde Guerre mondiale, l'Europe occidentale connaît un « baby-boom » et un développement continu de l'économie, dont principalement l'industrie de production et de transformation, qui provoqua un appel de main d'œuvre transformant cette moitié de l'Europe en une terre d'immigration, notamment au cours des Trente Glorieuses. Au même moment, la construction de l'Union européenne crée un marché commun entre États européens. Démographie Population L’Europe est au début du , quand on considère sa densité de population, le troisième foyer de peuplement derrière la Chine et l'Inde, avec des densités de populations parmi les plus élevées au monde dans certaines zones des Pays-Bas, de la Belgique, du Royaume-Uni, de l’Allemagne ou de l'Italie, d’autant que l’exode rural s’est renforcé ainsi que l’attractivité des littoraux avec des populations de plus en plus urbaines. En termes absolus, l'Europe et, a fortiori, l'Union européenne, est cependant un « nain démographique ». Le continent (env. d'habitants ; UE env. d'habitants) se situe derrière l'Asie (env. d'habitants dont env. d'habitants pour la Chine et env. d'habitants pour l'Inde), l'Afrique (env. d'habitants) et l'Amérique (env. d'habitants) ; l'Eurasie, quant à elle, concentre environ d'habitants. En 2005, le Conseil de l'Europe soulignait que depuis quelques décennies l’UE devait sa croissance démographique à l'immigration qui, dans les années 2000, est devenue le premier, puis le seul facteur d’augmentation de la population totale de l’UE. Ainsi deux millions de personnes sont venues s'installer en Europe en 2004 alors que l'accroissement naturel était négatif de . L'Allemagne est le pays le plus peuplé de l'UE. En 2007, de personnes, soit 16 % de la population de l'UE, résidaient dans des communes côtières. Histoire démographique récente Malgré les dizaines de millions de morts des deux guerres mondiales, l’Europe a connu une période d’explosion démographique aux , qui s’est accompagnée d’une forte pression sur l’environnement et les ressources non renouvelables (cf. empreinte écologique, empreinte énergétique, pression urbanistique, pollutions, etc.). Depuis quelques décennies, la population européenne tend à se stabiliser, à la suite d'une forte diminution de la natalité, qui reste toutefois encore largement compensée par la natalité de certains pays, par le recul de l’âge auquel les femmes font leurs premiers enfants, et surtout par une immigration régulière. L'immigration est le premier moteur de la croissance dans une Union européenne à la population vieillissante. Le boom économique des années 1950-1960 avait poussé l'Europe à faire appel à une immigration massive, souvent issue de ses ex-colonies. Les Chinois, Indiens et Africains constituent l'un des principaux flux d'immigrants non originaires de l'UE. Après les Turcs, les Marocains forment le plus gros contingent. Les études prospectives pour 2050 varient d’une population diminuant de 3 % (dans l'hypothèse d'un ISF remontant à 2,34), à -22 % voire -50 %. Les experts parlent alors de retournement démographique ou d'hiver démographique. Que la diminution soit due à la natalité est un phénomène inédit jusqu'à nos jours dans le monde. Ces chiffres ci-dessus doivent tous être utilisés avec prudence, la prospective démographique ayant toujours été prise en défaut et pouvant elle-même influer en retour sur les comportements individuels et collectifs et sur les politiques de soutien à la natalité ou à l’immigration. Pour d'autres, la population de l'Union européenne (UE) serait de de personnes en 2050 selon l'Organisation de coopération et de développement économiques (OCDE), et en 2060 selon Eurostat. La population de l'UE dépasserait ainsi celle des États-Unis ( de personnes en 2060 selon le Centre américain d'études sur l'immigration). Disparités géographiques Toutefois, la situation démographique diffère pour chaque pays européen. Les pays de l'Europe de l'Est se sont inquiétés des évolutions démographiques dès les années 1960 et ont mis en place des politiques d'encouragement à la natalité. Cependant, les moyens utilisés, comme l'interdiction de l'avortement, n'auraient pu être acceptés au même moment en Europe de l'Ouest. Ces mesures n'ont d'ailleurs généralement pas produit d’effet satisfaisant ; et si la Pologne a maintenu sa population au cours de la période communiste, l'influence de l'Église catholique, qui imprègne la société polonaise, a sans doute été plus efficace que la politique nataliste. Pour les pays d'Europe de l'Ouest, personne ne se risque, entre autres en Allemagne, à mettre sur la place publique l'évolution de la population sur la longue durée. Pour les responsables, tout passe par la politique d'immigration. Ils ne veulent pas toucher au tabou de la politique familiale en faveur de la fécondité, compte tenu du poids de la mauvaise conscience des années hitlériennes. La situation démographique empire en Europe pourtant : un rapport annuel sur la situation démographique des pays membres demandé autrefois par les autorités communautaires a été abandonné depuis 2000, désormais remplacé par un « Rapport social », où l'on communique à propos de chômage et de pauvreté sans jamais plus effleurer la dimension démographique. Autrement dit, l'UE s'interdit de voir la situation démographique de ses pays membres. La croissance démographique s’est globalement poursuivie pour les membres de l'Union européenne, mais la population décroît dans certains pays, notamment en Europe de l'Est. Ce déclin démographique semble plus important et plus rapide dans les ex-pays de l’Est, dans quelques pays où la pauvreté et le renforcement des inégalités ont suivi l’effondrement du communisme, et aussi dans les régions touchées par la catastrophe nucléaire de Tchernobyl (la Biélorussie qui a reçu 70 % environ des retombées d'iode et de césium radioactifs et connaît depuis le plus fort taux d’avortement et le taux d’abandon d’enfants y est élevé). Langues Avec plus de d'habitants et sur une surface réduite pour une moyenne d'une langue pour d'habitants, l'Europe bénéficie d’une grande richesse ethnoculturelle et une pluralité de langues. Les cultures germaniques, slaves, latines et finno-ougrienne sont traduites par la diversité des langues parlées : et dialectes ont des racines indo-européennes ; latines et grecques au sud, germaniques au nord et au nord-ouest ; slaves à l'est et en Europe centrale, seul le groupe des langues finno-ougriennes (regroupant le finnois, estonien et le hongrois) et la langue basque ne font pas partie des langues indo-européennes. Administrativement, l’allemand, l’anglais, le russe, le français, l'espagnol et l’italien dominent mais l’Europe est linguistiquement beaucoup plus riche puisque les européens (tous souverains, hormis Gibraltar) de la grande Europe géographique regroupent officielles, enrichies de secondaires non officielles. À tel point qu'Umberto Eco dit : « la langue de l'Europe, c'est la traduction ». Andreas Kaplan décrit l'Europe comme « offrant un maximum de diversité culturelle en un minimum de distance géographique ». Ces précédents chiffres peuvent paraître élevés, mais ils ne représentent que 3 % du total des langues vivantes encore parlées sur la planète. En Europe de l’Ouest (France, Espagne, Royaume-Uni, Italie, etc.) les langues vernaculaires sont souvent régionales et minoritaires, parfois au bord de l’extinction, mais certaines (breton, alsacien, basque, corse, catalan, occitan, flamand, le dernier étant un dialecte du néerlandais), , et enseignées en France, plutôt à l’université, mais parfois dès l’enfance : école Diwan en Bretagne. En Espagne, c’est le cas du basque, du catalan et du galicien. Pour le Royaume-Uni, c’est le gallois, le gaélique écossais, le scots et l’irlandais. Le français est reconnu en Italie dans le Val d’Aoste, ainsi que le sarde en Sardaigne, le frioulan, l'allemand et le slovène dans le Frioul-Vénétie julienne, le ladin et l'allemand dans le Trentin-Haut-Adige, comme le sont le féroïen aux îles Féroé, ou le frison occidental aux Pays-Bas, etc. Une langue unique n’est officiellement parlée : l’Islande (où l’on parle islandais), Malte (où la seule langue officielle est le maltais), le Liechtenstein (où l'on parle allemand), et la République de Saint-Marin (où l'on parle italien). L'État de la Cité du Vatican (plus petit État européen) est un cas à part : l’italien y est la langue véhiculaire, le latin (réputé langue morte) y est la langue juridique, le français y est la langue diplomatique (le Vatican se fait enregistrer comme État francophone auprès des organisations internationales), et l'allemand est la langue en usage dans l'armée (la Garde suisse). - Les autres États comptent tous plusieurs langues vernaculaires, tant dialectes que langues à part (plus ou moins reconnues et souvent non enseignées) et jusqu’à plus de l'Allemagne (), l'Azerbaïdjan (13), la Bulgarie (11), l'Espagne (14), la France (25), l'Italie (33), la Roumanie (14), le Royaume-Uni (12). La vaste Russie regroupe à elle seule à statut officiel sur son territoire. La Suisse possède quatre langues officielles : l'allemand, le français, l'italien et le romanche (cousine du ladin et du frioulan). Certaines langues régionales, sans statut officiel (quoique doublant parfois les noms de communes ou de rues) persistent et sont parfois protégées et enseignées, souvent avec le soutien de collectivités locales ou régionales (breton, corse, occitan en France, sarde, ladin, frioulan en Italie, lapon en Scandinavie). Les systèmes d'écriture en Europe reposent sur l'alphabet latin (sous diverses variantes), l'alphabet grec, l'alphabet cyrillique (sous diverses variantes). Aux langues originaires des pays d’accueil s’ajoutent les langues maternelles des populations circulantes (Roms), migrantes ou réfugiées, et tout particulièrement l'arabe, le berbère, le turc, l'hindi, etc. L'Europe a été confrontée au cours de son histoire aux besoins de langues véhiculaires. Ainsi la lingua franca, langue composite (mélange d'arabe, de français, portugais, espagnol, italien ou occitan, le tout variant dans le temps et l'espace), a été utilisée du Moyen Âge jusqu'au par les marins et dans les ports de la Méditerranée. De nombreux projets de langues construites sont apparus en Europe, avec notamment la création de l'espéranto en 1887, seule langue construite devenue langue vivante. Religions Sur une population totale d'environ d'habitants en 2010, l'Europe compte environ de catholiques (35 %), d'orthodoxes (27 %), de protestants (14 %) et de musulmans (6 %). Les personnes n'ayant pas de religion ou pratiquant une autre religion sont environ (18 %). Selon l'historien Geert Mak il existe au moins quatre communautés de culture et de traditions en Europe : la protestante du Nord, la catholique latine, la grecque orthodoxe et l'ottomane musulmane. Cependant les religions reculent en Europe comme en Occident au profit de l'athéisme ou de l'agnosticisme Le christianisme est la religion dominante en Europe et y est divisée en trois grandes confessions, (protestantisme, orthodoxie et catholicisme), réparties géographiquement de la façon suivante : l'Europe du Nord, à tendance protestante (Royaume-Uni, Scandinavie, Pays-Bas, Allemagne, Pays baltes) ; l'Europe de l'Est, à tendance orthodoxe (Grèce, Macédoine du Nord, Russie, Ukraine, Roumanie, Serbie, Bulgarie) ; l'Europe du Sud, de l'Ouest et du Centre, ainsi que la Pologne et la Lituanie à tendance catholique (Portugal, Espagne, Suisse, Italie, France, Belgique, Allemagne du sud, Irlande, Pologne, Autriche, Croatie, Slovénie, Ouest de l'Ukraine). Les catholiques sont majoritaires dans vingt-trois pays, les orthodoxes dans treize, les protestants dans neuf, les sunnites dans quatre (Albanie, Bosnie-Herzégovine, Kosovo et Turquie), les chiites dans un (Azerbaïdjan), et les « sans religion » dans deux (Tchéquie et Pays-Bas). Il existe des minorités religieuses à l'intérieur de ces grands ensembles dont la plus importante est l'islam avec de musulmans soit près de 6 % de la population européenne totale : les musulmans sont fortement présents dans les Balkans, autrefois sous l'ancien Empire ottoman (Albanie, Bosnie-Herzégovine, Kosovo, Macédoine du Nord, Monténégro et Turquie), ainsi que dans le Caucase (Azerbaïdjan), en Russie, et, des suites de l'immigration, en France, Royaume-Uni, Allemagne, Espagne, Pays-Bas, Belgique Selon le Zentralinstitut Islam-Archiv-Deutschland, le nombre de musulmans en Europe en 2007 était d'environ dont dans l'Union européenne, en Russie, dans la partie européenne de la Turquie ; les juifs sont présents en Europe depuis l'Empire romain, ils ont été persécutés depuis le Moyen Âge et pendant la Seconde Guerre mondiale lors de la shoah. Et ils ont été expulsés de la péninsule ibérique et du Sud de l'Italie en 1492 à la suite du décret de l'Alhambra ; les religions extrême-orientales, connaissant un succès grandissant, par goût de l'exotisme ou attrait sincère, ou du fait des communautés asiatiques immigrées en Europe ; les Kalmouks de la république de Kalmoukie (division administrative de Russie, près d'Astrakhan), sont le seul peuple autochtone européen qui pratique traditionnellement le bouddhisme ; il existe aussi des minorités païennes dans différentes républiques européennes de la Fédération de Russie comme en Ossétie du Nord-Alanie (Etseg Din), en Karatchaïévo-Tcherkessie (Rodnovery), en république des Maris (Marla), en Oudmourtie (Udmurt Vos) et en Tchouvachie (Vatissen Yaly). Systèmes familiaux Selon Emmanuel Todd, les systèmes familiaux en Europe sont d'une grande diversité. Politique Les pays qui ont tout ou partie de leur territoire sur le continent européen ou sont culturellement rattachés à l'Europe (selon les limites géographiques définies plus haut) sont au nombre de 51 : ont tout leur territoire en Europe : Albanie, Allemagne, Andorre, Autriche, Belgique, Biélorussie, Bosnie-Herzégovine, Bulgarie, Croatie, Danemark, Espagne, Estonie, Finlande, France, Grèce, Hongrie, Irlande, Islande, Italie, Kosovo, Lettonie, Liechtenstein, Lituanie, Luxembourg, Macédoine du Nord, Malte, Moldavie, Monaco, Monténégro, Norvège, Pays-Bas, Pologne, Portugal, Tchéquie, Roumanie, Royaume-Uni, Saint-Marin, Serbie, Slovaquie, Slovénie, Suède, Suisse, Ukraine et Vatican ; sont en partie en Europe, en partie en Asie : Azerbaïdjan, Géorgie, Kazakhstan, Russie et Turquie ; sont culturellement rattachés à l'Europe, quoique situés en Asie : Arménie et Chypre. Évolution du nombre d'États Le nombre d'États souverains en Europe, qui s'élevait à plus de trois cents en 1789, était encore d'une soixantaine en 1815, au lendemain du congrès de Vienne. Après l'unification de l’Italie et de l’Allemagne, ce nombre était tombé à 19 en 1871 (20 avec la Turquie, qui contrôlait encore la majeure partie de la péninsule des Balkans). Il passa à 22 en 1878, lorsque le congrès de Berlin reconnut l'indépendance de la Roumanie, de la Serbie et du Monténégro. S'y ajoutèrent ensuite la Norvège (1905), la Bulgarie (1908) et l’Albanie (1912). En 1914, l'Europe comptait donc généralement reconnus comme indépendants, non compris le Saint-Siège, l'ordre souverain de Malte et le territoire neutre de Moresnet : Albanie, Allemagne, Andorre, Autriche-Hongrie, Belgique, Bulgarie, Danemark, Espagne, France, Grèce, Italie, Liechtenstein, Luxembourg, Monaco, Monténégro, Norvège, Pays-Bas, Portugal, Roumanie, Royaume-Uni, Russie, Saint-Marin, Serbie, Suède, Suisse. La forme de gouvernement la plus répandue était la monarchie, puisqu'on ne dénombrait alors que quatre républiques (la France, le Portugal, la Suisse et Saint-Marin) . À la fin de l'année 1945, le nombre d'États était passé à 31 : Albanie, Allemagne, Andorre, Autriche, Belgique, Bulgarie, Danemark, Irlande, Espagne, Finlande, France, Grèce, Hongrie, Islande, Italie, Liechtenstein, Luxembourg, Monaco, Norvège, Pays-Bas, Pologne, Portugal, Roumanie, Royaume-Uni, Saint-Marin, Suède, Suisse, Tchécoslovaquie, URSS, Vatican, Yougoslavie. Plus de la moitié d'entre eux (19 sur 31) étaient encore des monarchies, y compris l'Albanie, la Bulgarie, l'Espagne, la Grèce, la Hongrie, l'Irlande, l'Italie et la Roumanie qui vivaient alors sous un régime transitoire. Depuis 1975, le nombre de monarchies s'est maintenu à douze, à savoir sept royaumes, un grand-duché, trois principautés et un État pontifical. Parmi les nombreux États qui connurent une existence éphémère au lendemain des deux guerres mondiales, on peut citer les républiques autonomes de Rhénanie et du Palatinat (1923/1924), les villes libres de Dantzig (1920/1939), de Fiume (1920/1924), de Memel (1920/1923) et de Trieste (1947/1954), ainsi que le territoire de la Sarre, qui disposa d'un statut particulier de 1920 à 1935 et de 1947 à 1957. Le nombre d'États européens parut se stabiliser à 34 avec l'accession à l'indépendance de Chypre (1960) et de Malte (1964). Il devait se maintenir à ce niveau jusqu'à la chute du mur de Berlin, en 1989. Après la réunification de l'Allemagne et l'éclatement des anciennes fédérations communistes (URSS, Yougoslavie, Tchécoslovaquie), puis avec la séparation de la Serbie et du Monténégro, le nombre d'États européens officiellement reconnus comme indépendants s'élevait à 45 en 2006 (50 avec l'Arménie, l'Azerbaïdjan, la Géorgie et tout ou partie de la Turquie et du Kazakhstan). Encore ce chiffre ne prend-il pas en compte les nombreux pays ou territoires dont le statut est contesté (Abkhazie, Chypre du Nord, Haut-Karabagh, Kosovo, Ossétie du Sud-Alanie, Principauté de Sealand, Tchétchénie, Transnistrie) Par ailleurs, Israël fait partie de nombreuses associations européennes culturelles ou sportives (UEFA par exemple). L'Algérie, l'Égypte, Israël, le Liban, la Libye, le Maroc, la Syrie et la Tunisie font partie de l'Union européenne de radio-télévision. Le Maroc a participé au Concours Eurovision de la chanson en 1980 et Israël y participe depuis 1973. Ainsi, pour Pierre Beckouche, l’Europe est d’ores et déjà partie prenante d’un vaste ensemble macro-régional, appelé « Euroméditerranée », qui va de la Russie au Maroc en passant par le Moyen-Orient et qui est traversé de flux économiques, culturels et migratoires plus intenses qu'imaginés. Unité européenne De nombreuses visions d'une Europe unie se sont affrontées au cours de l'histoire du continent, jusqu'à l'Union européenne actuelle. L'Europe n'a jamais connu d'unité politique parfaite. Certaines périodes d'une durée variable ont certes été marquées par la domination d'une vaste partie du continent par un pouvoir unique, qui s'est en général imposé par la force - ce fut ainsi le cas de l'Empire romain, de l'Empire carolingien, de l'Empire napoléonien et du Reich. Certaines familles royales ont également, par le biais de relations dynastiques, gouverné un grand nombre de pays européens, au premier rang desquelles la famille des Habsbourg. Mais on voit, tant hétéroclite est cette liste de candidats à l'hégémonie, que des projets d'unification européenne concurrents et divergents se sont affrontés sans qu'aucun ne parvienne vraiment à s'imposer. L'Empire romain est longtemps demeuré dans la mémoire des Européens comme symbole d'une unité perdue. Après sa chute en Occident en 476, Théodoric, Justinien, Charlemagne poursuivirent le rêve de la résurrection de l'Empire. Au Moyen Âge, la Papauté parvint enfin à s'imposer aux yeux d'une majorité de l'Europe comme l'héritière légitime de Rome, et à imposer au continent une forme d'unité, sous la forme de la Chrétienté médiévale : certes, les Papes ne possédaient qu'un pouvoir temporel limité sur les princes et les rois, mais jouissaient d'une autorité morale, religieuse et même juridique puissante. Surtout, la Chrétienté se conçoit elle-même comme une communauté, matérialisée positivement par l'union dans les croisades et négativement par la procédure de l’excommunication, avec des droits et des devoirs partagés (par exemple le respect des trêves et jours saints), et étendue au gros du continent (à l'exception des terres orthodoxes). La crise de la Chrétienté, l'affirmation des États proto-nationaux, l'affaiblissement de la Papauté, et surtout la Réforme qui brise l'unité de la Chrétienté font naître la nécessité de repenser ce qui fait l'unité de l'Europe. C'est donc de la Renaissance que l'on peut dater la naissance de l'idée européenne moderne. Au , déjà, des projets sont agités pour offrir paix et unité à l'Europe ravagée par des guerres intestines (Guerre de cent ans guerre hussite, guerres civiles de l'Espagne), dépeuplée par la grande peste, désunie spirituellement par le Grand Schisme d'Occident et les hérésies (Wyclifisme, hussisme, pour ne nommer que les principales), menacée par l'expansion de l'empire du Grand Turc avec la prise de Constantinople. C'est le cas, par exemple, du projet d'union chrétienne de George de Podiebrad. Les Humanistes multiplieront les initiatives, aux , pour créer une Europe pacifiée et harmonieuse. Tandis que les évangéliques rêvent d'une Chrétienté rénovée, affranchie de la tutelle de Rome, des irénistes cherchent à réaliser la concorde entre les princes, sous l'égide d'une Raison médiatrice et partagée. Stefan Zweig loue en Érasme l'éblouissante incarnation de l'idéal européen des humanistes, lui qui institua un latin rénové comme langue de culture paneuropéenne, correspondant dans cette langue avec des intellectuels de tout le continent, et rêva d'une Europe réalisant par le pouvoir d'attraction de sa culture la concorde de l'humanité. Surtout, pour Zweig, Érasme fut celui qui prophétisa que l'union de l'Europe ne se ferait pas par la guerre, mais par des moyens pacifiques. On peut citer, parmi d'autres illustres précurseurs, Andrés Laguna de Segovia, qui en 1543 se lamentait sur la pauvre Europe déchirée et exsangue. C'est peu de dire, toutefois, que le rêve humaniste ne devait pas immédiatement se réaliser. Certes, il exerça une influence certaine, même sur les élites politiques, devenant un idéal volontiers invoqué par les princes ; ainsi lors de la signature en 1518 du traité de Londres, instaurant une « Paix Perpétuelle ». Mais la paix de 1518 fut rompue dès l'année suivante, et, dans le sillage de la Réforme, l'Europe s'enfonça dans la spirale sanglante des guerres de religion, en France et surtout en Allemagne, culminant dans le paroxysme de la Guerre de Trente Ans, qui embrasa le continent. La Paix de Westphalie qui mit fin à cette guerre ne fonda pas une union de l'Europe, mais au contraire officialisa une organisation de celle-ci fondée sur l'équilibre de puissances souveraines et régulièrement en guerre. Ce système qui régulait mais approfondissait la division européenne devait persister, perfectionné au par l'instauration de congrès réguliers, et renouvelé en 1815, jusqu'à la Première Guerre mondiale. Toutefois, cela n'empêcha pas que fleurissent, portés par des visionnaires, des projets d'union de l'Europe. Pour ne citer que des Français, Sully et Rousseau y ont rêvé ; en 1712, l'abbé Castel de Saint-Pierre rend public son Projet pour rendre la paix perpétuelle en Europe, et reçoit le soutien du philosophe Leibniz. Le rêve européen reprend de la vigueur au , après la boucherie des guerres de la Révolution et de l'Empire. Dans une Europe dominée par la Sainte-Alliance, où triomphent tout ce que le Vieux Continent compte de réactionnaires, il est doté d'un nouveau contenu, social et humanitaire. Avant le Printemps des peuples en 1848, les républicains, démocrates et socialistes de toute l'Europe espèrent qu'une révolution ouvrirait la voie, conjointement, à une union pacifique du continent et à une réforme de ses sociétés dans un sens démocratique et égalitaire. Victor Hugo a rêvé qu'un jour existeraient les « États-Unis d'Europe »}, pendants des États-Unis d'Amérique, utopie humanitaire et prélude à l'unité de toute l'humanité. Son discours prononcé le , à l'occasion de l'ouverture du Congrès de la Paix à Paris, est resté célèbre. Il y évoque une Europe enfin pacifiée, unie sous un même gouvernement. La suite de l'Histoire prouva qu'il s'agissait d'une vision prophétique en avance sur son temps, avec la guerre de 1870 et les deux guerres mondiales. Mais surtout, la « mystique européenne » fut vivement réactivée après la Première Guerre mondiale qui se chargea de démontrer, si besoin était, à un grand nombre d'intellectuels à quel point la guerre était absurde. Seule une Europe unie pouvait éviter le retour de l'horreur. Conscient du déclin de celle-ci face à l'Amérique (Albert Demangeon - 1920), ils cherchent la voie la plus sûre pour unifier le continent. L'héritage culturel grec, le droit romain et l'unité chrétienne sont conçues par Paul Valéry comme les trois piliers de l'Europe, lors d'une conférence donnée à l'université de Zurich le . En 1923, le comte Richard Coudenhove-Kalergi publie Paneuropa, ouvrage dans lequel il développe sa vision d'une Europe forte de d'individus, dont il exclut la Russie et la Grande-Bretagne, l'une considérée comme « asiatique » et l'autre plus préoccupée de toute manière par son Empire planétaire (vision partagée alors par les Britanniques eux-mêmes). C'est une vision qui s'appuie sur une analyse géopolitique d'un monde divisé en grands blocs antagonistes. Il rencontre un tel écho dans le monde intellectuel qu'il peut réunir à Vienne en 1926 un congrès avec plus de venus de différentes (l'un des premiers adhérents à son mouvement est le jeune maire de Cologne, Konrad Adenauer). Il trouve aussi le soutien de Louis Loucheur et Aristide Briand (qui sera d'ailleurs nommé président d'honneur du mouvement), mais dans l'ensemble les politiques ne le suivent pas et on le soupçonne parfois de travailler pour l'Allemagne. Quoi qu'il en soit le mouvement Pan-Europe est fondé et survit jusqu'à nos jours (un membre de la famille des Habsbourg en est le président). Le même Aristide Briand, alors président du Conseil, pourra s'appuyer sur ce mouvement pour appeler à la création d'une « sorte de lien fédéral » devant l'assemblée de la Société des Nations (SDN) en 1929. Le , en accord avec les instances dirigeantes de la SDN, il remet aux autres gouvernements européens un mémorandum sur « l'organisation d'un régime d'Union fédérale européenne ». Il essuie un refus poli : c'est un échec. La crise et la montée en puissance des totalitarismes étouffent progressivement tout espoir de construction européenne. L'Allemagne nazie conçoit l'Europe selon une vision pangermaniste, raciste et centrée autour d'une grande Allemagne. L'Europe n'est plus qu'un réservoir de matières premières et de main-d'œuvre, destinée à nourrir la machine de guerre nazie. Mais la résistance pense aussi l'Europe, et tandis qu'elle mène le combat intérieur partout en Europe contre le fascisme et le nazisme, ses membres les plus éminents se réunissent afin de dessiner les contours d'une Europe post-Seconde Guerre mondiale. Après la guerre Churchill appelle à son tour de ses vœux à l'unité européenne et crée un mouvement qui fusionne très peu de temps après avec celui de Richard Coudenhove-Kalergi. Devant ce qui est perçu comme le danger soviétique, les États-Unis lancent un vaste programme de reconstruction de l'Europe avec le plan Marshall. Celui-ci conditionne la formation d'une Europe financière appuyée sur des politiques monétaires concertées (création de l'OECE - Organisation Européenne de Coopération Économique). Il faut désormais attendre la déclaration Schuman du pour assister à la relance du vieux projet d'union européenne, cette fois lancée par étape, en commençant par l'un des secteurs économiques phares pour les Français comme pour les Allemands, l'industrie de la houille et de la sidérurgie. En plaçant ces productions sous la houlette d'une Haute Autorité, c'est le consentement prudent mais définitif d'un abandon de souveraineté qui transparaît. La CECA (Communauté Européenne du Charbon et de l'Acier) née le par la signature du Traité de Paris, elle réunit six États européens : le Luxembourg, la Belgique, les Pays-Bas, l'Italie, la RFA et la France. L'Europe est en marche. . Organisations supranationales UE : Union européenne () : → Pays membres de la zone euro () : → Pays non-membres de la zone euro () : → non-membres de l'Union européenne, mais ayant signé des accords spécifiques avec celle-ci au sein de l'Union douanière de l'Union européenne : AELE : Association européenne de libre-échange () : Conseil de l'Europe et Cour européenne des droits de l'homme (), tous ceux listés ci-dessus ainsi que les suivants : V4 : Groupe de Visegrád () : Conseil nordique () : EuroMed 7 () : Assemblée balte () Benelux () La Biélorussie et le Vatican sont les deux seuls États européens souverains et indépendants à n'être membres d'aucune organisation supranationale européenne. Cependant, le Vatican dispose d'un statut d'observateur au Comité des ministres du Conseil de l'Europe et fait également partie de la zone euro, tandis que la Biélorussie est candidate à l'adhésion au Conseil de l'Europe depuis 1993. ALECE : Accord de libre-échange centre-européen CCRE-CEMR : Conseil des communes et régions d'Europe CECA : Communauté européenne du charbon et de l'acier CE : Communauté européenne OECE : Organisation européenne de coopération économique EEE : Espace économique européen Économie L'Europe, ou plus précisément l'Union européenne, est l'un des pôles de la triade (États-Unis, Union européenne et Japon). Ces pôles centralisent 70 % de la richesse pour 14 % de la population. Si l’Europe est la région la plus riche et développée du monde, elle n'est pas un espace économiquement homogène: tous les pays européens ne sont pas des pays développés : l'Ukraine et la Moldavie font exception et sont classés comme pays à développement moyen avec un IDH inférieur à 0,8. L’Europe de l'Ouest et l'Europe du Nord très prospères contrastent avec certaines régions moins riches d'Europe centrale, d'Europe de l'Est (Moldavie, Ukraine, certaines régions de Roumanie, Russie) et d'Europe du Sud (Albanie, Serbie, Macédoine du Nord, certaines régions de Bulgarie, Italie du Sud, certaines régions d'Espagne, de Grèce et du Portugal). La mégalopole européenne constitue le cœur économique de l'Europe. On peut ainsi distinguer principalement les pays de l'ancien bloc de l'Ouest, développés et avec une croissance faible et les pays de l'ancien bloc de l'est moins développés mais à plus forte croissance. L’Union européenne, principal ensemble de la région, est en 2015 la deuxième puissance économique du monde. Tous ses pays membres commercent entre eux librement grâce au marché commun, et dix-huit de ses pays ont accentué leur collaboration au sein de la zone euro. Des accords de libre-échange ont également été passés avec des pays partenaires, comme la Suisse. L'Europe est un producteur important de céréales, de fruits et légumes, et de sucre, grâce aux cultures de betteraves, très développées en Ukraine et dans le nord de la France. Sur les six premières années de la décennie 2010, le continent a confirmé sa troisième place au palmarès des grands producteurs mondiaux de sucre, malgré un léger déclin, derrière les deux géants, le Brésil et l'Inde. Parmi les points forts de son agriculture, l'Europe était aussi troisième au palmarès des producteurs mondiaux de céréales au milieu des années 2010, dominé par les États-Unis. Culture Parler de culture de l'Europe est difficile, car de nombreuses cultures s'y sont succédé (et ont souvent assimilé des apports extra-européens) depuis plusieurs millénaires. Une définition de la culture de l'Europe doit nécessairement aussi tenir compte des limites géographiques du continent. Le tourisme culturel tient une place singulière en Europe, elle est une des clés de l'avenir permettant d'assurer une puissante force d'attraction pour l'Europe. Elle touche essentiellement l'audience des musées, des monuments et des évènements culturels. Et donne lieu à des déplacements vacanciers. Par conséquent, elle est une mine de recette considérable pour les pays européens. L'activité touristique s'est notablement enrichie depuis une vingtaine d'années, et les modes de visite des touristes ont beaucoup évolué. Le tourisme étranger en France en est une vivante illustration. Notes et références Notes Références Voir aussi Bibliographie En français Ouvrages, par ordre alphabétique : . . . . . . Lien web : . Articles : . . En anglais Ouvrages : . . Article : . Articles connexes Limites de l'Europe Union européenne Conseil des communes et régions d'Europe Démographie de l'Europe Liste des pays d'Europe par superficie Liste des agglomérations d'Europe Géopolitique de l'Europe au XXIe siècle Liens externes PopulationData.net – Europe Réseau d'information Europe Direct Histoire : Le Continent des Ténèbres – Résumé du livre de Mark Mazower Le Continent des ténèbres'' retraçant les grandes lignes de l'histoire politique du continent au Cartes : ''' Cartes de l'Europe politique et atlas physique de l'Europe de l'an 1 à l'an 2000 Cartes sur le site de L'UE Éponyme d'une épithète spécifique
1012
https://fr.wikipedia.org/wiki/Euro
Euro
L'euro (€) est la monnaie unique de l'union économique et monétaire, formée au sein de l'Union européenne ; elle est commune à dix-neuf États membres de l'Union européenne qui forment ainsi la zone euro. Quatre micro-États (Andorre, Monaco, Saint-Marin et le Vatican) et deux bases britanniques situées à Chypre (Akrotiri et Dhekelia) sont également autorisés à utiliser l'euro et deux pays européens non-membres, le Monténégro et le Kosovo l'utilisent . D'autres pays ont leur monnaie nationale liée à l'euro du fait d'un amarrage antérieur au franc français ou à l'escudo portugais : Bénin, Bosnie-Herzégovine, Burkina Faso, Cameroun, Cap-Vert, Comores, Congo (Brazzaville), Côte d'Ivoire, Gabon, Guinée équatoriale, Guinée-Bissau, Mali, Niger, Nouvelle-Calédonie, Polynésie française, Wallis-et-Futuna, République centrafricaine, Sao Tomé-et-Principe, Sénégal, Tchad, Togo. En usage sous sa forme scripturale le , il est mis en circulation le à minuit sous sa forme fiduciaire. Il succède à l'ECU, mise en service en 1979. L'euro est la deuxième monnaie au monde pour le montant des transactions, derrière le dollar américain et devant le yuan chinois. Depuis , elle est la première monnaie au monde pour la quantité de billets en circulation. Au , il y avait billets en circulation dans le monde, pour une valeur totale de , ainsi que pièces de monnaie pour une valeur totale de , l'ensemble représentant la somme de . Fonctionnement L'euro est géré par la Banque centrale européenne (BCE) qui siège à Francfort et par l'Eurosystème, composé des banques centrales des États de la zone euro. En tant que banque centrale indépendante, la BCE est l'unique instance ayant le pouvoir de fixer une politique monétaire pour l'ensemble de la zone euro. L'Eurosystème participe à l'impression, la frappe et la distribution des billets et pièces dans tous les États membres ; il veille également au bon fonctionnement des systèmes de paiements au sein de la zone euro. Le traité de Maastricht, signé en 1992, oblige la plupart des États de l' à adopter l'euro dès qu'ils respectent certains critères monétaires et budgétaires, dits de convergence. Le Royaume-Uni et le Danemark ont cependant obtenu des options de retrait, tandis que la Suède (qui rejoint l' en 1995, soit après la signature du traité de Maastricht) refuse d'introduire l'euro, après un référendum négatif en 2003, et contourne au surplus l'obligation d'adopter l'euro en ne respectant pas un des critères de convergence. Néanmoins, tous les pays qui adhérent à l' depuis 1993 se sont engagés à adopter l'euro en temps voulu. Émission et contrôle La gestion de l'euro dépend du contrôle de la Banque centrale européenne qui en mesure les flux, la masse monétaire, ainsi que les dettes des États membres. Pièces et billets Pièces Toutes les pièces en euro possèdent une face européenne commune (1, 2 et : l'Europe dans le monde ; 10, 20 et : l'Europe comme une alliance d'États ; 1 et : l'Europe sans frontière) et une face spécifique au pays émetteur (y compris Monaco, Saint-Marin, le Vatican et Andorre, États en union monétaire avec leurs voisins immédiats qui sont autorisés à frapper leurs propres pièces). Une nouvelle série de pièces est frappée depuis fin 2007 avec un décalage d'un an pour la monnaie italienne (qui frappe aussi les pièces du Vatican et de Saint-Marin). Se calquant sur la pratique décidée pour les billets de banque, elle représente désormais l'ensemble du continent européen (membre ou non de l'Union), afin d'éviter de devoir frapper de nouvelles séries à chaque élargissement. Les frontières n'y apparaissent donc plus. Toutes les pièces sont utilisables dans tous les États membres, à l'exception des pièces de collection, qu'elles soient ou non en métal précieux, qui n'ont cours que dans le pays d'émission. Des problèmes de compatibilité sont cependant relevés sur certains automates (distributeurs automatiques, péages…). Il existe également des pièces de collection, souvent en métal précieux, qui n'ont cours légal que dans leur pays d'émission. Par exemple, gravée par Joaquin Jimenez (qui est également l'auteur de l’Arbre Étoilé des pièces de 1 et ), une pièce de en argent est frappée à deux millions d'exemplaires en 2008. Des pièces de 10 à , en argent et en or, sont mises en circulation de 2008 à 2010. Billets Les billets, quant à eux, ont une maquette commune à toute la zone euro. Les ponts, portes et fenêtres des billets symbolisent l'ouverture de l'Europe sur le reste du monde et les liens entre les peuples. Le choix du graphisme des billets est de la compétence de la Banque centrale européenne alors que celui des pièces est de la compétence des États membres de l'Eurogroupe. La prochaine face commune a ainsi été décidée lors d'une réunion de l'Eurogroupe. Cette décision provoque une petite polémique de la part de quelques députés par l'absence, selon eux volontaire, de la Turquie sur le dessin retenu, au contraire de celui des billets. Le , un nouveau billet de est mis en circulation ; il est le premier d'une nouvelle série de billets baptisée Europe. Le , c'est un nouveau billet de 10 euros qui fait son apparition. Puis, le , c'est le nouveau billet de 20 € qui est mis en circulation. Le billet de 50 € est mis en circulation le . Enfin, les nouveaux billets de 100 et 200 € sont introduits le 28 mai 2019. Le , la Banque centrale européenne annonce qu'elle va modifier les billets d'ici à 2024. La BCE souhaite consulter plusieurs experts (artistes, historiens, designeurs) venant de tous les pays et réunis en comités et sous comités, puis soumettre les différentes thématiques au vote du public, mais la décision finale reviendra au conseil des gouverneurs. En 2019, les billets de banques étaient encore utilisés dans des transactions, et la BCE considère leur graphisme comme étant d'importance cruciale. Suppression du billet de 500€ La disparition du billet de 500 euros était envisagée, tenant compte des préoccupations selon lesquelles cette coupure pourrait faciliter les activités illicites (en particulier dans le cadre de la lutte contre le financement du terrorisme). Cette décision a été prise par la Banque centrale européenne le 4 mai 2016. Cependant, si l’arrêt de production du billet a été décidé, l'arrêt de l’émission des billets n'est effective qu’en début d’année 2019 (initialement prévu fin 2018), le temps nécessaire à la production et l’émission supplémentaires de coupures de 100 et 200 euros. Ainsi, à partir du 27 janvier 2019, dix-sept des dix-neuf BCN ont cessé d’émettre les billets et seules l’Allemagne et l’Autriche ont continué d’émettre cette coupure jusqu’au 26 avril 2019 pour des raisons logistiques. Après cet arrêt d'émission, la coupure de 500 euros gardera toujours sa valeur et pourra être échangée auprès des banques centrales nationales de l’Eurosystème pendant une période illimitée. Depuis cette décision, les billets rentrent en nombre aux guichets des banques centrales (plus de dix mille billets pour le mois de mai 2016). Allié au fait qu'ils étaient, à l'exception de l'Allemagne et l'Autriche, très peu utilisés dans la vie courante, il y a de fortes probabilités que, de facto, sa fonction ne se limite à l'avenir qu'à une valeur de réserve et de thésaurisation. Il est à noter que si en France on trouve difficilement des billets d'une valeur supérieure à 50 euros, ce n'est pas le cas en Belgique où des distributeurs de billets permettent d'obtenir des coupures de 100 et de 200 euros, ces dernières valeurs ayant remplacé les billets de 500 euros dans les distributeurs belges qui en proposaient jusqu'en 2018. Historique Avant Maastricht L'euro n'est pas la première monnaie à vocation européenne (et internationale). En effet, l'Union latine, née en 1865 à l'initiative de , marque une union monétaire, ou supranationale, signée et partagée par la France, la Belgique, la Suisse, l'Italie, la Grèce et, plus tard, l'Espagne et le Portugal, puis la Russie et certains pays d'Amérique latine. La Première Guerre mondiale (1914-1918) met fin à ce projet d'unification monétaire. Le projet de créer une monnaie commune naît dans les années 1970 avec les turbulences du régime agrimonétaire, depuis la mise en œuvre de la Politique agricole commune, en 1962, et l'impossibilité de mettre en place un système de taux de change contrôlable. Dès les années 1970 existe l'European Currency Unit. Les négociations de Maastricht La décision de créer l'euro est officialisée lors du traité de Maastricht. Lorsque les négociations sont engagées, les responsables savent qu'économiquement la constitution de la zone euro est un défi. En effet, les économistes savent, depuis les travaux de Robert Mundell (dans les années 1950) que, pour que des pays aient intérêt à avoir une même monnaie, ils doivent : être intégrés économiquement ; ne pas avoir des économies qui réagissent trop différemment aux chocs économiques ; ; parmi ces mécanismes, Jean Pisani-Ferry cite les . Lorsque la monnaie commune est créée, les décideurs savent que, si les asymétries entre pays européens ne sont pas plus grandes qu'entre états américains, malgré tout, les pays du cœur de l'Europe (Allemagne, France, et quelques autres) présentent des divergences moins marquées que celles qu'on peut trouver avec les pays de la périphérie. Ils savent aussi que les mécanismes d'ajustement sont faibles. Par ailleurs, Paul Krugman souligne alors que l'intégration va favoriser le regroupement des industries dans les mêmes régions économiques, ce qui creusera les divergences entre les pays au lieu de les réduire. Pour Jean Pisani-Ferry, les responsables politiques des pays décident de passer outre, pour trois raisons : ils doivent faire face aux aléas des changes flottants, comme le montre la création, dans les années 1970, du serpent monétaire européen, puis du Système monétaire européen ; la libéralisation des capitaux les oblige soit à adopter des politiques monétaires similaires, soit à laisser flotter leur monnaie, ce qu'ils ne veulent pas faire, comme on l'a vu au point un ; pour des raisons politiques : en effet, à partir de 1983, la France doit suivre la politique monétaire allemande mais aurait aimé participer au pilotage d'une monnaie européenne d'autant que, selon Jean Pisani-Ferry, . Par ailleurs, le chancelier allemand Helmut Kohl, un fervent Européen, comprend que l'adoption de l'euro permettra de lever les craintes des autres Européens à propos de la réunification de l'Allemagne. Le est alors une des trois grandes monnaies mondiales, avec le dollar et le yen. Deux visions s'opposent : D'un côté, celle qui prévaut, d'un pacte de stabilité avec une surveillance multilatérale assez faible, reposant sur l'idée que si chacun gère sainement ses finances publiques et son économie, l'évolution serait positive. D'un autre côté, certains (tel Jacques Delors) prônent le respect du pacte au sein d'une zone euro plus pro active, s'inscrivant dans le cadre d'une « coopération renforcée ». La zone euro, dans cette optique, aurait notamment participé à l'établissement . La position de la France n'était pas forcément celle, fédéraliste, de Jacques Delors. En effet, d'après Jean Pisani-Ferry, lors des négociations, François Mitterrand s'oppose avec succès à l'Union politique qui sous-tend le projet fédéral. Par ailleurs l'idée des fédéralistes français qui, sous le vocable de gouvernement économique, entendent surtout réaffirmer le lien entre monnaie et État s'oppose à celle des Allemands pour qui la monnaie n'est pas tant celle d'un état que d'une communauté. Passage à l'euro L'euro est créé par les dispositions du traité de Maastricht, en 1992. Pour participer à la monnaie commune, les États membres sont censés répondre à des critères stricts tels qu'un déficit budgétaire de moins de 3 % de leur PIB, un endettement inférieur à 60 % du PIB (deux critères qui sont régulièrement bafoués après l'introduction de l'euro), une faible inflation et des taux d'intérêt proches de la moyenne de l'. Lors de la signature du traité de Maastricht, le Royaume-Uni et le Danemark obtiennent des options de retrait pour ne pas participer à l'union monétaire qui se traduirait par l'introduction de l'euro. De nombreux économistes tels que Fred Arditti, Neil Dowling, Wim Duisenberg, Robert Mundell, Tommaso Padoa-Schioppa et Robert Tollison participent à la création de la monnaie commune. L'appellation « euro » est officiellement adoptée à Madrid, le . L'espérantiste belge, Germain Pirlot, ancien professeur de français et d'histoire, est désigné pour dénommer la nouvelle monnaie ; il envoie une lettre au président de la Commission européenne, Jacques Santer, et suggère la dénomination « euro », le . Les taux de conversion sont déterminés par le Conseil de l'Union européenne, sur la base d'une recommandation de la Commission européenne, établie sur les taux du marché au . Ils sont créés de sorte qu'une unité de compte européenne (ECU) serait égale à un euro. L'unité monétaire européenne était une unité de compte utilisée par l' et calculée sur la base des monnaies des États membres. Ce n'était pas une monnaie à part entière. Les taux n'ont pas pu être fixés plus tôt car la valeur d'un ECU dépendait des taux de change des monnaies ne participant pas à l'euro (comme la livre sterling), à la clôture, ce jour-là. La procédure utilisée pour fixer le taux de change irrévocable entre la drachme grecque et l'euro est différente : alors que les taux de change pour les onze monnaies initiales sont déterminés quelques heures seulement avant que l'euro n'ait été introduit, le taux de conversion de la drachme grecque est fixé plusieurs mois à l'avance. La monnaie est introduite sous forme immatérielle (chèques de voyage, transferts électroniques, services bancaires…), le , à minuit, dans les onze pays formant la toute nouvelle zone euro: l'Allemagne, l'Autriche, la Belgique, l'Espagne, la Finlande, la France, l'Irlande, l'Italie, le Luxembourg, les Pays-Bas et le Portugal. Les monnaies nationales des pays participants cessent dès lors d'exister indépendamment. Les taux de change sont alors bloqués à taux fixes, les uns envers les autres. L'euro devient ainsi le successeur de l'unité de compte européenne (ECU). Les billets et pièces des anciennes monnaies continuent cependant à avoir cours légal jusqu'à ce que les billets et pièces en euro soient introduits, le . La période de transition au cours de laquelle les anciens billets et les anciennes pièces sont échangés contre billets et pièces en euro dure environ deux mois, jusqu'au . La date officielle à laquelle les monnaies nationales cessent d'avoir cours légal varie d'un état membre à l'autre ; la période la plus courte est en Allemagne, où le Deutsche Mark cesse officiellement d'avoir cours légal le , bien que la période de transition y dure également deux mois. Même après que les monnaies nationales cessent d'avoir cours légal, elles continuent à être acceptées par les banques centrales nationales, pour des périodes plus ou moins longues, allant de plusieurs années à tout jamais (voir ici). Les premières pièces cessant d'avoir cours légal sont les pièces portugaises en escudo, qui cessent d'avoir cours légal le , bien que les billets restent échangeables jusqu'en 2022. En 2002, l'euro est lauréat du Prix International Charlemagne. Élargissement de la zone euro L'adhésion à l'euro est obligatoire pour les nouveaux membres de l', mais chaque pays en fixe la date et doit respecter les conditions économiques nécessaires. La zone euro s'étend progressivement : : Grèce : Slovénie : Chypre et Malte : Slovaquie : Estonie : Lettonie : Lituanie États membres de l'Union européenne non adhérents Des trois membres de l' (à quinze) non participants, seuls le Royaume-Uni et le Danemark obtiennent une clause dite d’, leur permettant de rester en dehors de la monnaie commune, même s'ils venaient à remplir les conditions d'adhésion, clause confirmée par le traité de Rome de 2004. Cette clause ne leur interdit toutefois pas d'adhérer ultérieurement. Aussi le Royaume-Uni, contrairement au Danemark, ne fait pas partie du mécanisme de change (), bien que remplissant les conditions du traité de Maastricht car il ne souhaite pas lier le taux de change de la livre sterling à l'euro ; depuis que la livre sterling a quitté le défunt SME (fondé sur l'ancienne unité de compte européenne, ou ECU), son cours par rapport à l'euro connaît des variations plus importantes que les autres monnaies des pays membres non adhérents, notamment durant les deux premières années de l'introduction de l'euro, qui s'est temporairement fortement déprécié par rapport au dollar américain, à la livre sterling et au franc suisse. Cette instabilité initiale est, semble-t-il, résolue et, depuis, la livre sterling suit de façon assez proche les évolutions du cours de l'euro (le franc suisse s'est aussi stabilisé par rapport à l'euro et il remplirait les conditions d'entrée dans le si la Suisse et le Liechtenstein décidaient de rejoindre l'Union européenne). En revanche, la Suède s'est engagée à rejoindre à terme la monnaie commune et ce, dès qu'elle remplira les conditions du traité de Maastricht. Cependant, en raison d'une opinion publique qui reste favorable au maintien de la couronne suédoise, comme le montre le dernier référendum organisé sur ce sujet, le , la Suède ne remplit pas techniquement les conditions d'entrée dans le afin de ne pas être contrainte d'adopter automatiquement la monnaie commune. Les états membres qui ont rejoint l' après la mise en place de l'euro sont tenus d'intégrer, à terme, la zone euro. Ceci suppose qu'ils intègrent d'abord le puis qu'ils remplissent les autres conditions d'adoption de l'euro. Ainsi, pour la Hongrie, la Pologne, la République tchèque, la Bulgarie et la Roumanie, tout nouvel élargissement n'est pas à prévoir , selon Valdis Dombrovskis, commissaire européen chargé de l'euro. . En , le ministre des Finances bulgare, Simeon Djankov, annonce que son pays renonce à abandonner sa monnaie nationale pour l'euro, du fait de l'incertitude entourant la pérennité de la monnaie commune. Notons cependant que la Bulgarie est juridiquement obligée d'adopter l'euro à terme, ayant ratifié son traité d'adhésion à l' sans bénéficier d’. Pays utilisateurs de l'euro Au , 19 pays de l'Union européenne utilisent l'euro comme monnaie nationale. À ceux-ci s'ajoutent quatre états hors ayant des accords officiels et utilisant donc l'euro de façon officielle, ainsi que deux autres états l'ayant adopté unilatéralement. Le cas des bases britanniques à Chypre est particulier : le traité d'indépendance de Chypre y prévoyait l'utilisation exclusive de la monnaie locale, ce qui a imposé un basculement vers l'euro ; cette particularité est prévue par le traité d'adhésion de Chypre et par le droit britannique. L'euro est également utilisé dans plusieurs pays hors d'Europe, comme au Zimbabwe où il circule aux côtés du dollar américain, du rand sud-africain, du pula botswannais et de la livre sterling. Autres devises européennes ou liées Devises européennes liées En 2018, au sein de l'Union européenne et des pays candidats à l'entrée dans l'Union, se trouvent les monnaies suivantes qui ont toutes intégré le : la couronne danoise (DKK), avec droit d’ lui permettant de ne pas adopter automatiquement l'euro, mais qui participe malgré tout au ; le nouveau lev bulgare (BGN), avec un taux fixe unilatéral, dont le pays émetteur n'était pas encore membre de l'Union européenne et qui ne pouvait donc pas être membre du ; la Bulgarie rejoint l'Union européenne le et peut entrer en même temps dans le , ce qui lui permet de rejoindre l'UME au plus tôt, en , si les autres conditions de stabilité sont remplies à cette date (toutefois, la phase transitoire nécessaire après l'approbation et la fixation du taux irrévocable demande aussi quelques mois de préparation avant la mise en circulation). Toutefois, les phases préparatoires avant l'introduction de l'euro sont actuellement considérablement raccourcies, tous ces pays négociant déjà l'euro sur les marchés internationaux et disposant même de stocks de pièces et billets pour le marché des changes aux particuliers (notamment dans les zones touristiques). Dans certains de ces pays, de nombreux commerces acceptent les paiements en euro (parfois même aussi en pièces et billets), certains pratiquant même le double affichage sur un taux voisin du cours central défini dans le (qui autorise une variation de 15 % du cours, mais qui, en pratique, varie dans des marges très inférieures, le marché des changes étant déjà très stabilisé, ce qui permet même à certains pays de garantir unilatéralement leur taux de change par l'intervention de leur banque centrale), ou autorisant l'ouverture de comptes en euro pour les entreprises et les administrations, afin de limiter les frais relatifs aux opérations de change. Dans les derniers jours précédant l'évaluation par la Commission européenne d'une devise après deux années de stabilité, il apparaît une instabilité temporaire du cours de cette devise liée à une anticipation du marché sur une prochaine convertibilité totale de cette devise, ce qui limite l'intérêt de conserver des fonds de garantie dans cette devise. Mais la BCE et les BCN veillent à limiter cette instabilité et assistent la BCN, candidate pour limiter cet impact temporaire, en achetant ou vendant massivement les surplus de change sur les marchés financiers. Une stabilisation forte en dernière minute est donc constatée autour du taux central défini dans le , sauf si les engagements financiers pris par la BCE sont trop importants et nécessitent un ajustement pour éviter d'imposer à la BCN candidate des dettes dès son entrée dans l'UME, qui ne lui permettraient plus de remplir les objectifs de stabilité de Maastricht. Aussi, le cours central, défini dans le , ne préfigure pas forcément le taux de conversion définitif qui sera appliqué (mais qui devrait rester tout de même dans la bande de fluctuation de 15 % autour du taux central). Autres devises liées Un certain nombre de devises, hors Union européenne, sont déjà liées à travers un taux de change, fixe ou variable, à l'euro : l'escudo cap-verdien (CVE), précédemment lié, jusqu'en 1999, avec un taux de change fixe à l'escudo portugais ; 1 euro = ; le franc CFP ou franc Pacifique (XPF) est lié au franc français (FRF) avec un taux de change fixe de pour avant l'adoption de l'euro ; il est maintenant lié à l'euro par le taux fixe de pour (autrefois le franc CFP était lié, comme le franc Djibouti (DJF), au dollar-or des États-Unis (USD), avant de se lier de nouveau au franc français lors de la démétallisation du dollar) ; les francs CFA BCEAO (XOF), ou BEAC (XAF), précédemment lié, jusqu'en 1999, au franc français, avec un taux de change garanti (mais renégociable avec la Banque de France, séparément, pour chaque banque d'émission) de , ou , pour , autrefois , ou , pour . le franc comorien (KMF), précédemment lié, jusqu'en 1999, au franc français avec un taux de change garanti (mais renégociable avec la Banque de France) de pour un ; le mark de Bosnie-Herzégovine (BAM), précédemment lié, jusqu'en 1999, au mark allemand (DEM) avec un taux fixe de  =  lors de la création de cette devise en 1997-1998 ; la devise était précédemment nommée mark convertible ; le franc suisse (CHF) continue à flotter librement par rapport aux autres devises européennes, durant les trois premières années d'introduction de l'euro ; cependant, l'Union européenne constituant plus de 60 % des échanges de la Suisse et du Liechtenstein, la Banque nationale suisse décide unilatéralement de maintenir le cours du franc suisse stable par rapport à l'euro, afin de limiter le risque de change, en constituant ou convertissant un fonds de réserve en euros ; durant les premières années, le fonds de réserve des anciennes devises nationales est réduit à la suite de leur conversion (puisque, théoriquement, il n'était plus nécessaire de maintenir un fonds suffisant pour chaque pays), mais ce fonds est reconstitué et même augmenté pour stabiliser le cours, sous la pression de fonds d'investissements privés et de grandes banques suisses qui créent l’ euro SWIFT pour faciliter les échanges interbancaires ; vu l'appréciation du franc suisse face à l'euro, au cours du (arrivé à la quasi parité le , à pour ), la Banque nationale suisse décide, le , de fixer un taux plancher de pour , assurant être déterminée à maintenir ce taux minimal par des moyens illimités ; ce cours plancher est aboli le ; l’euro SWIFT existe encore au niveau international, maintenant appelé euro WIR (CHE) ; il est assimilé à une devise (toutefois distincte de l'euro) sur les marchés financiers interbancaires, car sa stabilité relative par rapport à l'euro est encore meilleure que celle du franc suisse lui-même (dont le fonds de réserve contient davantage de livres sterling et de devises hors MCE) ; toutefois, son utilisation reste soumise à la constitution d'un fonds de garantie payé en euros sur un compte bancaire en Suisse et son usage, en tant que monnaie d'échange, reste limité aux marchés d'échanges de services de gré à gré, sur le même modèle que le franc WIR (CHW), établi également comme une autre devise privée suisse mais sur la base de fonds garantis en francs suisses ; le franc WIR, comme l'euro WIR, est soumis au contrôle des autorités monétaires suisses, mais aucun n'est utilisable sous forme fiduciaire. Le fonctionnement de ces deux devises est similaire à un fonds d'investissement coopératif où une unité de devise WIR représente une part de ce fonds et un droit de vote. Devises européennes non liées Les monnaies suivantes des pays membres de l'Union européenne, ou candidats à l'adhésion, ne sont pas liées à l'euro. Soit parce qu'elles ne remplissent pas encore les conditions techniques d'adhésion au (selon le traité de Maastricht), alors que leur pays émetteur est déjà membre de l'Union européenne : la couronne suédoise (krona) (SEK), dont le pays émetteur bloque techniquement sa participation au pour ne pas être obligé, ensuite, d'adopter automatiquement l'euro ; la couronne tchèque (koruna) (CZK), qui devrait rejoindre automatiquement le puis l'euro, dès que les conditions techniques seront remplies ; le forint hongrois (HUF), qui devrait rejoindre automatiquement le puis l'euro, dès que les conditions techniques seront remplies ; la kuna croate (HRK), qui devrait rejoindre automatiquement le puis l'euro, dès que les conditions techniques seront remplies ; le nouveau leu roumain (RON), dont le pays émetteur devrait rejoindre le ; le nouveau zloty polonais (PLN), qui devrait rejoindre automatiquement le puis l'euro, dès que les conditions techniques seront remplies. Soit parce que leur pays émetteur, candidat à l'adhésion, ne dispose pas d'une caisse d'émission assurant la convertibilité : la nouvelle livre turque (TRY), dont le pays émetteur est candidat à l'Union européenne ; le dinar serbe (RSD) (succédant au dinar serbo-monténégrin - CSD), dont le pays émetteur est candidat à l'Union européenne. Utilisation par des pays non-membres Quatre micro-États enclavés dans l'Union européenne, sans en être membres, ont obtenu le droit d'utiliser l'euro : Andorre, Monaco, Saint-Marin et le Vatican ; ces États sont également autorisés à frapper un certain nombre de pièces de monnaie (officiellement depuis le pour Andorre, effectif à compter du ). Deux autres États, ou entités européennes, non membres de l'Union, utilisent également l'euro : le Monténégro et le Kosovo, sans dépendre de la BCE, sans pouvoir émettre de pièces ni de billets. L'euro est également utilisé dans certains territoires d'outre-mer, non intégrés à l'Union, dont les habitants sont citoyens d'un pays de l'Union ; c'est le cas de Saint-Pierre-et-Miquelon et, dans une mesure plus infime, des TAAF. Enfin, l'euro est accepté comme quasi seconde monnaie dans des régions d'États non-membres frontalières de la zone euro (Genève) ou pour des raisons touristiques (Polynésie). Valeur Conversion dans les anciennes devises La valeur de l'euro, exprimée dans les anciennes monnaies de ces pays, est la suivante : Notes : Taux de change officiel des devises liées Notes : Valeur par rapport au dollar L'ECU, qui était un panier, contenait des monnaies comme la livre sterling, qui n'ont pas été intégrées dans l'euro. Les deux devises européennes ne coïncident donc que brièvement, pendant les heures de fermeture des marchés entre la fin de 1998 et le début de 1999 et, si l'ECU existait encore, il aurait maintenant une valeur tout autre que celle de l'euro. Afin de reconstituer la valeur qu'aurait eue l'euro par rapport au dollar américain avant sa cristallisation du , il convient d'utiliser les taux de change face au dollar d'une monnaie nationale, et de lui appliquer son taux de conversion en euro. Par exemple, sera divisé par la valeur du dollar en francs français. Le résultat du calcul figure sur le graphique ci-contre pour le franc français (en rouge) et le deutschemark (en bleu) pour toute la période qui va de l'introduction du régime des changes flottants par Richard Nixon à celle de l'euro. Pendant les dix années précédant son introduction, l'euro aurait ainsi eu une valeur moyenne de l'ordre de , calculée avec le franc français, et , calculée avec le deutschemark. En 1999, le cours d'introduction de l'euro était de 1,1789 dollar pour un euro. On peut ensuite distinguer plusieurs périodes : 1999-2001 : les débuts hésitants (baisse de l'euro par rapport au dollar) 2002-mi-2008 : la remontée de l'euro mi-2008-mi-2015 : l'euro dans la crise (forte volatilité et baisse de l'euro) mi-2015-2020 : stabilisation autour de 1,1-1,2 (proche du cours d'introduction) Le marché des changes le plus actif de l'euro est bien évidemment celui comparé au dollar US ; la parité euro/dollar est l'instrument financier le plus traité dans le monde, c'est un indicateur phare, suivi quotidiennement par tous les milieux économiques et financiers. Débats économiques Les conséquences économiques de l'euro font l'objet de débats au sein des économistes. La plupart des études soulignent l'effet de l'euro sur la convergence des taux d'intérêt et sur la chute de l'inflation, et montrent un effet positif de la monnaie unique sur l'intensification des échanges commerciaux. Des débats médiatiques ont été centrés sur l'inflation qui aurait été causée par le passage à l'euro. La Banque de France a toutefois montré que l'introduction de l'euro s'est produite simultanément à une hausse importante des prix de l'immobilier et des produits pétroliers. Par ailleurs, certains secteurs (hôtellerie, tabac par exemple) ont connu de fortes hausses de prix depuis l'introduction de l'euro. Face à la polémique, le ministre des Finances Thierry Breton a proposé, ultérieurement, un indice spécial lié au coût du panier d'achat au supermarché pour répondre aux critiques des associations de consommateurs. L'INSEE introduit un indicateur d'inflation personnalisé. Un débat sur les effets macroéconomiques de l'euro existe. Les économistes soulignent que l'euro a rendu la dévaluation impossible, conduisant les pays à devoir engager une dévaluation interne (baisse des salaires) ou des politiques d'investissements, ou encore des réformes structurelles. Euro et politique monétaire unique pour plusieurs pays La politique monétaire menée (au moins jusqu'au QE) conduit à un « euro fort », ou qualifiée par ses détracteurs d'« euro cher ». À terme, selon le centre de recherche économique CEE , le maintien de l'orthodoxie financière, prôné par le gouvernement allemand et la BCE, et la politique de rigueur généralisée qui en découle, nécessiteront une révision du traité de Lisbonne, car ils pourraient avoir pour conséquence de réduire les prérogatives budgétaires et fiscales des États-membres, au-delà des dispositions du traité dans sa forme actuelle. Le CEPII soulignait en 2012 que, par construction, l'euro empêche les taux de change de s'ajuster pour compenser les déséquilibres des balances commerciales des pays membres. En l'absence de ce canal, l'ajustement doit se faire par des taux d'inflation différenciés entre pays, ce qui suppose des dévaluations internes (baisse des salaires) pour les pays les moins compétitifs, ou par une montée en gamme des produits. Paul Krugman souligne à ce propos que l'Allemagne bénéficie d'un Euro légèrement sous-évalué par rapport au Deutsch Mark (si celui-ci était toujours en circulation), contrairement aux autres pays d'Europe, en particulier du sud, qui ont une monnaie surévaluée. Cette analyse a été confirmée par une étude du FMI datant de 2017. Ce déséquilibre a sa part de responsabilité dans l'excédent commercial très élevé de l'Allemagne, qui est en partie responsable, selon nombre d’économistes, dont ceux du FMI, de l’anémie de la croissance européenne (cet excédent se fait au détriment des autres pays de la zone, certains économistes parlant à ce sujet de mercantilisme). De plus, l'épargne résultant de cet excédent s'investirait peu dans la zone euro et profiterait peu aux voisins de l'Allemagne. A ce sujet, Patrick Artus souligne que les excédents allemands servent essentiellement à financer le déficit américain. Faute de pouvoir rééquilibrer leur compétitivité par la dévaluation, certains pays ont connu, selon une étude allemande du CEP (Centrum für europäische Politik), une moindre hausse de leur PIB. L'Euro a ainsi freiné leur croissance économique par rapport à la croissance qui aurait été la leur s'ils avaient gardé leur monnaie. Ainsi, chaque Français aurait perdu 56 000 euros sur la période 1999-2017 et les Italiens 73 000. L'Allemagne, les Pays-Bas et la Grèce auraient au contraire bénéficié de l'euro. Cette étude a été critiquée par le Groupe d'études géopolitiques (GEG), un groupe de réflexion de l'ENS Ulm. Selon le GEG, les chiffres de l'étude sont faux car elle est constituée . Le GEG ajoute que . Une étude publiée en décembre 2018 dans la European Economic Review et employant la même méthode statistique que le CEP trouve des résultats également sensiblement différents. Le quotidien allemand Die Welt a aussi livré une critique acerbe de l'étude du CEP, en France Le Point qualifie l'étude de et Libération estime que la méthodologie employée est particulièrement . Perception des citoyens Un sondage est effectué à la demande du , durant l'été 2010. À la question , si une majorité de Néerlandais a répondu oui, 53 % des Allemands et des Espagnols ont répondu non, ainsi que 60 % des Français. Pourtant, à cette même date, un autre sondage indiquait que seuls 38 % des Français étaient en faveur d'un retour au franc. En 2015, dans un sondage Eurobaromètre, 61 % des citoyens des pays de la zone euro ont répondu, à la question , que l'euro était une bonne chose pour leur pays, alors que 30 % ont dit que c'était une mauvaise chose ; le niveau de soutien le plus élevé enregistré par Eurobaromètre depuis qu'il a commencé à poser cette question en 2002, et une importante augmentation depuis le plus bas niveau de soutien (moins de 50 %) enregistré par ce sondage, en 2007. Les pays les moins favorables à l'euro étaient l'Italie et Chypre, les deux pays où moins de la majorité absolue s'est prononcée favorable à l'euro (en Italie, 49 % en faveur et 41 % contre ; en Chypre 50 % et 40 % respectivement) et la Lettonie (54 % en faveur, 29 % contre), pendant que les pays les plus favorables étaient le Luxembourg (79 % en faveur, 14 % contre), l'Irlande (75 % et 18 %), et l'Allemagne (70 % et 22 %). En 2017, un sondage Ifop indique que 72 % des Français sont en faveur d'un maintien dans la zone euro. Seuls 28 % se sont déclarés en faveur d'une sortie dont une majorité est électrice du Front national. Zone monétaire optimale Nombre d'économistes pointent le fait que les pays de la zone euro ne constituaient pas, en 2002, une zone monétaire optimale, et qu'un défaut de convergence des politiques économiques, et l'absence d'outils de gestion commune (trésor, budget fédéral) ne les rapprochent pas de cette configuration. Les économistes Milton Friedman et Martin Feldstein ont également exprimé leur doute à ce sujet. L'absence de trésor et de budget fédéral entraîne l'absence de transferts (en particulier fiscaux) entre pays en excédent et pays en déficit, ce qui pose un problème qui peut menacer à terme la viabilité de la zone Euro. Conscients du problème, un certain nombre de responsables européens, dont Emmanuel Macron, plaident pour une Europe budgétaire, tentant d'infléchir la position de l'Allemagne sur ce sujet. Ce problème est également souligné à la tête de la BCE par Christine Lagarde qui déplore le manque de solidarité dans la zone Euro sur le plan budgétaire. Monnaie de réserve L'euro est la deuxième monnaie de réserve dans le monde, loin derrière le dollar américain ; cependant, petit à petit, l'euro commence à augmenter comme monnaie de réserve dans le monde, passant de 17,9 %, en 1999, à 27,3 %, en 2009. Ceci vient confirmer les propos d'Alan Greenspan, ancien président de la banque centrale des États-Unis, selon lesquels . Toutefois, en 2017, la part de l'euro est redescendue à 20 %. Tourisme Une étude montre que l'introduction de l'euro a eu un effet positif sur le tourisme en Europe, avec une augmentation de 6,5 % du nombre de touristes au sein de la zone euro. Divers aspects techniques Documents électroniques et bases de données L'euro est actuellement présent dans les documents électroniques et les bases de données de nombreux pays, non seulement de l'Union économique et monétaire, mais aussi de nombreux pays du monde. Il faut signaler que cette devise, comme toutes les autres, ne fait pas encore partie d'une norme internationale de métadonnées (voir ), en raison de la variabilité des monnaies et des prix soumis aux lois d'évolution des marchés ; cependant, la norme ISO est abondamment utilisée dans les bases de données et les échanges informatiques, et attribue le code EUR à l'euro, norme à caractère quasi obligatoire pour les transferts interbancaires de devises et la tenue des comptes à la place des symboles monétaires souvent ambigus (même si l'euro a un symbole bien défini, la présence de devises dérivées non régulées par la BCE est source de nouvelles ambiguïtés). Orthographe et grammaire Du fait d'alphabets différents les noms et divisions nationales de l'euro ne s'orthographient et ne se prononcent pas de la même façon dans tous les pays de la zone. Du fait de la diversité des règles grammaticales au sein de la zone euro, le mot sur les pièces et billets est invariable et ne prend donc pas de . Toutefois, dans la langue française, selon la règle, le pluriel se forme par l'ajout d'un « s » en fin de mot. L'Académie française s'est prononcée en ce sens dans une note publiée au Journal officiel du . En revanche, en France, le terme , prêtant à confusion, n'est généralement pas utilisé en français ; on parle de centime ou, dans une forme plus rare et déconseillée, d'eurocent (pour ne pas confondre avec les centimes de franc pendant la phase transitoire). Pour des raisons similaires, il est dit en espagnol, en italien, (pluriel ) en grec, alors que ce problème ne se pose pas en anglais, par exemple, langue dans laquelle il est adopté tel quel. La liaison avec le mot antéposé et l'élision du « e » (des articles « de » et « le » ainsi que de la préposition « de ») suivent les règles habituelles du français : on prononce donc un(n)euro, dix(z)euros, vingt(t)euros, quatre-vingts(z)euros, cent(t)euros, de même qu'on dit « l'euro » et « d'euro(s) ». Fabrication En France, deux imprimeries fabriquent des billets de 5, 10 et : l'imprimerie de la Banque de France, à Chamalières (Puy-de-Dôme) et l'imprimerie de François-Charles Oberthur Fiduciaire, à Chantepie (Ille-et-Vilaine). Ces billets sont destinés à remplacer ceux qui sont trop usés, en France et dans toute l'Europe. Les autres coupures sont fabriquées dans d'autres pays européens puis envoyées en France selon une sorte de contrat d'échange établi par la BCE. En revanche, les pièces françaises en euro sont toutes frappées à Pessac (Gironde), par la direction des Monnaies et médailles. Euro numérique L'euro existe déjà sous forme dématérialisée (réserves détenues par les banques auprès de l’Eurosystème, dépôts bancaires. Lorsque l’on parle d’euro numérique, c’est donc pour désigner l’instrument de paiement émis par la BCE que celle-ci pourrait choisir de mettre dans le futur à la disposition des résidents de la zone européenne). La Banque centrale européenne annonce en réfléchir à la mise en place d'un « euro digital » ou « euro numérique ». Cet e-euro aurait vocation, selon la Banque de France, à coexister à côté de la monnaie fiduciaire et de la monnaie scripturale. De son côté, la Banque de France lance en des expérimentations d'un euro numérique à usage interbancaire utilisant la technologie du registre distribué (Distributed Ledger Technology – DLT) via la technologie blockchain. Selon François Villeroy de Galhau, gouverneur de la Banque de France, la création d’une monnaie numérique de banque centrale est un « puissant levier d'affirmation de notre souveraineté face aux initiatives privées du type Diem, anciennement Libra ». Notes Sources Références Bibliographie La bibliographie sur l’Union européenne signalée ci-contre contient une importante section de documents et ouvrages autour de l’Euro. Articles et ouvrages Droit dérivé Compléments Lectures approfondies Articles connexes Pièces en euro destinées à la circulation Billets de banque en euro Banque centrale européenne Crise de la dette dans la zone euro Pièce de collection en euro Centime (euro) Euro/dollar (taux de change) Liste des unités monétaires remplacées par l'euro Tirage des pièces de monnaie en euro Traduction de « euro » dans divers langues sur Wiktionnaire Lex monetae Liens externes Site de la Commission européenne consacré à l'euro; Taux de change de devises actuels de la Banque centrale européenne Site officiel de la BCE. L'élargissement de la zone euro : ralentissement ou remise en cause ?, dossier de Ales Chmelar, sur le site Nouvelle Europe, le 6 juin 2012. Forex Politique monétaire de l'Union européenne Prix Charlemagne
1013
https://fr.wikipedia.org/wiki/Empereur
Empereur
Empereur est un titre monarchique, parfois héréditaire, porté par le souverain d'un empire. Origine Du latin qui signifie « commander en maître, ordonner », du préfixe et du verbe , préparer, apprêter. Il a donné le mot imperium, « commandement » d’où découle « impérieux ». « Empereur » est une déformation du titre d’imperator que portaient les généraux romains victorieux acclamés par leurs troupes. À l'origine de la République romaine, l’ était celui qui commandait la mobilisation des citoyens. Par glissement de sens, il désignera les actes qui en découlent puis, vers la fin de la République, il désigna celui qui commandait l’armée. Pour Scipion l'Africain, c’était un titre que l’armée accordait au vainqueur avec l’ovation, dans le cadre du culte à Jupiter. Le titre d’imperator n'est pas une magistrature et n’a alors aucune valeur institutionnelle pour le Sénat romain. Son sens actuel va apparaître avec Octavien lorsque celui-ci prit pour prénom, afin de conserver le souvenir perpétuel de ses victoires et de sa gloire. Après l’assassinat de Jules César, qui avait fait de lui son héritier, Octavien recevra l’imperium du Sénat le puis le , alors que César était élevé au rang des dieux, Octavien reçut le nom de . C’est ce titre d’Auguste qui correspond à ce que l’on entend actuellement par empereur, c’est-à-dire dirigeant de l’Empire. Plus largement, l’empereur à Rome est celui qui porte les titres suivant : , , et dans un premier temps Princeps. L’équivalent en grec de ces termes, à savoir autocrate, sébastocrate et basileus a, par la suite, été utilisé dans l’Empire byzantin. Plus largement, la plupart des titres impériaux occidentaux renvoient aux termes latins, Kaiser et Imperator (Император, également tsar) étant ainsi des déformations du titre de César. Le féminin d'empereur est impératrice et l'adjectif correspondant est impérial (impériale au féminin). Distinction entre l'empereur et le roi La taille du territoire gouverné et la diversité religieuse et ethnique des peuples gouvernés peuvent être pris en considération. Ainsi, un roi peut porter deux titres telle la reine Victoria, reine du Royaume-Uni de Grande-Bretagne et d'Irlande (1837-1901) et impératrice des Indes (1876-1901), sa fille la princesse Victoria qui fut également brièvement en 1888 à la fois reine de Prusse et impératrice allemande, ou encore l'empereur d'Autriche, également roi de Hongrie. Parfois, l'empereur est assimilé à une divinité, tel le au Japon. En Europe, le titre impérial fut porté par les monarques qui se réclamaient de l'héritage impérial romano-byzantin. Ainsi, Charlemagne fut empereur d'Occident et Charles Quint le tout-puissant souverain du Saint-Empire romain germanique. En fait, jusqu'au milieu du , l'empereur affirmait sa prééminence théorique sur les rois (de France, d'Angleterre) dans toute l'étendue de la romanitas. Il en resta ensuite quelque chose, ainsi Philippe le Bel — et ses successeurs — s'affirmait ; en effet refusant la souveraineté de l'empereur, théoriquement situé au-dessus des rois, le roi de France prétendait avoir à l'intérieur de ses frontières les mêmes droits que l'empereur sur les autres rois, remettant ainsi en cause toute subordination à l'hégémonie impériale (en effet les rois de Bohême par exemple étaient bien plus influencés par l'empereur que le roi de France, qui prétendait traiter d'égal à égal avec ce dernier). Les rois comme les empereurs sont des monarques. Il n'y a a priori pas de règle établie pour les distinguer. Tout juste notera-t-on que le rang d'empereur peut être supérieur à celui de roi, notamment s'il a autorité sur d'autres rois, alors que l'inverse semblerait étrange. Ainsi au sein de l'Empire allemand, entre 1870 et 1918 où l'empereur régnait sur des États organisés sous forme de royaumes tel le royaume de Bavière. De même en France sous l'Empire, Napoléon régnait au-dessus des rois qu'il avait placés dans les États satellites de l'empire (royaumes d'Italie, d'Espagne). Liste de pays qui ont été dirigés par un empereur Actuellement, seul le Japon est sous le règne d'un tel souverain, l’empereur du Japon. Toutefois, plusieurs autres pays furent autrefois dirigés par des empereurs pour des périodes plus ou moins longues : Allemagne : Kaiser, voir empereur allemand. Autriche. Califats islamiques : voir califat omeyyade et califat abbasside. Brésil. Bulgarie : pour les Bulgares, « tsar » veut dire « roi » et non « empereur ». Le titre de « khan », équivalent d'« empereur », fut utilisé par certains souverains bulgares tels Boris et Simeon . Centrafrique : voir Bokassa . Chine : voir « empereur de Chine » et la liste des monarques de Chine. Espagne : à plusieurs reprises au début du deuxième millénaire, l’empereur le plus connu était Alphonse VII de Castille et de León à partir de 1135. Éthiopie : voir Négus. France : voir Napoléon et Napoléon III (Charlemagne, Louis le Pieux, Charles le Chauve, Charles le Gros n'ont jamais régné sur un quelconque « Empire de France » mais sur le royaume des Francs, en tant que roi et sur l'Empire d'Occident en tant qu'empereur). Haïti : voir Jacques et Faustin . Inde : voir Empire moghol et Empire britannique. Iran ou Perse : voir chah (« Roi des rois »). Madagascar : sous Andrianampoinimerina qui a réussi à réunifier la quasi-totalité des territoires malgaches. Mali : voir Empire du Mali. Maroc : empire jusqu’en 1957, date à laquelle Mohammed V renonça à son titre impérial de « sultan de l’Empire chérifien » en faveur de celui de « roi du Maroc ». Mexique : voir Agustín , Maximilien et Aztèques. Mongolie : Kaghan (Grand Khan). Rome antique (princeps, caesar et augustus) puis Byzance (basileus, autocrate et Sébastokrator à partir du ). Russie : Empereur, imperator ; souverain avec le titre de tsar jusqu'en 1721. Saint-Empire romain germanique Empire songhaï. Serbie : tsar. Tibet. Turquie ou Empire ottoman : sultan, entre autres titres, bien que ce dernier ne soit pas l’équivalent direct d’empereur. Néanmoins, les sultans ottomans portèrent le titre de kaysar à partir de 1453. Voir aussi Empereur du Japon et liste des empereurs du Japon. Empire ottoman Empereur serbe Empereur romain Empereur romain germanique Empire Premier Empire Second Empire Notes et références Notes Références
1015
https://fr.wikipedia.org/wiki/Empereur%20du%20Japon
Empereur du Japon
L' est le chef de l'État japonais de facto. Selon la Constitution promulguée en 1947 lors de l'occupation ayant suivi la Seconde Guerre mondiale, il a un rôle uniquement symbolique (en tant que symbole du Japon et de l'unité du peuple japonais) et détient sa fonction des citoyens japonais. L'empereur actuel, Naruhito, est l'héritier d'une succession que la tradition présente comme ininterrompue et que la légende fait commencer en 660 av. J.C. avec l'empereur Jinmu, qui descend de la déesse du Soleil Amaterasu, elle-même fille des dieux démiurges créateurs du monde terrestre (l'archipel japonais) : Izanagi et Izanami. Pour les partisans du culte impérial, dont l'influence fut prédominante lors de l'expansion de l'ère Shōwa, l'empereur avait un statut divin, symbolisé par les insignes impériaux. Ce statut a fait l'objet d'une remise en question lors de l'occupation du pays par les forces américaines, ces dernières obligeant en conséquence Hirohito à renoncer officiellement, en , à sa nature de « divinité incarnée » () sans toutefois renoncer à son ascendance divine. La liste officielle actuelle comprend 126 souverains (dont Naruhito), parmi lesquels on trouve huit impératrices (dont deux ont régné sous deux noms différents). Le pouvoir impérial a souvent été usurpé de fait par des chefs de familles puissantes, dont les mieux connus sont les shoguns. Pour échapper aux pressions et conserver leur pouvoir, certains empereurs « retirés » ont affecté de laisser le trône à des membres de leur famille, tout en exerçant leur contrôle depuis les coulisses. Après avoir résidé plusieurs siècles au Kyōto-gosho à Kyoto, les empereurs se sont installés au milieu du dans l'ancien château d'Edo (Tokyo), devenu Palais impérial : ou . L', située sur le domaine du Kōkyo, gère presque tout ce qui concerne l'empereur et sa famille : service du palais et menus, santé, sécurité, déplacements et emploi du temps officiel. Titulature Jusqu'au milieu du , le titre du souverain japonais était ou . Les textes chinois le nommaient alors « Roi des Wa » ( : waō, wakokuō, daiwaō). Il a existé en japonais plusieurs appellations respectueuses pour l'empereur, employées à diverses époques et dans différentes circonstances (par les ministres, par l'empereur lui-même, lors des cérémonies religieuses, etc.), mais beaucoup n'existaient que sous forme écrite et se lisaient toutes Sumemima no mikoto ou Sumera mikoto, « sublime souverain qui règne au-dessus des nuages ». , littéralement « sublime porte », désignant à l'origine le palais impérial, fut adopté par métonymie pour désigner la fonction impériale (comme l'Élysée désigne la fonction présidentielle en France) aux époques Heian et Edo. L'appellation la plus usitée de nos jours est Tennō (天皇), « empereur céleste ». Elle apparaît au Japon au sous le règne de l'empereur Tenji (r. 661 – 672) ou Temmu (r. 672 – 686). On pense généralement que les souverains japonais se sont inspirés de leur homologue chinois Tang Gaozong (r. 628 – 683), qui s'était paré de cette appellation à l'origine réservée à des dieux du taoïsme, religion officielle de la famille impériale chinoise. Certains, cependant, pensent que le terme est d'origine japonaise et reflète l'origine divine des empereurs. Il est par la suite utilisé en alternance avec , titre habituel des empereurs de Chine depuis Qin Shihuangdi (prononcé Shikōtei, en japonais, soit le Premier Empereur de Chine), préféré dans les documents diplomatiques. Désigné comme appellation officielle par la constitution Meiji, Tennō ne remplace entièrement Kōtei dans les documents officiels qu'à partir de 1936. L'empereur régnant est généralement appelé ou . Les empereurs défunts sont nommés du nom de leur ère : pour Hirohito ; après son décès, Akihito sera connu comme l'« empereur Heisei » ou . Le terme , littéralement « empereur-roi », est utilisé pour les empereurs étrangers. Aperçu historique et rôle impérial Historique des termes désignant le souverain du Japon Les dynastes Wa de l'époque des kofun, les premiers chefs de l'État du Yamato, des , portaient le titre de daiō, lu aussi ōkimi, « grands princes, rois ». C'est après que les princes du Yamato eurent montré leur supériorité, puis sous l'influence de la Chine et de l'élaboration du régime des codes, à époque de Nara, que le titre de daiō fut abandonné pour celui de tennō. Le terme tennō, pour cette époque, correspondrait à « souverain » (comme dans tennō tentei, « souverain céleste ») , plutôt que « empereur », dont les connotations occidentales dues à l'ère Meiji seraient, ici, déplacées. L'apparition du terme tennō est débattue, mais, si certains la situent au début du , celle qui est la plus accréditée est en rapport avec « le renforcement de la monarchie, consécutif à la victoire de Temmu tennō lors des troubles de l'année Jinshin, donc après 672 ». Ce terme ne fait l'objet d'une définition juridique qu'avec la restauration de Meiji. Lignée impériale Il n'y a pas de documents précis antérieurs aux deux livres historiques, et , achevés en 712 et en 720 qui exposent la fondation mythologique du Japon et l'origine du premier empereur, Jinmu (660 ). Selon ces sources, Jinmu descend de la déesse japonaise Amaterasu (divinité du Soleil), les deux étant séparés par cinq générations. Les expressions « demi-dieu » et « dieu vivant » pour désigner l'empereur japonais y trouvent leur origine. Depuis le premier empereur Jinmu (660 ) la même famille impériale règne sur le Japon (« lignée impériale » japonaise ou kōtō). La succession au trône impérial est régie par le principe agnatique : quel que soit l'empereur considéré, la règle la plus importante est que si l'on remonte sa généalogie par la ligne paternelle (son père, puis le père de son père, etc.) on arrive nécessairement au premier empereur Jinmu. Pour cette raison, tous les empereurs japonais sont en ligne « directe » avec l'empereur primordial selon un principe unique et inviolé, d'après la mythologie, depuis plus de vingt-six siècles. Il est impossible de prouver historiquement la véracité de ce récit sur l'ensemble de la période, l'époque pré-Jinmu et les premiers empereurs relevant du domaine de la légende, mais la force de ce principe n'en est pas diminuée, car celui-ci ne souffre d'aucune exception démontrée pour la période historique connue (plus de quinze siècles). La « lignée impériale » ne se réduit donc pas à la série des empereurs ayant régné, faisant de la monarchie japonaise un objet tout à fait unique, non seulement dans le contexte culturel japonais, mais plus généralement en comparaison notamment avec les monarchies européennes, et ce pour au moins trois raisons principales. Primo, le lien mythologique avec la création du Japon, comme territoire (création par le père d'Amaterasu, le dieu Izanagi et sa compagne Izanami) puis comme empire (Jinmu, descendant d'Amaterasu). Secundo, l'unicité du principe primordial de succession à travers toutes les époques. Tertio, la remarquable longueur de la lignée (ininterrompue à ce jour). Ce système contribue en particulier à la stabilité de la société, aucune révolution ne changeant ou abolissant la monarchie n'ayant de fait éclaté au Japon. Par contraste, en Europe, le roi était traditionnellement celui qui dominait un pays, c'est-à-dire le vainqueur de la guerre ; la monarchie et la famille régnante ont subi des changements relativement fréquents. Comme la lignée impériale nipponne est unique, les empereurs n'ont pas de nom de famille. Dans un monde en perpétuelle évolution, la « lignée impériale » préservée jusqu'à nos jours est donc d'une grande valeur symbolique pour le Japon. La volonté farouche de nombre de Japonais de préserver intacte cette valeur — c'est-à-dire au minimum ne pas changer la règle primordiale de succession — n'a a priori aucun lien avec une question de misogynie. Le plus grand obstacle est en effet la question de la succession de cette impératrice potentielle, car si le principe agnatique est ignoré ne serait-ce qu'une fois, la « lignée impériale » telle qu'elle a toujours été définie s'en trouverait interrompue à jamais. Bien qu'il y ait eu quelques impératrices, au sens de Tennō et non au sens d'épouse de Tennō, cela ne crée pas d'exceptions au principe premier de succession vu ci-dessus, car une exception aurait été créée si et seulement si les fils ou filles de ces impératrices nés de pères extérieurs à la lignée impériale étaient devenus empereurs, ce qui ne fut jamais le cas. Le rôle impérial suit donc deux axes majeurs : dimension ethnique (incluant l'aspect shintoïste) et dimension constitutionnelle. Tout d'abord, l'empereur symbolise tout autant la nation japonaise (le peuple et sa culture) en incarnant la « lignée impériale » qui fait le lien, grâce à sa constance, entre toutes les époques traversées par cette nation (cf. section détaillée). Il est lui-même le prêtre suprême du shinto (religion qui se fonde notamment sur la mythologie japonaise) et il personnifie ainsi des aspects divins (cf. section détaillée). Il symbolise d'autre part l'État du Japon, au sens de représentant de plus haut niveau, comme le Président de la république italienne ; il s'agit d'un rôle dont les modalités sont définies constitutionnellement (cf. section détaillée). L'empereur comme symbole étatique Certaines dates et des détails de l'histoire des empereurs font l'objet de controverses parmi les historiens japonais. Les quinze premiers souverains (dont une impératrice régente) sont considérés comme légendaires, et d'autres sont morts à un si jeune âge qu'ils peuvent difficilement avoir réellement gouverné. Néanmoins, les dates de règne de la liste complète restent la référence standard pour la détermination des ères de l'histoire japonaise (en japonais -yo). L'empereur Ōjin () serait le premier à avoir eu une existence réelle, mais la famille impériale actuelle remonterait à l'empereur Keitai (), probablement fondateur d'une nouvelle dynastie plutôt qu'héritier de ses prédécesseurs. L'autorisation d'explorer partiellement les tumulus impériaux funéraires a été accordée en 2007 par l'Agence de la Famille impériale. Outre le respect dû aux ancêtres impériaux, raison avancée jusqu'ici pour refuser les recherches archéologiques, beaucoup soupçonnent la crainte de découvrir que certains occupants ne sont pas des empereurs, ou que des éléments pointent en direction d'une origine coréenne de la lignée, hypothèse d'ailleurs proposée depuis longtemps et envisagée ouvertement par l'empereur Akihito lors d'une déclaration. Les premiers empereurs historiques, souverains du Yamato, exerçaient leur pouvoir sur un domaine limité (nord de Kyūshū et sud-ouest de Honshū), qui s'est étendu progressivement vers le sud-ouest et le nord-est. Les territoires de Kyūshū et Honshū ne furent totalement dominés qu'au . L'empereur du Japon subissait généralement la pression des familles alliées, dont les plus importantes furent Soga (530-645), Fujiwara (850-1070), Taira, Minamoto (1192-1331), Ashikaga (1336-1565) et Tokugawa (1603-1867). Certains souverains se retirèrent dans un monastère pour y échapper, continuant d'exercer une forte influence et maintenant leur successeur officiel dans leur dépendance. Ce stratagème n'évitait pas toujours les conflits, comme le montre la rébellion de Hōgen (1156). Néanmoins, la fonction impériale ne fut jamais officiellement usurpée ni remise en cause ; les shoguns étaient ainsi officiellement investis par l'empereur. Il semble que cette fonction ait dès l'origine été surtout religieuse et symbolique, nonobstant l'existence d'empereurs forts. Dans leurs descriptions de l'empire du Soleil levant, Portugais et Espagnols comparaient les positions respectives de l'empereur et du shogun à celles du pape et de l'empereur du Saint-Empire. L'empereur, tête de la religion shintoïste Jusqu'à l'ère Meiji (1868), le bouddhisme était la foi des empereurs, malgré leurs liens avec le shinto. Du Moyen Âge à l'époque moderne (1185-1868), on observe un syncrétisme shinto-bouddhiste (shinbutsu shūgō), les deux religions devenant indissociables l'une de l'autre. Au début de l'ère Meiji, le bouddhisme et le shinto sont séparés (shinbutsu bunri). L'autel bouddhiste de la famille impériale (okurodo), situé au sein du palais (alors à Kyoto), est notamment transféré au Sennyū-ji, le temple mortuaire de la maison impériale. Le gouvernement souhaite ainsi rétablir le pouvoir de l'empereur, et promouvoir l'établissement d'une nation axée autour du shintoïsme, le différenciant des autres religions. Depuis l'époque Meiji, le premier rôle principal de l'empereur du Japon est d'être le prêtre suprême du shintoïsme. Il organise plus de vingt cérémonies religieuses par an dans les temples qui se trouvent au palais impérial. Ces sont Kashikodokoro (temple pour Amaterasu, déesse de la famille impériale), Kōreiden (temple des empereurs antécédents et des membres défunts de la famille impériale) et Shinden (temple pour tous les dieux du Japon). Depuis la fin de la Seconde guerre mondiale et la promulgation de la nouvelle Constitution du Japon, ces cérémonies ont cependant perdu leur caractère officiel, et sont considérées comme des actions privées de la famille impériale. Les cérémonies annuelles célébrées par l'empereur du Japon sont : le janvier : , l'empereur prie le bonheur du peuple japonais aux dieux du Japon de bon matin , cérémonie qui a lieu de bon matin dans les temples le 3 janvier : , cérémonie pour célébrer l'histoire de l'empereur japonais et pour prier le développement du Japon le 4 janvier : , le shōtencho (chef des prêtres du palais) rapporte des cérémonies du palais à l'empereur le 7 janvier : , cérémonie pour rendre hommage à l'empereur Showa dans le temple Kōreiden le 30 janvier : , cérémonie pour rendre hommage à l'empereur Kōmei le 17 février : , cérémonie pour prier la bonne récolte aux dieux jour de l'équinoxe : , cérémonie pour rendre hommage aux empereurs antécédents dans le temple Kōreiden , cérémonie pour le remerciement aux dieux japonais le 3 avril : , cérémonie pour rendre hommage à l'empereur Jinmu (premier empereur du Japon) , la nuit de Jinmu tennō sai, on organise mikagura (rite de shintoïsme avec danse et musique) le 16 juin : , cérémonie pour rendre hommage à l'impératrice Kōjun dans le temple Kōreiden le 30 juin : , cérémonie pour purifier l'empereur , cérémonie pour purifier des membres de la famille impériale et le peuple devant le temple Shinkaden le 30 juillet : , cérémonie pour rendre hommage à l'empereur Meiji. jour de l'équinoxe d'automne : , cérémonie pour rendre hommage aux empereurs antécédents dans le temple Kōreiden , cérémonie pour le remerciement aux dieux japonais le 17 octobre : , cérémonie pour le remerciement aux dieux japonais en offrant du riz dans le temple Kashikodokoro. le 23 novembre : , cérémonie pour le remerciement aux dieux japonais en offrant du riz que l'empereur récolte, et l'empereur en mange. Il s'agit de la cérémonie la plus importante de l'année. Ce riz est cultivé par l'empereur mi-décembre : , la nuit de Niinamesai, on organise mikagura (rite avec danse et musique) pour calmer des dieux dans le temple Kashikodokoro le 23 décembre : , cérémonie qui a lieu dans les temples pour célébrer l'anniversaire de l'empereur actuel le 25 décembre : , cérémonie pour rendre hommage à l'empereur Taisho le 31 décembre : , cérémonie pour purifier l'empereur , cérémonie pour purifier des membres de la famille impériale et le peuple devant le temple Shinkaden Les cérémonies essentielles comme Shihōhai remontent au , époque de Heian. Or, l'empereur du Japon est très religieux et traditionnel comme tête du shintoïsme. Sa vie se base sur le shintoïsme. L'empereur comme chef d'État Avec la refonte des institutions en 1868 sous l'ère Meiji, le shinto devint une religion d'État pour l'empire du Japon : le . L'empereur du Japon, descendant de la déesse Amaterasu et désormais chef de l'État et commandant suprême de la Marine et de l'Armée, fut l'objet d'un véritable culte. En 1889, fut établi un sanctuaire dédié à l'empereur Jinmu, le fondateur mythique de la dynastie. Ce sanctuaire porte le nom de . La restauration de Meiji (1868) mit théoriquement fin au système féodal en plaçant la terre et la population directement sous juridiction impériale, tout en instaurant un régime représentatif. Néanmoins, le Conseil extra-gouvernemental des genro « pères du pays », composé de membres de factions ayant soutenu la Restauration, exerça une importante influence dès le règne de l'empereur Meiji, et la mauvaise santé de son successeur l'empereur Taishō permit aux chefs de l'Armée et de la marine impériale japonaise d'entreprendre une prise en main du pouvoir. Le rôle de l'empereur devint toutefois prédominant sous l'ère Showa, et notamment lors de la constitution du quartier général impérial en 1937. Déjà chef de l'État et « commandant suprême de l'Armée et de la Marine » en vertu de la constitution, Hirohito devint le commandant d'une structure militaire indépendante du gouvernement et du conseil des ministres et composée essentiellement des représentants de l'Armée et de la Marine. Le Kokka shinto prit une importance primordiale lors de l'expansionnisme du Japon durant l'ère Showa. En tant que Commandant officiel du quartier général impérial à compter de 1937, l'empereur Shōwa était considéré comme la pierre d'assise du , la « réunion des huit coins du monde sous un seul toit ». Il fut ainsi instrumentalisé pour justifier l'expansionnisme et la militarisation auprès de la population japonaise. La manifestation tangible qui faisait de l'empereur le représentant des dieux était les insignes impériaux. Parmi les partisans les plus notables de cette doctrine, on compte le prince Kotohito Kan'in, chef d'état-major de l'armée impériale japonaise et le Premier ministre Kuniaki Koiso. En 1945, le commandant suprême des forces alliées imposa une révision de la constitution, abolissant par le fait même les pouvoirs de l'empereur et le Kokka shinto. Rôle actuel Par la constitution de 1889, l'empereur avait déjà transféré une grande partie de ses anciens pouvoirs de monarque absolu aux représentants du peuple. Son rôle actuel est défini dans le chapitre I de la Constitution de 1946 : l'article premier le définit comme le symbole de l'État et de l'unité du peuple japonais ; l'article 3 dispose que pour toutes ses actions concernant les affaires d'État, l'autorisation du cabinet est nécessaire ; l'article 4 précise qu'il n'est pas compétent en matière de gouvernement ; l'article 6 lui donne le pouvoir d'accréditer le Premier ministre et le chef de la cour suprême (nommés respectivement par la diète et le cabinet) ; l'article 7 lui donne le pouvoir d'agir en chef de l'État avec l'approbation du cabinet. Contrairement à la plupart des monarchies constitutionnelles, l'empereur du Japon n'a donc aucun pouvoir réservé mais se retrouve dans une situation proche de celle du roi de Suède. Il remplit la plupart des rôles d'un chef d'État et les puissances étrangères (les accréditations diplomatiques lui sont présentées par les ambassadeurs étrangers par exemple) le reconnaissent comme tel. Il existe au Japon une controverse récurrente concernant la façon dont l'empereur doit être envisagé : chef de l'État, ou personne agissant comme chef de l'État. Des tentatives des forces conservatrices dans les années 1950 pour amender la constitution afin de désigner clairement l'empereur comme chef de l'État furent rejetées. La restauration du statut de chef d'État de droit divin figure parmi les objectifs clairement affirmés par Nippon Kaigi, le principal lobby révisionniste japonais. Alliances Les souverains précédant l'empereur Taishō (1912-1926) avaient plusieurs épouses et concubines d'origine noble, dont en principe une (ou plus rarement deux) impératrice en titre. Le choix de ces femmes ainsi que leur rang étaient déterminés selon leur famille de naissance. Il semble qu'à l'origine les impératrices provenaient du clan impérial lui-même. Par la suite, elles furent le plus souvent choisies dans le clan allié le plus puissant, qui fut tout d'abord les Soga aux . Le relais fut pris au début du (empereur Shomu) par les Fujiwara. L'habitude de choisir l'impératrice dans le clan impérial ou le principal clan allié faisait qu'une relation consanguine existait entre les conjoints impériaux, très rapprochée parfois, surtout dans les premiers siècles (demi-frère et sœur ou oncle et nièce). Le beau-père de l'empereur, qui était souvent son oncle maternel, exerçait un pouvoir important. Les Fujiwara, en particulier, s'attribuèrent de façon héréditaire les positions de régents (sesshō et kanpaku) et dominèrent la politique durant la période Heian (794-1185). Fujiwara no Michinaga (966-1027), pour assurer son pouvoir, fit créer une deuxième position d'impératrice : pour sa fille Shosi, égale à la position de détenue par Teishi, fille de son frère aîné Fujiwara no Michitaka. Même après l'ascension des shoguns Minamoto, Taira et Ashikaga, les cinq branches principales du clan Fujiwara (Ichijo, Kujo, Nijo, Konoe et Takatsukasa) continuèrent de fournir l'essentiel des impératrices. Ce fait fut entériné officiellement lors de la restauration de Meiji (1889) ; les filles des cinq grandes branches Fujiwara et du clan impérial furent désignées comme les seules aptes à accéder au statut d'impératrice. La dernière impératrice Fujiwara fut Teimei, épouse de Taisho. L'impératrice Kojun, femme de Hirohito, venait du clan impérial ; son fils Akihito fut le premier à épouser une femme qui ne venait pas de la noblesse (impératrice Michiko). Les impératrices régnantes ou régentes étaient en général mises en place par la principale famille alliée pour protéger ses intérêts en l'absence d'un héritier mâle lié au clan, ou en cas de conflit insoluble entre deux prétendants. Durant leur règne, elles restèrent célibataires, à moins qu'elles ne soient arrivées ou revenues au pouvoir déjà veuves. La question du choix d'un empereur consort ne s'est donc jamais posée. Succession Autrefois Selon l'historiographie traditionnelle, le titre d'empereur du Japon est toujours resté dans le même clan patrilinéaire (lignée Yamato) depuis les débuts légendaires de la dynastie au . Même si ce n'est pas la réalité, il est en tout cas vraisemblable que depuis le premier empereur historique (fin du ), les souverains successifs ont maintenu entre eux d'authentiques liens de consanguinité, d'autant plus que les épouses et concubines impériales étaient généralement issues d'un nombre limité de familles ; même Keitai (450-531), qui semble être venu d'un clan différent de celui de ses prédécesseurs, leur était apparenté par les femmes. Le Trône du chrysanthème se transmettait selon le principe patrilinéaire, mais avec une certaine souplesse. Contrairement à la monarchie française, aucun ordre rigoureux de succession ne semble avoir été imposé, la transmission pouvant se faire de frère à frère aussi bien que de père à fils, avec dans ce dernier cas priorité aux fils de l'impératrice en titre, mais également possibilité d'adopter le fils d'un autre membre masculin de la famille. À l'époque de l'empereur Go-Saga (1220-1272), une alternance de la fonction impériale fut instaurée entre deux branches collatérales issues de deux princes impériaux. Le système finit mal, donnant lieu à l'apparition de deux empereurs rivaux, un du nord et un du sud. À partir du , la transmission du trône au fils aîné est devenu le mode le plus habituel, sans pour autant être une obligation officielle. Il était également possible à une princesse impériale de monter sur le trône, mais pas de le transmettre, c'est pourquoi les impératrices régnantes furent en général nommées en attente d'un candidat masculin valable et restèrent célibataires, à moins qu'elles ne soient déjà veuves. De nombreux empereurs abdiquèrent après quelque dix années de règne, soit pour diriger dans les coulisses, soit pour jouir d'une retraite confortable. La fonction impériale, à l'origine fortement religieuse, avait des aspects rituels très contraignants peu favorables à l'exercice effectif du pouvoir. Depuis Meiji L'article 2 de la constitution de 1889 interdit formellement que le trône soit occupé par une femme. La loi sur la famille impériale précisa que les fils de l'empereur prenaient le pas sur ses frères et ses neveux dans la succession ; si l'empereur n'avait pas de fils, le trône passait à la branche collatérale la plus proche. L'empereur était autorisé à prendre une ou plusieurs concubines si nécessaire, ce que fera d'ailleurs l'empereur Meiji, l'impératrice étant stérile. En 1947, l'interdiction des femmes sur le trône fut maintenue et la taille de la famille impériale réduite aux descendants de l'empereur Taisho. Seuls les fils biologiques légitimes peuvent hériter du trône, excluant le recours aux adoptions et aux concubines. À partir de la naissance en 2001 de la princesse Aiko, fille de l'actuel empereur Naruhito, un débat s'est élevé au Japon concernant la pertinence de soumettre à la Diète une proposition de révision des lois de succession visant à autoriser l'accession des femmes au Trône du chrysanthème. La réduction drastique du nombre de branches collatérales autorisées à hériter, associée à la stricte monogamie, peut en effet mener à une totale absence d'héritier mâle. Ainsi, le frère cadet de Naruhito, Akishino, avait à l'époque deux filles ; les trois autres héritiers possibles, frère ou cousins de Akihito, déjà quinqua ou sexagénaires, étaient aussi sans descendance mâle. En janvier 2005, le premier ministre Jun'ichirō Koizumi mit en place une commission composée de juges, d'universitaires et de cadres de l'administration pour étudier les changements possibles aux règles de succession et proposer des recommandations à cet égard. Le 25 octobre 2005, l'ouverture du trône aux femmes fut recommandée et en janvier 2006, Koizumi promit d'entreprendre un changement législatif, mais la venue au monde cette même année du prince Hisahito a suspendu ce projet, que le premier ministre Shinzō Abe a déclaré officiellement abandonné en janvier 2007. Nécropole impériale Tous les empereurs et impératrices, depuis l'empereur Taishō en 1926, ont été inhumés dans un vaste complexe funéraire situé dans la ville d'Hachiōji à l'ouest de Tokyo, et généralement appelé depuis 1990. Le terme de renvoie à l'ancienne Province de Musashi, qui comprenait, entre autres, l'actuel territoire de la préfecture de Tokyo. Cette nécropole était à l'origine, à la suite de sa création en 1927, et jusqu'en 1990, désignée sous le terme de , la ville d'Hachiōji faisant partie de la zone géographique appelée aire de Tama qui consiste en la partie occidentale de la préfecture de Tokyo, non comprise donc dans les 23 arrondissements tokyoïtes. Il comprend : , ou mausolée de Tama, sépulture de l'empereur Taishō depuis le , et le ou mausolée de l'Est de Tama (le terme de higashi, ou est, qualifiant les mausolées de toutes les épouses des empereurs), sépulture de l'impératrice Teimei depuis 1951. , ou mausolée de Musashino, sépulture de l'empereur Shōwa depuis le , et le , ou mausolée de l'Est de Musashino, sépulture de l'impératrice Kōjun depuis le . Le terme de , ou plaine de Musashi, est le nom donné également à la plaine qui s'étend sur une large partie de l'ouest de la préfecture de Tokyo. Notes et références Articles connexes Liste des empereurs du Japon Histoire du Japon | Empire du Japon Shogun Bakufu Kōgō, l'épouse de l'Empereur Samouraï Empereur du Japon
1018
https://fr.wikipedia.org/wiki/Espagnol
Espagnol
L’espagnol (en espagnol : ), ou le castillan (en espagnol : ) est une langue romane parlée en Espagne et dans de nombreux pays d'Amérique et d'autres territoires dans le monde associés à un moment de leur histoire à l'Empire espagnol. La langue espagnole est issue du latin vulgaire parlé dans la péninsule ibérique. Son développement s'est appuyé sur la reconquête politique du pays par le royaume d'Oviedo, en région cantabrique, au nord de la péninsule Ibérique, en suivant l’extension du royaume de Castille et continua en Afrique, aux Amériques et en Asie Pacifique avec l'expansion de l'empire espagnol entre le , circonstances historiques qui en font la langue romane la plus parlée dans le monde actuellement. L'espagnol est maintenant la langue maternelle d'environ de personnes et est utilisé par près de de personnes, ce qui la hisse au quatrième rang mondial pour le nombre de locuteurs, derrière le chinois mandarin, l'anglais et le hindi, et au deuxième rang pour le nombre de locuteurs de naissance. L'espagnol est l'une des principales langues de communication internationale, avec l'anglais et le français. Histoire Caractéristiques L'espagnol est de façon générale resté nettement archaïsant et demeure ainsi relativement proche du latin classique et de l'italien moderne, avec lequel il maintient un certain degré d'intercompréhension. Appartenant à la sous-branche ibéro-romane comme le portugais, l’espagnol permet également une certaine intercompréhension écrite, et dans une moindre mesure orale, avec celui-ci. L’espagnol est morphologiquement proche du français, du fait de leur origine latine commune, mais l'intercompréhension reste toutefois très limitée, bien que facilitée à l'écrit par le caractère archaïsant de l'orthographe française. D'autre part, l'espagnol étant originaire de la région de Cantabrie, dans le nord de l'Espagne, il a reçu une forte influence du substrat formé par l'ancêtre du basque, en particulier au niveau morphologique, ainsi que, dans une moindre mesure, lexical. Morphosyntaxe L'espagnol partage avec les autres langues romanes la plupart des évolutions phonologiques et grammaticales caractéristiques du latin vulgaire, telles que l'abandon de la quantité vocalique, la perte des déclinaisons et la disparition des verbes déponents. Les principales évolutions qui caractérisent l’espagnol sont : diphtongaison spontanée des E (>ie) et O (>ue) brefs toniques (TEMPU(M)>tiempo ; PORTA(M)>puerta, etc.) palatalisation des groupes -LL- et -NN- latins en [ʎ] et [ɲ] (ANNU(M)>año, etc.) bêtacisme, c'est-à-dire disparition de l'opposition entre les phonèmes /v/ et /b/ (sauf dans certains contextes d'hypercorrection). sonorisation des consonnes occlusives sourdes intervocaliques (VITA>vida ; LACU(M)>lago, etc.), trait commun aux langues romanes occidentales. aspiration puis disparition du F- initial latin, conservé sous la forme d'un « h » muet dans la graphie usuelle (FILIUM>hijo ; FACERE>hacer, FABULARE>hablar ; FOLIA>hoja). Ce trait, que l'on retrouve également en gascon, est sans doute une conséquence de l'influence du substrat bascoïde (le système phonologique basque ne connaît pas de F- à l'initiale). Dans certaines régions le H- initial est encore prononcé aspiré. adoption d'un système vocalique simplifié à 5 voyelles (a, e, i, o, u) lui aussi peut-être influencé par le basque. dévoisement puis évolution singulière des fricatives de l'espagnol médiéval dans le sens d'une simplification, débouchant sur la mise en place de deux phonèmes particulier : la fricative vélaire sourde et, dans différents dialectes péninsulaires, incluant notamment les parlers prestigieux de Tolède, Madrid, etc., l'interdentale (proche du th anglais). adoption d'une accentuation tonique basée sur l'intensité et non (comme en italien par exemple) sur la quantité. En comparaison aux autres langues romanes, l'espagnol possède une typologie syntaxique particulièrement libre et avec des restrictions bien moindres concernant l'ordre des mots dans les phrases (typiquement : sujet-verbe-complément). Un des traits syntaxiques caractéristiques de l'espagnol est l'ajout d'une préposition « a » devant les compléments d'objet renvoyant à une personne ou un être animé. Il peut être considéré comme une conséquence de la liberté syntaxique précédemment évoquée, le fait de pouvoir intervertir facilement les groupes syntaxiques dans une phrase entraînant possiblement une confusion entre sujet et objet, évitée grâce à l’emploi de la préposition. Ce trait concourt à une confusion que l'on rencontre dans l'usage des pronoms compléments directs et indirects (phénomènes qualifiés de Leísmo, laísmo et loísmo, le premier étant considéré comme correct dans certains cas d'un point de vue académique). L'espagnol fait fréquemment usage d'un pronom complément indirect redondant en cas de présence du groupe nominal référent : le digo a Carmen : « je dis à Carmen » (littéralement : « je lui dis à Carmen »), et même se lo digo a Carmen (« je le lui dis à Carmen »). Comme en latin et dans la plupart des autres langues romanes, et à la différence du français, l'usage des pronoms sujets est facultatif. Il n'est utilisé que pour lever une confusion dans certains cas de conjugaisons ou pour insister sur le sujet : yo sabía la lección (« je savais la leçon ») face à ella sabía la lección (« elle savait la leçon ») ou bien trabajo muy bien (« je travaille très bien ») opposé à yo trabajo muy bien (tú no) « moi, je travaille très bien (pas toi) ». Système verbal De façon générale, le système de conjugaison de l'espagnol est resté morphologiquement très proche du latin. Les quatre conjugaisons latines sont réduites à trois en espagnol. Les infinitifs latins en -ĀRE, -ĒRE et -ĪRE deviennent respectivement en espagnol -ar, -er et -ir ; la troisième conjugaison latine, en -ĔRE, est redistribuée entre les deuxième et troisième conjugaisons de l'espagnol, -er et -ir (ex. : FACĔRE > hacer, DICĔRE > decir). L'espagnol conserve avec une grande vitalité son passé simple, issu du parfait latin, qui tend à être remplacé par des formes analytiques dans d'autres langues romanes. Comme dans d’autres langues romanes, on observe en espagnol une auxiliarisation du verbe haber (« avoir, posséder »). Celui-ci permet de construire les temps composés (suivis du participe-passé des verbes conjugués, qui reste toujours invariable en espagnol) mais aussi les nouveaux paradigmes du futur de l'indicatif (infinitif + haber) pour remplacer le paradigme latin (CANTABO…) tombé en désuétude. Le conditionnel est construit par analogie, en utilisant l'auxiliaire simplifié à l'imparfait. haber a fini par perdre son sens original de « avoir, posséder » au profit de tener, pour n’être plus qu’un verbe auxiliaire. Il conserve encore sa valeur sémantique d’origine dans certaines expressions lexicalisées, en particulier haber de + infinitif pour signifier une obligation et la forme hay < ha allí (« il y a ») ainsi que ses variantes dans les différents temps et modes (había, habrá, hubo, etc. et même ha habido au passé-composé). L'espagnol dispose actuellement de deux paradigmes de conjugaison pour le subjonctif imparfait, issus du plus-que-parfait latin, indicatif pour les formes en -ra (AMAVERAM>amara), et subjonctif pour les formes en -se (AMAVISSEM>amase). Bien que tous deux soient également admis sur un plan académique, le premier tend à se substituer au second, surtout dans le langage oral. De plus, il conserve encore dans certains usages, en particulier littéraires, sa valeur originelle d'indicatif plus-que-parfait, et est utilisé comme deuxième variante (libre) du conditionnel présent pour quelques verbes (querer > quisiera ~ querría ; deber > debiera ~ debería ; haber > hubiera ~ habría ; poder> pudiera ~ podría). De même, le subjonctif plus-que-parfait peut remplacer le conditionnel passé pour exprimer l'irréel du passé. Les pronoms personnels compléments sont placés en enclise, c’est-à-dire collés immédiatement après le verbe, lorsque le verbe est à l’infinitif (llamarse, « s’appeler » ; dejarme, « me laisser », etc.), au gérondif (mirándome, « en me regardant ») ou l’impératif (comme en français : mírame, « regarde-moi » ; et comme en français le pronom redevient proclitique si l’impératif est négatif : no me mires, « ne me regarde pas »). Les pronoms sont susceptibles de se combiner, le pronom indirect se place alors en premier : déjamelo, « laisse-le-moi ». Dans une combinaison, le pronom indirect de troisième personne devient se (habituellement pronom réfléchi) et non le : díselo, « dis-le-lui ». Lorsque la forme verbale portant le pronom est associée à un semi-auxiliaire, on a la possibilité de rattacher le ou les pronoms à celui-ci en position proclitique : está levantándose ~ se está levantando (« il est en train de se lever ») ; ¿Quieres callarte?~¿Te quieres callar? (« Veux-tu te taire ? ») ; suele decirme la verdad ~ me suele decir la verdad (« il me dit habituellement la vérité »). La construction enclitique est perçue comme légèrement plus soutenue. Les cas d’enclises de pronoms étaient beaucoup plus nombreux en ancien espagnol (direvos, « je vous dirai », os diré en espagnol moderne, etc.) ; certains sont préservés dans des locutions figées. On trouve un phénomène analogue en portugais, en catalan, en occitan aranais, ainsi que, partiellement, en italien. Jusqu'au , l'espagnol a maintenu un subjonctif futur en -re (à valeur fortement hypothétique), issu d'une fusion des paradigmes du subjonctif parfait et du futur antérieur (remplacé par la forme composée en utilisant haber au futur). Cette forme a pratiquement disparu de l’espagnol actuel et ne persiste que dans des expressions lexicalisées, des proverbes et certaines formules juridiques. Lexique En raison de ses contacts prolongés avec d'autres langues, le lexique de l'espagnol comporte bon nombre de mots issus d'emprunts, notamment aux langues paléo-hispaniques (ibère, hispano-celtique), au basque, à l'arabe et à différentes langues amérindiennes. Fonds paléo-hispanique Mots d'origine ibère L'ibère se parlait tout au long de la côte orientale de la péninsule. Le fonds ibère consiste principalement en éléments géographiques et zoologiques, comprenant pour l'essentiel : ardilla « écureuil », arroyo « ruisseau », balsa « étang », calabaza « potiron » (cf. catalan carabassa), cama « lit », conejo « lapin » (du latin cuniculus), cuérrago « lit de fleuve », galápago « tortue de mer » (cf. cat. calapèt « crapaud »), garma « éboulis », gazapo « lapereau » (cf. portugais caçapo, cat. catxap), gusano ~ gusarapo « ver », mantequilla « saindoux », maraña « fourré », marueco ~ morueco « bélier » (cf. cat. marrà, mardà), parra « pied de vigne », perro « chien », autrefois « corniaud », rebeco « chamois, isard » (du latin ibex, emprunté à l'ibère), sima « gouffre, abîme », tamo « menue paille ». Mots d'origine hispano-celtique L'hispano-celtique regroupe plusieurs variétés, dont le gallaïque (au nord-ouest), le celtibère et le gaulois tardif (au nord-est). Le fonds celtique concerne notamment la botanique, la faune, le labourage et d'une moindre mesure l'artisanat. Au celtique remontent : álamo « peuplier blanc », ambuesta « poignée », amelga « champ défriché », beleño « jusquiame », berro « cresson » (cf. français berle), bezo « babine », bodollo « faucille » (cf. fr. vouge), breca « pandore (mollusque) » (cf. poitevin brèche « vache bigarrée »), brezo « bruyère », bruja « sorcière », cam(b)a « chambige », combleza « maîtresse (d'un homme marié) », corro « cercle », cresa « asticot », cueto « butte, petite colline », duerna « pétrin », galga « galet », gancho « crochet », garza « héron », greña « enchevêtrement », mocho « bouc ou bélier châtré » (cf. fr. mouton), rodaballo « turbot », sábalo « alose », sel « pâturage commun », serna « champ labouré », taladro « tarière », terco « têtu », varga « chaumière », yezgo « hièble ». Mots d'origine basque Le basque, adstrat du castillan, l'a aussi influencé, et ce dès sa naissance. Certains mots, comme (1) izquierda « le gauche », du basque ezkerra (cf. cat. esquerre, port. esquerda), (2) madroño « arbousier » (cf. arag. martuel, cat. maduixa), correspondant au basque martotx « ronce » et martuts « mûre », et (3) zarza « ronce » (cf. port. sarça), qui provient du basque anc. çarzi (auj. sasi), ont eu du succès en évinçant le vieil espagnol siniestro « gauche » (aujourd'hui « sinistre »), alborço « fraisier » et rubo « ronce ». Certains d'entre eux ne semblent pas avoir connu de concurrent, comme vega « plaine fertile riveraine » (v.esp. vayca, vajka), qui répond au basque ibai « fleuve », ou sapo « crapaud », du basque zapo, face à son équivalent latin escuerzo, et enfin d'autres, comme muérdago « gui » (du basque mihura) et cachorro « chiot » (du txakur, « chien») ont fait glisser de sens leurs anciens synonymes (visco « glu (à base de gui) », cadillo « caucalis »). D'autres encore sont de date récente, comme zorra « renard », emprunté au portugais et substantivisé à partir d'un zorro « oisif », lui-même tiré du basque zuur ~ zur ~ zuhur « prudent ». Ce mot est toujours concurrencé par le sobriquet raposa, « la touffue », plus ancien : synonymie recherchée parce que le renard fait l'objet d'un tabou lexical. Quelques noms de vêtements sont passés du basque à l'espagnol, comme chapela (< txapel, « béret basque »), face à boina (« béret »), chamarra (< zamar ou txamar, zamarra ou txamarra avec l'article défini singulier, « veste »), des activités comme pelotari (« joueur de pelote basque »), chistu (< txistu, « flûte basque »), chalaparta (< txalaparta, instrument de percussion), aquelarre (« sabbat, de akelarre, lui-même formé à partir de aker « bouc » + larre « pré », car ces rites, soi-disant présidés par Satan lui-même, sous la forme d'un bouc, avaient lieu dans des prés) et le nom de la langue basque, euskera, eusquera ou euskara (< euskara), face à vasco ou le plutôt vieilli vascuence. Plus récemment, des emprunts ayant rapport au contexte politique, comme zulo (« cache d'armes », du mot zulo, « trou »), kale borroka (« guerrilla urbaine », de kale, « rue » et borroka « combat »), ikurriña (dikurrina, « drapeau basque »), gudari (de gudari, « soldat », surtout pendant la Guerre civile espagnole) ou abertzale (« nationaliste basque ») sont devenus courants dans les médias espagnols. L'espagnol régional du Pays basque possède évidemment davantage d'emprunts, tels que sirimiri (« bruine, crachin», face à llovizna), chirristra (« toboggan», du basque txirrista, face à tobogán) ou bien aita (« père») et ama (« mère »), face à papá et mamá ; la gastronomie a également fourni des mots, tels que marmitaco ou marmitako (plat préparé par les pêcheurs avec du thon et des pommes de terre, du basque marmitako), cocochas (de kokots, kokotsa avec l'article défini singulier, « barbillon, menton »), chacolí (du substantif txakolin, sorte de vin blanc) ou chistorra (de zistorra et txistorra, saucisson fin). À noter également le nom órdago, de la phrase basque Hor dago ([il] est là), « renvi », à l'origine utilisée dans un jeu de cartes et qui veut dire aussi « épatant » dans l'expression de órdago. Mots d'origine germanique Environ mots espagnols dérivent du gotique, une langue germanique orientale qui fut parlée par les Wisigoths, un peuple qui domina une grande partie de la péninsule Ibérique du . Quelques mots d'origine francique ont également pénétré l'espagnol par le biais du français. Mots et verbes d'origine germanique Noms propres d'origine germanique , de l'anthroponyme germanique Athaulf Burgos (incertain ; peut-être du gotique *baurgs « ville fortifiée ») Gondomar , de l'anthroponyme germanique Gundulf , de l'anthroponyme germanique Randulf Villafáfila, du latin Villa Fafila, c'est-à-dire la Villa de Fafila (nom de personne d'origine gotique) Wamba Mots d'origine arabe Héritage du contact linguistique lors du siège musulman en Espagne, l'arabe apporta un grand nombre de mots à l’espagnol (plus de ). Les langues issues du roman présentes au nord de la péninsule ibérique n'étant parlées qu’en minorité, c’est la langue coranique qui s’imposa comme langue administrative et culturelle pendant les 8 siècles du règne du califat de Cordoue. Après le latin, l’arabe est le flux lexical le plus important de l’espagnol, les toponymes constituant près du quart. Les sciences, l’agriculture, le commerce et la guerre sont les domaines qui influencèrent le plus le corpus du castillan. Le passage des arabes en Espagne contribua aussi à intégrer à la langue des mots provenant du grec, du perse et du sanskrit. Les arabismes se figèrent dans la langue avec la publication de la première grammaire en langue castillane en 1492, année marquant la fin de la reconquête du territoire instiguée par les Rois catholiques. Noms communs d'origine arabe Noms propres d'origine arabe Albacete, de l'arabe : البسيط, Al-Basit, la plaine ; Alcázar, de l'arabe : al-qṣar, al kasr ; château/forteresse, terme utilisé pour désigner cette architecture défensive en Andalousie ; Alhambra de l'arabe : الْحَمْرَاء, Al-Ḥamrā', littéralement « la rouge », (la forme complète est Calat Alhambra الْقَلْعَةُ ٱلْحَمْرَاءُ, Al-Qal‘at al-Ḥamrā’, « la forteresse rouge ») ; Almería, de l'arabe : مرأى al-Miraya, tour de vigie, donjon, mirador ; Almodovar, de l'arabe : المدور al-mudawwar, la ronde ; Grenade de l'arabe : غرناطة, Gar-anat, Colline des pèlerins ; Gibraltar, de l'arabe : جبل طارق, djebel Tarik montagne de Tarik ; Guadalquivir, de l'arabe : الوادي الكبير wâd-al-kébir (la grande rivière ou la grande vallée) wâd (oued) signifiant plus la notion de vallée que rivière qui se dit nahr ; Guadalajara, de l'arabe : وادي الحجارة wâd-al-ħijârä (la vallée des pierres ou la rivière des pierres). Andalousie de l'arabe Al-Andalus (voir l'étymologie d'al-Andalus et de l'Andalousie). Nom propre d'origine européenne et arabisé Alicante, de l'arabe : ألَقَنت Al-Laqant via le catalan Alacant, de la cité romaine Leucante (Lucentum). Mots d'origine gitane Le caló (langue mixte issue de l'espagnol et du romaní, langue des Roms proche des langues indiennes, comme l'hindi, dont de nombreux mots sont similaires : pani, « eau », etc.) a apporté un grand nombre de termes d’argot comme gachó « mec », bato « père », biruji « vent très froid », camelar « aimer », chaval,a « jeune », currar « bosser », fetén « excellent », parné « fric », sobar « pioncer », pinrel « panard », pureta « vieux, ancien », chorar « chaparder » (cf. fr. chourer), terne « fort, robuste », diñar « donner », mangue « moi », pañí « eau », chingar « piquer, voler», lacha « honte », pirarse « s'en aller », canguelo « peur », chachi « super », chanelar « comprendre, piger », chungo,a « difficile », jiñar « caguer », mangar « piquer, voler», clisos « yeux », jalar « bouffer ». Écriture Comme les autres langues romanes, l'espagnol a adopté l'alphabet latin et recourt à des diacritiques et des digrammes pour le compléter. Les accents écrits, utilisés en espagnol moderne pour marquer la voyelle tonique dans certains cas, ou pour distinguer certains homonymes, ont été utilisés de façon spontanée jusqu'à la standardisation de leur usage à la création de l'Académie royale espagnole au . De plus, le u porte un tréma dans de rares occasions, à savoir dans les suites güe et güi pour indiquer que le u se prononce (par exemple : bilingüe, « bilingue »). Le tilde est peut-être le plus célèbre des diacritiques espagnols ; il donne naissance à un caractère considéré comme une lettre à part entière, ñ. Il s'agit à l'origine d'un digramme NN, le second N ayant été abrégé par suspension au moyen d'un trait devenu ondulé, ~. Ce sont les scribes espagnols qui ont inventé la cédille (, « petit z »), qui n'est cependant plus utilisée depuis le (le ç, qui se notait [ts], est devenu un [θ] interdental noté z : lança est devenu , « lance », ou c devant e et i : , « aveugle »). Les points d'exclamation et d'interrogation sont accompagnés par des signes du même type inversés, ¡ et ¿, placés au début de la proposition concernée (et non au début de la phrase) : (« Comment vas-tu ? »), (« Comme c'est étrange ! ») mais (« Si tu vas à Séville, tu m'achèteras un éventail ? »). De façon générale, l'espagnol, à l'écrit, est une transcription proche de l'oral ; toutes les lettres doivent être prononcées, à de rares exceptions près (la plupart des h et le u des syllabes gue, gui, que et qui). L'apprentissage de la langue s'en trouve ainsi dans une certaine mesure facilité, autant pour les hispanophones de naissance comme pour ceux désireux d'apprendre la langue comme seconde langue. Les combinaisons de lettres ph, rh et th ainsi que ch provenant du kh grec ne sont pas utilisées, et seules les consonnes c, r, l et n peuvent être doublées. Le rr, comme r en début de mot, transcrit une consonne roulée alvéolaire voisée tandis que ll transcrit une consonne centrale liquide. La combinaison qu rend le son k devant e et i (comme habituellement en français). Traditionnellement, ch et ll ont été considérées comme lettres à part entière et pour cette raison, dans le dictionnaire, elles se trouvaient classées en conséquence (par exemple : camisa, claro, charla, ou liar, luna, llama). Les dictionnaires ont cependant, peu à peu, abandonné cette pratique et recourent à un classement alphabétique classique (comme en français). Cette situation a été régularisée par l'Académie royale espagnole dans une réforme orthographique publiée en 2010, qui stipule que ch et ll ne doivent plus être considérées comme des graphèmes indépendants mais seulement comme une combinaison de deux graphèmes. Variations et dialectes Dialectes d'Espagne Parmi les modalités les plus remarquables du castillan parlé en Espagne, on peut citer l'andalou (notamment caractérisé par la présence de seseo ou de ceceo selon les zones), le murcien, le castúo et le canarien. Variations en Amérique hispanique On distingue cinq aires de variation topolectale de l’espagnol en Amérique : l'Amérique du Nord et l’Amérique centrale, où est en usage l'espagnol mexicain ; les Caraïbes ; les Andes ; le Chili, où est en usage le topolecte de Santiago ; le Río de la Plata et le Gran Chaco. Parmi les plus remarquables, on peut citer l'utilisation d'un autre système de pronoms personnels. Le pronom de la troisième personne du pluriel (qui sert en Espagne uniquement à s'adresser à un ensemble de personnes que l'on vouvoie) remplace en Amérique hispanique le . Ce pronom, ( personne du pluriel) équivaut en Espagne au « vous » français lorsque l'on s'adresse à un ensemble de personnes que l'on tutoie. La prononciation ibérique de la consonne c (devant les lettres e et i) ou z (devant a, o et u), est une spirante interdentale (proche du th anglais dans le verbe think, pas dans l'article the). En Amérique latine, le phonème se prononce presque toujours (phonétiquement proche du s français, le s péninsulaire étant plus palatal), un important trait commun avec le canarien et une grande partie de l'andalou. Cette prononciation, appelée en espagnol , est généralisée en Amérique hispanique. Les traits communs avec le dialectes andalou et canarien s'expliquent par le fait que la colonisation de l'Amérique hispanique et tous les échanges commerciaux avec celle-ci ont pendant longtemps été centralisés à Séville (les îles Canaries servant alors d'intermédiaire avec la Péninsule Ibérique), ce qui permettait un meilleur contrôle des flux par la monarchie. Ceci explique que le dialecte andalou ait été dominant chez les migrants qui y passaient souvent de longs mois avant de pouvoir embarquer pour le Nouveau Monde. Les nombreux esclaves africains déportés dans l'empire espagnol ont également influencé certaines différenciations des parlers d'Amérique et développé une forme d'espagnol particulière au contact des colons, tout en apportant leur accent africain. De grandes disparités peuvent exister au niveau du lexique. Par exemple certains mots courant dans l'espagnol péninsulaire sont obscènes en Argentine, au Pérou ou au Mexique, tels que coger (« prendre » en espagnol européen, mais « avoir des relations sexuelles » dans beaucoup de pays d’Amérique du Sud). L'expression de l'heure peut différer en Espagne et en Amérique. Pour ce qui est de la première moitié du cadran (12 à 6), l'usage est le même. Pour la deuxième moitié (6 à 12), il y a des variations. Par exemple, en Espagne, Il est » se dira tandis qu'en Amérique latine on préférera généralement , bien que le paradigme péninsulaire existe et soit quelquefois employé. « Il est » et « Il est » se disent de la même façon : . Le spanglish Une conséquence du contact de la langue espagnole avec l'anglais est l'apparition d'un parler appelé « spanglish », qui est employé notamment par des locuteurs aux États-Unis. Cette variante de l'espagnol est étudiée dans certaines universités comme l'Université Amherst du Massachusetts. Extension et usage En Europe, l'espagnol est langue officielle de l'Espagne (coofficielle suivant les régions autonomes), où elle est parlée par environ 47 millions de locuteurs. Dans le reste de l'Union européenne, on recense près de 32 millions d'hispanophones, en très grande majorité partiels. À Gibraltar, il est parlé par 77 % de la population (50 % comme langue maternelle). En Andorre, il est la langue utilisé par presque 40 % de la population. En Amérique, l'espagnol est la langue officielle de 19 des 35 pays du continent : Argentine, Bolivie, Chili, Colombie, Costa Rica, Cuba, République dominicaine, Équateur, Guatemala, Honduras, Mexique, Nicaragua, Panama, Paraguay, Pérou, Porto Rico, Salvador, Uruguay et Venezuela. Les populations hispanophones les plus nombreuses se trouvent au Mexique (127 millions), aux États-Unis (56 millions, ce qui représente une proportion d'environ 18 % de la population, avec une densité supérieure à 25 % dans les États frontaliers du Mexique), en Colombie (50 millions), en Argentine (45 millions), au Pérou (32 millions) et au Venezuela (32 millions). En Amérique, il y a également plus d'un demi-million d'hispanophones au Canada et au Brésil (où l'apprentissage de la langue est obligatoire à l'école primaire depuis 2005). Il est aussi la langue maternelle de 40 % de la population au Belize. En Afrique, l'espagnol est la langue officielle de la Guinée équatoriale. Il est également parlé dans les régions nord du Maroc et au Sahara occidental, sans oublier les territoires espagnols de Ceuta, Melilla et les îles Canaries. En Asie, plus de 3 millions de locuteurs existaient aux Philippines, mais aujourd'hui il y en a quelques milliers de moins que le demi-million de locuteurs hispanophones recensés en Australie. On recense environ hispanophones en Israël. En Océanie, il est parlée dans le territoire chilien de l'Île de Pâques. Enfin, une langue derivée du vieux castillan appelée selon les auteurs ladino, judesmo, ispanyol ou judéo-espagnol est parlée par la communauté juive séfarade originaire de la Péninsule ibérique en Israël, Turquie, ou encore Gibraltar. Répartition des hispanophones dans le monde Les données publiées dans le tableau ci-dessous sont extraites du rapport 2020 de l'Institut Cervantes. Littérature Les prix Nobel de littérature en langue espagnole : Distinction entre « espagnol » et « castillan » Le terme « espagnol » est recommandé par l'Académie royale espagnole (), et l'Association des académies de la langue espagnole en tant que dénomination internationale de la langue. Toutefois, cette appellation est peu employée voire rejetée dans des pays où l'espagnol est langue officielle, et où le terme de castillan est préféré : en Espagne, le terme « castillan » est très couramment utilisé, surtout dans des régions bilingues. Cependant, le nom le plus répandu est « espagnol » . D'autre part, l'adjectif « espagnol » faisant référence à l'ensemble du territoire et d'autres langues étant traditionnellement parlées dans une part importante du territoire (dont le catalan, le basque et le galicien, qui bénéficient d'un statut officiel depuis la transition démocratique), l'appellation de « castillan » est plus proche de la réalité, s'agissant d'une langue d'Espagne parmi d'autres, originaire de la Castille ; en Amérique hispanique, pour des raisons historiques liées au processus d'indépendance de chaque pays et de son rapport à l'Espagne, la dénomination « espagnol » est plus généralement acceptée du Mexique à la Colombie et la dénomination « castillan » est préférée en République dominicaine, à Cuba, Porto Rico, et dans certains autres pays de l'Amérique du Sud de langue espagnole. Par ailleurs, la dénomination castillan peut désigner plus précisément : l'espagnol envisagé comme langue officielle de l’Espagne ; le dialecte roman originaire de Cantabrie et employé au royaume de Castille durant le Moyen Âge. Voir castillan ancien ; le dialecte moderne parlé actuellement dans les régions centrales espagnoles de Castille-et-León, Castille-La Manche et Madrid, en opposition aux autres dialectes de la langue, péninsulaires ou non, comme l'andalou, le canarien ou le murcien. Étymologie Le substantif masculin « espagnol » (prononcé : ) est un probable emprunt à l'ancien languedocien ou , issu, par l'intermédiaire du latin vulgaire *hispaniolus, du latin classique , de même sens. Notes et références Voir aussi Bibliographie Real Academia Española, Diccionario de la lengua española (22 éditions) Julio Casares, Diccionario ideológico de la lengua española, 1942 Joan Coromines, Diccionario crítico etimológico castellano e hispánico, 1980-1991 María Moliner, Diccionario de uso del español, , 2007 Articles connexes Dialectologie de la langue espagnole Grammaire de la langue espagnole Histoire de la langue espagnole Classement alphabétique en espagnol Syllabe castillane Sigles en espagnol Dialectes du castillan en Espagne Castillan de Madrid Liste Swadesh du castillan Linguistique Liste de langues Langues par famille Langues indo-européennes Langues romanes Langues ibéro-romanes Ser et estar (espagnol) Différences entre l'espagnol et le portugais Liens externes Wikisource : Wikisource en espagnol Site officiel de l’Académie royale espagnole Site officiel de l'Association des académies de la langue espagnole Langue officielle de l'Union européenne Inventaire de langues Langue officielle Langue syllabique Langue en Andorre Langue en Argentine Langue au Belize Langue en Bolivie Langue au Chili Langue en Colombie Langue à Cuba Langue au Costa Rica Langue en Équateur Langue en Espagne Langue en Estrémadure Langue aux États-Unis Langue au Guatemala Langue en Guinée équatoriale Langue au Honduras Langue aux îles Malouines Langue au Maroc Langue au Mexique Langue au Nicaragua Langue au Panama Langue au Paraguay Langue au Pérou Langue à Porto Rico Langue au Salvador Langue en Uruguay Langue au Venezuela Langue internationale ou mondiale
1025
https://fr.wikipedia.org/wiki/EDF%20Gaz%20de%20France%20distribution
EDF Gaz de France distribution
EDF Gaz de France Distribution (EGD) était une ancienne direction commune aux deux entreprises Électricité de France et Gaz de France Généralités Bien que n'ayant pas d'identité juridique propre, et n'ayant pas le statut de filiale, EDF Gaz de France Distribution était reconnue comme une direction mixte à EDF et Gaz de France. Son personnel et ses directions étaient « mixtes » et appartenaient aussi bien au groupe EDF qu'au groupe Gaz de France qui en partageaient la direction Auparavant « Direction de la Distribution », puis Direction « EDF GDF Services » (DEGS), cette direction renommée en 2004 (« EDF Gaz de France Distribution ») est couramment abrégée en « EGD ». Elle couvre tout le territoire français, y compris les départements d'Outre-Mer, mais hors territoires d'Outre-Mer et hors communes desservies par des régies locales. Sur ce territoire, elle a pour fonction principale de gérer, sous le contrôle des communes qui en sont propriétaires, les réseaux de distribution du gaz et de l'électricité Elle emploie salariés. La production et le transport sont à la charge d'autres directions. Dans le cadre de l'ouverture du marché de l'énergie, et pour permettre un accès au réseau de distribution non discriminatoire à tous les clients quel que soit le fournisseur choisi, EDF et Gaz de France ont mis en place à partir du 2004 deux gestionnaires de réseaux de distribution séparés, un pour l’électricité (EDF Réseau Distribution - ERDF) et un pour le gaz (Gaz de France Réseau Distribution - GRDF). EDF Gaz de France Distribution représentait le service commun de ces deux directions. Jusqu'en juillet 2007, EDF Gaz de France Distribution a assuré, en plus de ses missions de gestionnaire de réseau, le service clientèle (service client, facturation, gestion, vente...) des entreprises EDF et Gaz de France pour la clientèle des particuliers Organisation d'EDF Gaz de France Distribution en Région EDF Gaz de France Distribution était composé de 102 Centres de distribution sur tout le territoire, regroupé en « Groupement de Centres » (Sud-Est, Ouest...etc.) qui assurent le pilotage et la stratégie d'EDF Gaz de France Distribution en région. Chaque groupement de centre était composé de 4 lignes métier : P1 : Métier Réseau Gaz (devenu URG à la création des filiales Enedis et GrDF) P2 : Métier Réseau Électricité (devenu URE à la création des filiales Enedis et GrDF) P3 : Métier Clients et Fournisseurs (devenu UCF à la création des filiales Enedis et GrDF) P4 : Accueil Gestion des Particuliers (Gestion de la relation commerciale d'EDF et Gaz de France). Ce dernier portefeuille avait la spécificité de ne pas être une activité de distribution, mais de gestion clientèle fournisseur déléguée au distributeur EDF GDF Distribution. Ce portefeuille a été supprimé en 2007 et transféré à EDF (EDF Branche Commerce) pour l'électricité, et à Gaz de France (Direction Commerciale Gaz de France) pour le gaz naturel. Il existait également une Fonction Soutien Logistique, assurant les fonctions transverses pour les 4 autres portefeuilles métier (RH, Immobilier...). Dissolution d'EDF Gaz de France Distribution Depuis le , les activités d'EDF Gaz de France Distribution sont transférées dans deux entités : Électricité Réseau Distribution France (ERDF, devenu Enedis le , filiale du groupe Électricité de France) et Gaz Réseau Distribution France (GRDF, filiale du groupe Gaz de France, devenu GDF Suez en , puis Engie en ) qui forment un service commun de salariés, destiné à la gestion du réseau de distribution d'électricité et de gaz. Références Entreprise publique en France Entreprise du secteur de l'énergie ayant son siège en France Industrie Service public en France Entreprise fondée en 1951 Gestionnaire du réseau de distribution
1026
https://fr.wikipedia.org/wiki/Electronic%20Entertainment%20Expo
Electronic Entertainment Expo
L’ (en français : « Expo de divertissements électroniques »), plus connu sous le nom de E3 ou E, est l'un des plus grands salons internationaux du jeu vidéo et des loisirs interactifs. À la suite d'une refonte du salon, après l'édition 2006, son nom avait été modifié pour devenir l'E3 Media and Business Summit lors des éditions 2007 et 2008. Le salon est organisé chaque année par l'Entertainment Software Association (ESA). Ce salon annuel, autrefois exclusivement réservé aux professionnels du secteur et aux journalistes, se tient au début du mois de juin au Los Angeles Convention Center à Los Angeles, États-Unis. Il s'étale sur trois jours et met à l'honneur les constructeurs de machines (Nintendo, Sony et Microsoft) et les éditeurs de jeux vidéo (EA, Activision, Ubisoft, etc.). Les conférences sont généralement diffusées en streaming sur internet ainsi que sur des chaînes de télévision spécialisées (par exemple : la chaîne française Nolife ou encore Game One qui diffusent et organisent des émissions en direct du salon). Histoire En 1994, le jeu vidéo ne disposait pas de salon lui étant réservé et les professionnels du secteur se rencontraient dans des salons plus généralistes, comme le Consumer Electronics Show (CES), qui se déroulait deux fois par an. Il ouvre ses portes en 1995, débute avec visiteurs. Le syndicat des éditeurs américains, l'Interactive Digital Software Association (IDSA), crée alors son propre salon annuel, réservé aux professionnels ; la première édition de l’Electronic Entertainment Expo (E3) ouvre ses portes en 1995. Depuis 1998, un groupe, indépendant du salon, remet les Game Critics Awards qui récompensent les meilleurs jeux dans différentes catégories. Les coûts d'expositions toujours croissants poussent les acteurs du secteur à se concentrer sur un nombre limité de salons annuels. Le salon de l'E3 a réussi à devenir incontournable et ce sont donc ses concurrents, le CES de Las Vegas, l'ECTS de Londres et le TGS de Tokyo, qui font les frais de ce recentrement. Malheureusement, l'E3 est victime de son succès et les gros éditeurs (Microsoft, Blizzard Entertainment et sa BlizzCon, etc.) préfèrent organiser leur propre salon de façon à réduire leurs coûts. Face à la possible disparition de cet énorme événement, Doug Lowenstein, président de la Entertainment Software Association, tient une conférence de presse. Il y explique que l'E3 se déroulera encore en 2007 et pour les années à venir, mais à Santa Monica. Mais l'E3 aura désormais les allures d'un salon de jeux vidéo conventionnel, il se déroulera dans plusieurs hôtels de la ville, assez proches les uns des autres, et les éditeurs auront chacun un lieu bien réservé ; les présentations de jeux ressembleront à des conférences de presse, le tout sera donc bien plus conventionnel qu'auparavant. Cependant, une salle commune à tous les éditeurs est prévue, mais l'ESA s'occupera de rendre chaque partie conventionnelle et pratique. À la suite de ces changements, le salon est renommé « E3 Media and Business Summit ». En 2007, le nombre de visiteurs décline à seulement . Pour l'édition suivante de 2008, en raison de plaintes et des difficultés à tenir le salon dans la petite ville de Santa Monica, l'E3 revient à Los Angeles. La nouvelle formule ne change pas de l'année précédente, l'évènement n'utilisera qu'un seul hall du Los Angeles Convention Center, contrairement aux éditions précédant l'E3 2007. La presse et les exposants ne sont toutefois pas satisfaits par cette formule, et certains menacent d'abandonner le salon. À la suite de ce second échec, l'ESA décide de revenir à la formule de 2006 pour l'E3 2009, en annonçant également que l'événement est avant tout destiné aux professionnels et à la presse. Le salon redevient ainsi l'Electronic Entertainment Expo, et les sessions des années 2009, 2010, 2011, 2012, 2013, 2014 et 2015 se déroulent au Los Angeles Convention Center. Pour son édition 2015, la formule de l'E3 est toutefois légèrement modifiée en permettant à des non-professionnels d'entrer sur le salon. Cette ouverture au public reste partielle et ne se fait qu'à l'aide de l'une des quelques milliers d'invitations distribuées par certains éditeurs. Cependant, avec la démocratisation de l'info en direct et des conférences via Internet, les éditeurs sont de moins en moins intéressés par le salon, coûtant trop cher pour eux et étant moins efficace qu'un événement organisé seul. En 2017, le salon s'ouvre pour la première fois au grand public, avec billets mis en vente le 13 février 2017. En 2019, Sony est absent de l'événement, cette absence est expliquée lors d'un communiqué officiel parvenu à Game Informer. En 2020, L'E3 est annulé à cause des préoccupations concernant la pandémie de maladie à coronavirus de 2019-2020. Le tableau ci-dessous récapitule tous les lieux ainsi que les développeurs de jeux vidéo présents : Statistiques Évolution du nombre de visiteurs à l'E3 de 2002 à 2018 Inclus les visiteurs grand public, hors journalistes et professionnels, non autorisés lors des éditions précédant 2015. Nominations Notes et références Voir aussi Lien externe Fondation en 1995
1027
https://fr.wikipedia.org/wiki/Europe%20du%20Nord
Europe du Nord
Dans un sens restreint, l’Europe du Nord désigne généralement des pays nordiques de langues scandinaves (Norvège, Danemark, Suède et Islande) et de langues fenniques (Finlande et Estonie). Dans une vision plus large, l'Europe du Nord désigne toute la moitié nord de l'Europe. D'un point de vue géographique, l'Europe du Nord peut se définir comme étant l'ensemble des régions s'ouvrant sur la Manche, la mer du Nord et la mer Baltique (de la même manière que l'Europe du Sud peut se définir par rapport à la mer Méditerranée). Définition géographique Vision restreinte La définition de l'Europe du Nord est variable selon les perceptions et, selon la vision la plus restrictive, englobe : Vision élargie À la vision restreinte s'ajoute de plus en plus souvent : ; À la vision élargie, s'ajoutent l'Europe du Nord telle que définie officiellement : ; ; ; ; et moins souvent : ; ; ; , en particulier la moitié nord ; , les régions Hauts-de-France, Normandie, et Bretagne (architecture, géographie, climat), ouvertes sur la mer du Nord et la Manche. La région Grand Est s’intègre assurément dans l'Europe du Nord, puisque frontalière avec l'Allemagne, la Belgique et le Luxembourg ; , surtout le nord et l'ouest du pays, qui ont longtemps fait partie de la Prusse, puis de l'Allemagne ; , le nord-nord-est ; , le nord-nord-ouest, notamment le district fédéral du Nord-Ouest. De manière générale, toute classification reste subjective suivant les critères que l'on prend en compte (climatiques, linguistiques, historiques...). Notons que la France a une position très hétéroclite selon les régions, elle est à la fois en Europe du Sud, en Europe de l'Ouest, en Europe Centrale et en Europe du Nord, certaines régions elles-mêmes, peuvent être considérées dans plusieurs zones à la fois (Bretagne, Hauts-de-France, Grand Est, etc.). Vision de l'ONU Selon la définition de l'Organisation des Nations unies, l'Europe du Nord regroupe : les pays parlant une langue scandinave : , , , ; certains pays parlant une langue finno-ougrienne : , ; les pays parlant une langue balte : , ; les îles Britanniques : , . certains pays parlant une langue germanique : , , . Autres régions d'Europe Notes et références Voir aussi Articles connexes Politique en Europe Région de la mer du Nord Europe du Nord-Ouest Dominium maris baltici Lien externe Les trafics maritimes de la Baltique à l'Océan du début du à la fin du - Marchands du Nord, par Pierre Jeannin Nord
1029
https://fr.wikipedia.org/wiki/Liste%20d%27encyclop%C3%A9dies%20sur%20Internet
Liste d'encyclopédies sur Internet
Une encyclopédie en ligne désigne une encyclopédie disponible sur Internet. Il en existe de nombreuses formes, certaines n'étant que le développement d'encyclopédies existantes, d'autres totalement inédites. Liste Notes et références Voir aussi Articles connexes Liste de moteurs de recherche Liste de bases de données et de moteurs de recherche académiques Liste de bibliothèques numériques Liste d'encyclopédies Liste de sites web Internet
1030
https://fr.wikipedia.org/wiki/Eraserhead
Eraserhead
est un film expérimental américain relevant du body horror écrit, réalisé, produit et monté par David Lynch, sorti en 1977. Tourné en noir et blanc, il s'agit du premier long métrage du cinéaste, après plusieurs courts. Jack Nance, fidèle collaborateur de Lynch à la suite du film, y interprète Henry Spencer, un jeune père qui doit s'occuper de son enfant déformé dans un paysage industriel désolé. Charlotte Stewart, Jeanne Bates, Judith Anna Roberts, Laurel Near et Jack Fisk complètent la distribution. Découlant d’un scénario de 22 pages qualifié par son auteur d’, est produit avec le soutien de l'American Film Institute (AFI) pendant que Lynch y étudie. Le tournage, principalement réalisé dans les locaux désaffectés de l’AFI, demande près de cinq ans à lui seul, notamment pour des raisons budgétaires, et ne peut être terminé que grâce à des dons de Fisk et de son épouse Sissy Spacek. Lynch et le designer sonore Alan Splet passent ensuite une année à travailler sur l'atmosphère sonore principalement constituée de bruits de machines, après avoir insonorisé leur studio. Lynch crée également la bande originale du film en collaboration d'autres musiciens, en particulier Fats Waller, pour les partitions à l'orgue, et Peter Ivers, pour la chanson In Heaven. Le budget final est estimé à . À l'origine distribué à petite échelle, le film gagne en popularité grâce aux programmes nocturnes des cinémas : en tant que , il est élevé au fur et à mesure au rang de « film culte ». S'il reçoit un accueil mitigé de la part de la critique à sa sortie, est désormais considéré comme un classique du cinéma fantastique, ce qui lui vaut d'être sélectionné pour préservation par le National Film Registry de la bibliothèque du Congrès des États-Unis en raison de son intérêt en 2004. est aussi connu pour son imagerie surréaliste, son sous-texte sexuel ainsi que sa conception sonore complexe. Synopsis Résumé détaillé débute par une séquence dans l'espace. La caméra s'approche d'une planète où se trouve une petite cabane dans laquelle un homme défiguré (Jack Fisk) tire des leviers. Un des leviers déclenche la chute d’une créature à l’apparence d’un ver dans une mare. Émergeant peu à peu de la mare, la lumière devient de plus en plus intense jusqu’à un fondu au blanc. Henry Spencer (Jack Nance) est un imprimeur « en vacances » d’allure nerveuse. Le jeune homme arpente les terrains vagues près des usines jusqu’à son appartement. Là-bas, il apprend qu’il est invité chez les parents de sa copine, Mary X (Charlotte Stewart), qui ne l’avait pas contacté depuis longtemps. Henry croyait qu’elle avait mis fin à leur relation. Le repas chez la belle-famille prend place dans une atmosphère encline au malaise. La mère de Mary X (Jeanne Bates) talonne véritablement Henry tandis que le père de Mary (Allen Joseph) est un personnage totalement déconnecté de la situation tendue qui règne autour de la table. Après avoir tenté de découper un poulet qui s'anime et se met à suinter un liquide noir, Henry apprend qu’il est le père d’un enfant prématuré de Mary. Il se voit donc dans l’obligation de se marier avec elle. Mary et le bébé emménagent dans l’appartement d’une pièce d’Henry. On aperçoit alors l’enfant pour la première fois. Avec une apparence proche du fœtus d'agneau et hideusement déformé, il ne cesse de gémir. Ces couinements viendront à bout de Mary qui, incapable de dormir, quitte Henry et le laisse seul avec la petite créature. Ce départ est suivi par une suite d’événements des plus étranges, incluant la rencontre avec la « dame dans le radiateur » (« Lady in the Radiator »), une femme blonde aux joues grotesquement hypertrophiées à la Betty Boop, qui chante et vit sur la petite scène d'un music-hall caché dans le radiateur de la chambre d’Henry. Il aura, par la suite, une relation sexuelle avec sa voisine, la « jolie fille de l’autre côté du couloir » (« Beautiful Girl Across the Hall »). Le titre (« tête effaceuse » en français) prend toute sa signification durant le dernier quart d'heure du film. La tête d’Henry se détache alors de son corps et s’enfonce dans une flaque de sang, tombe du ciel pour atterrir dans une ruelle où elle s’ouvre. Un jeune garçon (Thomas Coulson) trouve la tête et l’emporte dans une fabrique de crayons où Paul (Darwin Joston), un réceptionniste, appelle son patron (Neil Moran) en appuyant avec insistance sur le bouton d'une sonnette. Le patron furieux entre dans la pièce mais change aussitôt d’humeur en apercevant ce que le jeune garçon leur apporte. On transporte la tête dans une autre pièce où un opérateur de machine à faire des crayons (Hal Landon Jr.) prend un échantillon du cerveau d’Henry et l’appose sur le bout d’un crayon. Il teste cette « gomme » qui s’avère efficace, et le jeune garçon est payé par le patron de l’usine. L'image d'Henry dans son lit laisse ensuite penser que toute cette séquence n'était qu'un rêve. Un peu plus tard, Henry aperçoit par sa fenêtre deux hommes qui se battent dans la rue. Il tente d’aller voir la jolie fille de l’autre côté du couloir mais celle-ci est avec un autre homme. Le bébé est pris d'un rire sarcastique, Henry prend alors une paire de ciseaux et coupe les bandages dans lesquels l’enfant est enroulé. On s’aperçoit bien vite qu’ils donnent directement sur les organes vitaux de la créature. Pendant que celle-ci hurle de douleur, Henry plante les ciseaux dans ses poumons. Le système électrique de l’appartement disjoncte et les lampes se mettent à clignoter, puis s’éteignent. Une tête géante de l’enfant apparaît dans la chambre. Henry retourne sur la petite scène du music-hall où la dame du radiateur l'accueille tendrement dans ses bras. La scène est inondée de lumière et un bruit blanc fait un crescendo. Puis tout devient noir et silencieux pendant quelques secondes avant le générique de fin. Fiche technique Titre original : Titre français : Labyrinth Man Réalisation : David Lynch Scénario : David Lynch Musique : Peter Ivers, David Lynch Photographie : Herbert Cardwell, Frederick Elmes Montage : David Lynch Décors : David Lynch Effets spéciaux : David Lynch Production : American Film Institute, David Lynch Budget : (estimation) Box-office : Pays d'origine : Langue originale : anglais Genre : fantastique, horreur (body horror), drame Durée : Format : Noir et blanc - - 1.85 :1 - Mono Dates de tournage : du à Dates de sortie : États-Unis : (Festival Filmex), France : Interdit aux moins de 16 ans Distribution Jack Nance : Henry Spencer Charlotte Stewart : Mary Allen Joseph : Bill, le père de Mary Jeanne Bates : la mère de Mary Judith Anna Roberts : la voisine de palier Jack Fisk : l'homme sur la planète Laurel Near : la dame du radiateur V. Phipps-Wilson : la propriétaire Jean Lange : la grand-mère de Mary Darwin Joston : Paul, l'homme à l'accueil de l'usine de crayons Thomas Coulson : le garçon qui ramasse la tête John Monez : le vieux clochard Neil Moran : le patron de l'usine de crayons Hal Landon Jr. : l'opérateur de la machine à crayons Autres acteurs : Jennifer Lynch, Brad Keeler, Peggy Lynch & Doddie Keeler, Gill Dennis, Toby Keeler, Raymond Walsh Production Préproduction Dans sa jeunesse, David Lynch étudie à l'Art Institute of Philadelphia pour devenir artiste peintre et plasticien et réalise plusieurs courts-métrages pour animer ses peintures. En 1970, son attrait pour le cinéma grandit et à 24 ans, il obtient une bourse pour intégrer le Center for Advanced Film Studies à l'American Film Institute (AFI) de Los Angeles. Lynch n'aime pas le cursus et envisage d'abandonner, mais change d'avis après qu'on lui propose de produire son propre scénario. L'AFI l'autorise à disposer de l'ensemble du campus comme décor de son film. Il transforme les écuries désaffectées de l'école en une série de plateaux et décide d'y vivre. Il est également autorisé à se servir du manoir Greystone, appartenant à l'AFI, pour y tourner plusieurs séquences. Lynch commence à travailler sur un scénario intitulé , basé sur une de ses peintures mettant en scène un personnage vouté, le dos recouvert de végétation. est un scénario surréaliste traitant de l'adultère. Il met en scène un insecte grandissant sans cesse représentant la convoitise d'un homme pour sa voisine. Il aurait donné lieu à un film d'environ 45 minutes, ce que l'AFI trouve trop long pour un scénario aussi figuratif et non-linéaire. À la place, Lynch propose , inspiré par un de ses rêves où un enfant ramène la tête d'un homme à une usine de crayon. Plusieurs membres du conseil d'administration de l'AFI sont toujours opposés au projet jugé là encore trop surréaliste mais ils acceptent à contrecœur quand le doyen menace de démissionner s'il est refusé. Le scénario de Lynch est fortement influencé par ses lectures d'étudiant en cinéma, dont La Métamorphose (, 1915) de Franz Kafka et Le Nez (, 1836) de Nicolas Gogol. Le film prend forme dans son esprit en lisant un verset de la Bible ouvert à l'aveugle . En 2007, il affirmera sans vouloir développer outre mesure. Le scénario serait également inspiré de la peur de la parentalité de Lynch, notamment à la suite de la naissance de sa fille Jennifer née avec une forme sévère de pied bot, nécessitant une correction chirurgicale lourde. Pour Jennifer, sa conception non désirée est la base thématique du métrage. Le ton du film trouve son inspiration dans les souvenirs du passage de Lynch à Philadelphie, où il a vécu de 1965 à 1971 et qu'il décrit comme , une atmosphère de . Le décor urbain d' rappelle la dans laquelle il a passé ses jeunes années d'adulte. Pour le critique Greg Olson, c'est un revirement considérable vis-à-vis de l'enfance du cinéaste passé dans le Nord-Ouest Pacifique, lui donnant une qui façonnera toute sa filmographie. Le casting débute en 1971 et Jack Nance est rapidement sélectionné pour interpréter le rôle principal. Mais l'AFI sous-estime l'ampleur du projet en lui donnant son accord. Après avoir lu le scénario de 22 pages et se basant sur le ratio usuel dans l'industrie du cinéma d'une minute de film pour une page de scénario, ils estiment que le film ne devrait pas dépasser une vingtaine de minutes. Ce malentendu, couplé à la méticulosité de Lynch, entraine le film dans une production de plusieurs années. Exemple extrême de ce laborieux calendrier : dans une scène, Nance ouvre une porte et il se passe une année complète avant qu'il ne soit filmé entrant dans la pièce. L'acteur, cependant, est tellement enthousiasmé par le projet qu'il garde la coiffure peu orthodoxe de son personnage pendant toute la production. Tournage Lynch obtient dans un premier temps une bourse de de la part de l'AFI. En 1973, l'institution demande à voir le film et Lynch leur montre la scène du dîner chez les parents de Mary, à la suite de quoi elle retire son financement. Par la suite, le tournage est intermittent et s’étale au total sur une période de plus de deux ans et demi. La production d' ne peut se poursuivre que grâce de faibles et ponctuels apports financiers de la part d’amis et de proches de l’équipe de tournage, dont Jack Fisk, ami d'enfance de Lynch, et sa femme Sissy Spacek, et Catherine E. Coulson, la femme de Nance, qui travaille à l'époque en tant que serveuse et qui fait don de son salaire. Lynch lui-même travaille en tant que livreur de journaux en parallèle pour financer le film. Durant l'une des nombreuses pauses du tournage, Lynch réalise le court-métrage The Amputee (1974) profitant de la volonté de l'AFI de tester son matériel sur de petits projets avant de se lancer des longs-métrages. Le court met en scène Coulson, qui continuera à travailler sur en tant que technicienne. L'équipe technique se limite alors à Lynch, le designer sonore Alan Splet, le directeur de la photographie Herb Cardwell, qui quitte la production pour des raisons financières et est remplacé par Frederick Elmes, la directrice de production et accessoiriste Doreen Small, et Coulson, qui cumule plusieurs rôles. Les décors du film sont démantelés et reconstruits à plusieurs reprises. Les effets visuels utilisés pour créer l'enfant déformé sont encore aujourd'hui tenus secrets. Le projectionniste qui travaille sur les rushes a les yeux bandés par Lynch pour éviter de révéler la nature du trucage et refusera d'en parler en interview. La créature, surnommée "Spike" par Nance, est composée de plusieurs éléments indépendants, en particulier son cou, ses yeux et sa bouche, capables de mouvements autonomes. Lynch lui-même est resté cryptique à son propos, déclarant de temps à autre qu'il ou . Pour John Patterson, journaliste à The Guardian, la marionnette a peut-être été fabriquée à partir d'un lapin écorché ou d'un fœtus d'agneau. L'enfant est vu comme l'initiateur d'autres effets du même genre dans la filmographie de Lynch tel que le maquillage de John Merrick dans Elephant Man (1980) ou les vers de sable dans Dune (1984). Durant la production, Lynch expérimente plusieurs techniques visuelles et sonores, dont celle d'enregistrer un dialogue lu phonétiquement à l'envers puis reproduisant la piste audio à l'envers. La technique n'apparait pas dans la version finale du film mais Lynch s'en servira pour l'épisode Comment attraper un tueur (S01E02) de la série télévisée Twin Peaks (Lynch et Mark Frost, 1990). C'est également lors de la production d' que Lynch commence à s'intéresser à la méditation transcendantale, adoptant un régime végétarien et arrêtant de fumer et de boire de l'alcool. Post-production Lynch conçoit l'environnement sonore avec Alan Splet. Ils créent des couvertures insonorisantes pour isoler leur studio, où ils passent presque une année complète à réaliser et éditer les effets sonores du film. La bande-son est densément stratifiée, avec parfois jusque quinze sons différents, diffusés simultanément en utilisant plusieurs bobines. Lynch et Splet redoublent d'imagination pour créer leurs sons. Ainsi, dans la scène où un lit se dissout lentement dans une piscine de liquide, Lynch et Splet insèrent un microphone à l'intérieur d'une bouteille en plastique, la faisant flotter dans une baignoire et enregistrant le bruit de l'air à travers la bouteille. Les sons sont ensuite retravaillés, jouant sur leur intensité, leur réverbération et leur fréquence. Après une projection test à l'accueil mitigé, pour laquelle Lynch pense avoir mixé la bande sonore à un volume trop élevé, le réalisateur coupe vingt minutes de film, réduisant sa durée à . Parmi les séquences supprimées, on trouve une séquence avec la sage-femme du bébé (interprétée par Coulson), une autre avec un homme torturant deux femmes (dont l'une est là encore interprétée par Coulson) avec une batterie de voiture, et une de Spencer s'amusant avec un chat mort. Bande originale La bande originale d' est sortie chez I.R.S. Records en 1982. L'album ne comporte que deux pistes comprenant des extraits de musique d'orgue par Fats Waller et la chanson de . Elle ressort le dans une édition limitée à par Sacred Bones Records. L'album est décrit comme un précurseur de la musique dark ambient tandis que Mark Richardson du site web Pitchfork qualifie la présence de bruits de fond et d'éléments non musicaux comme étant . Analyse Design sonore Le design sonore d' est considéré comme l'un de ses éléments déterminants. Bien que le film comporte des éléments visuels caractéristiques, tels que le nouveau né déformé et le cadre industriel tentaculaire, ils sont assortis d'une ambiance sonore très prononcée, qualifiée de et de . Le film utilise continuellement des sons industriels, créant un arrière-plan sonore au volume faible mais constant dans chaque scène. Cela participe à la mise en place d'une atmosphère et , reprise dans des œuvres telles que le drame des frères Coen Barton Fink (1991) et le thriller de David Fincher Seven (1995). Le bruit de fond perpétuel est perçue par James Wierzbicki comme pouvant être le produit de l'imagination d'Henry Spencer. Il décrit également la bande originale comme . Le film débute une tendance dans l'œuvre de Lynch où la musique diégétique se lie aux rêves, à l'instar de la longue séquence de rêve dans laquelle chante la Dame dans le radiateur. On retrouve cette idée dans l'épisode Comment attraper un tueur (S01E02) de Twin Peaks, dans lequel la musique diégétique déborde du rêve du personnage à ses pensées éveillées, et dans (1986), avec une utilisation similaire de la chanson In Dreams de Roy Orbison. Thèmes Le film est aussi connu pour ses thématiques sexuelles très prononcées. S'ouvrant par la représentation d'une conception, le film met en scène Henry Spencer, un personnage à la fois terrifié et fasciné par le sexe. Des images de créatures à la forme de spermatozoïdes sont récurrentes, y compris chez l'enfant, et particulièrement présentes dans les scènes de sexe du film ; le charme apparent typique de la girl next door de la Dame dans le radiateur est abandonné durant son numéro musical lorsqu'elle commence à écraser violemment les créatures-spermatozoïdes de Spencer et lui oppose un regard agressif. David J. Skal dit que le film . Il postule également une caractérisation différente de la Dame dans le radiateur, la qualifiant de . Mark Allyn Stewart pense que le personnage est une manifestation du subconscient de Spencer, une représentation de sa propre envie de tuer son enfant, qui l'embrasse après qu'il l'ait fait, comme pour le rassurer d'avoir bien agi. En tant que personnage, Spencer a été interprété comme la figure de , son expression vide et sa garde-robe faisant de lui un simple archétype. Il fait preuve d'une inactivité pacifiste et fataliste tout au long du film, laissant les événements se dérouler autour de lui sans jamais prendre le contrôle. Ce comportement passif culmine dans sa seule initiative lors du climax du film : son infanticide apparent est en réalité motivé par les influences dominatrices qui l'assaillent. La passivité de Spencer est vue par les critiques Colin Odell et Michelle Le Blanc comme précurseure de la bande dessinée de Lynch The Angriest Dog in the World (1983-1992). Accueil Sortie du film et box-office La première d' a lieu au festival du film Filmex de Los Angeles, le . 25 personnes assistent à la projection du film le soir de la première, et 24 le soir suivant. Néanmoins, le directeur de la société de distribution Libra Films, Ben Barenholtz, persuade le cinéma local Cinema Village de diffuser le film en séance de minuit, ce qu'il fera pendant un an. Après cela, le film reste à l'affiche pendant quatre-vingt-dix-neuf semaines au Waverly Cinema de New York, puis pendant un an au Roxie Theater de San Francisco de 1978 à 1979, et pendant trois ans au Nuart Theatre de Los Angeles de 1978 à 1981. Le film est un succès commercial, rapportant 7 millions de dollars aux États-Unis et dans le reste du monde. est également projeté au festival du film de Londres en 1978 et au festival du film de Telluride en 1986. En France, sort le au cinéma et réalise . Accueil critique Lors de la sortie d', Variety en fait une critique négative, le qualifiant d'. La critique exprime son incrédulité quant à la longue gestation du film et qualifie son final d'insoutenable. Comparant au film suivant de Lynch, The Elephant Man, Tom Buckley du New York Times écrit que si ce dernier est un film bien fait avec une distribution accomplie, le premier ne l'est pas. Le critique juge et écrit que les aspects horrifiques du film proviennent uniquement de l'apparence de l'enfant déformé plutôt que de son scénario ou de ses performances. En 1984, Lloyd Rose de The Atlantic écrit qu' affirme que Lynch est . Rose décrit le film comme intensément personnel, car contrairement à d'autres films surréalistes antérieurs, à l'instar de Un chien andalou (1929) ou L'Âge d'Or (1930) de Luis Buñuel, l'imagerie de Lynch . Dans une critique de 1993 pour le Chicago Tribune, Michael Wilmington décrit comme unique, estimant que son et sa sont le résultat de l'attention portée par Lynch aux détails de sa création, en raison de son implication dans de nombreux rôles au cours de la production. Dans l'essai de 1995 , le critique Jonathan Rosenbaum écrit qu' représente le meilleur film de Lynch. Il estime que le talent artistique du réalisateur a décliné au fur et à mesure que sa popularité augmentait, et compare le film à Sailor et Lula (1990), le dernier long métrage de Lynch à l'époque, en déclarant que . John Simon, de la National Review, qualifie de . Aujourd'hui, les critiques du film sont très favorables. Sur le site Rotten Tomatoes, le film détient une note d'approbation de 90% sur la base de 62 critiques. Le consensus critique est le suivant : . Sur le site Metacritic, le film obtient une note moyenne pondérée de 87 sur 100 sur la base de 15 critiques, ce qui indique une « acclamation universelle ». Dans un article pour le magazine Empire en 1993, Steve Beard attribue au film cinq étoiles sur cinq. Il écrit qu' est et souligne son mélange de body horror surréaliste et de comédie noire. Quant à Almar Haflidason, de la BBC, il décerne à trois étoiles sur cinq, le décrivant comme . Il estime également que le film est un rassemblement d'idées vaguement reliées entre elles, ajoutant qu'il est ; selon le critique, les thèmes du film représentent une peur de l'engagement personnel et comportent . Un critique de Film4 donne à une note de cinq étoiles sur cinq, le trouvant . Le critique juge comme un film unique dans l'histoire du cinéma, auquel seuls ressemblent les collaborations entre Luis Buñuel et Salvador Dalí, à l'instar d'Un chien andalou (1929) ou de L'Âge d'or (1930) ; cependant, Lynch nie avoir vu l'un de ces films avant de réaliser . Dans l'hebdomadaire américain The Village Voice, Nathan Lee fait l'éloge de l'utilisation du son dans le film, écrivant que et décrivant la conception sonore du film comme . Peter Bradshaw, du Guardian, se montre aussi élogieux à l'égard d', auquel il attribue la même note de cinq étoiles sur cinq. Le critique juge le film magnifique et décrit sa conception sonore comme un . Il le compare au film Alien (1979) de Ridley Scott. Jason Ankeny, écrivant pour AllMovie, accorde au film une note de cinq étoiles sur cinq ; il souligne la conception sonore inquiétante du film et le décrit comme . Il écrit qu' , ajoutant que le surréalisme du film permet de mieux comprendre les films ultérieurs du réalisateur. Dans un article pour le Daily Telegraph, le cinéaste Marc Evans fait l'éloge de la conception sonore et de la capacité de Lynch , citant le film comme une inspiration pour son propre travail. Une critique du film parue dans le même journal compare aux œuvres du dramaturge irlandais Samuel Beckett, le décrivant comme une parodie chaotique de la vie familiale. Manohla Dargis, écrivant pour le New York Times, estime que le film est . Elle estime que l'imagerie du film évoque les peintures de Francis Bacon et le documentaire Le Sang des bêtes (1949) de Georges Franju. Phil Hall, de Film Threat, décrit comme le meilleur film de Lynch, estimant que ses œuvres ultérieures ne sont pas aussi réussie. Il mentionne la bande-son du film et la comédie physique de l'acteur principal Jack Nance comme les éléments marquants du film. Distinctions Antenne d'or au Festival international du film fantastique d’Avoriaz 1978 Nomination au prix du meilleur film, lors du festival Fantasporto en 1982 Éditions en vidéo sort en VHS le chez Columbia Pictures, puis en DVD et Blu-ray chez Umbrella Entertainment en Australie, respectivement le et le , accompagnés d'un documentaire de 85 minutes sur le tournage du film. Le film sort également en DVD chez Universal Pictures en 2001, Subversive Entertainment en 2006, Scanbox Entertainment en 2008, et en DVD et Blu-ray chez Criterion en . Postérité Influence culturelle En 2004, est sélectionné par le du National Film Registry afin d'être conservé à la Bibliothèque du Congrès des États-Unis pour son . est l'un des sujets abordés dans le documentaire (2005), qui retrace l'essor du phénomène des (ou cinéma de minuit) à la fin des années 1960 et dans les années 1970. Lynch participe au documentaire par le biais d'une série d'entretiens. Le film traite de six films considérés comme ayant créé et popularisé le genre, comme La Nuit des morts-vivants (, 1968), El Topo (1970), Pink Flamingos (1972), Tout, tout de suite (, 1972) et The Rocky Horror Picture Show (1975). En 2010, l' dresse une liste des 100 meilleurs premiers films, c'est-à-dire les meilleurs premiers longs métrages de réalisateurs connus. se classe deuxième dans ce classement, derrière Citizen Kane d'Orson Welles (1941). Alors qu'il travaille sur , Lynch rencontre le réalisateur américain Stanley Kubrick, qui lui révèle qu' est son film préféré. a ainsi influencé le film Shining de Kubrick en 1980 : Kubrick aurait projeté le film aux acteurs et à l'équipe pour les qu'il voulait donner au film. a aussi influencé le film cyberpunk japonais Tetsuo (1989), le film d'horreur expérimental Begotten (1990) et le premier film de Darren Aronofsky, Pi (1998) . L'artiste suisse H. R. Giger cite comme et déclare qu'il est plus fidèle à sa vision artistique que ses propres films. Selon Giger, Lynch aurait refusé de collaborer avec lui sur Dune car il estimait que Giger lui avait . Conséquences sur l'équipe du film Lynch collaborera à nouveau avec la plupart des acteurs et de l'équipe d' sur ses projets suivants. Frederick Elmes est à nouveau directeur de la photographie sur (1986), le court-métrage (1988) et Sailor et Lula (, 1990). Alan Splet assure la conception sonore d' (1980), Dune (1984) et de . L'acteur Jack Fisk réalise des épisodes de la série télévisée de Lynch en 1992 et travaille en tant que décorateur sur Une histoire vraie (, 1999) et Mulholland Drive (2001). Quant à Catherine E. Coulson et Jack Nance, ils sont apparus dans la série télévisée Twin Peaks ainsi que dans les films Dune, , Sailor et Lula et (1997). Après la sortie d', Lynch commence à trouver des fonds pour son projet suivant, , un film . Il rencontre alors le producteur Stuart Cornfeld, qui travaille à l'époque pour Mel Brooks et sa société de production Brooksfilms. Cornfeld avait apprécié et est intéressé par la production de . Lorsque les deux hommes réalisent que a peu de chances de trouver un financement suffisant, Lynch demande à voir quelques scénarios déjà écrits pour son prochain projet. Cornfeld trouve quatre scénarios qui, selon lui, pourraient intéresser Lynch ; en entendant le titre d', le réalisateur décide d'en faire son deuxième film. Notes et références Notes Citations originales Références Annexes Bibliographie . Michel Chion, David Lynch, éditions Cahiers du Cinéma Livres, 2001, . . . . . . . . . . . Articles connexes David Lynch Liens externes Film américain sorti en 1977 Film d'horreur américain Film fantastique américain Film de science-fiction américain Film réalisé par David Lynch Midnight movie Film américain en noir et blanc Film surréaliste Film inscrit au National Film Registry
1031
https://fr.wikipedia.org/wiki/Communaut%C3%A9s%20autonomes%20d%27Espagne
Communautés autonomes d'Espagne
Les communautés autonomes (, abrégé en CC.AA.) sont le premier niveau de subdivision territoriale du royaume d'Espagne. Au nombre de 17, auxquelles il faut ajouter les villes autonomes de Ceuta et Melilla, elles bénéficient toutes d'un régime d'autonomie interne. Formation Les communautés sont constituées par , , , ou . Elle bénéficie d'un statut d'autonomie inscrit dans une loi organique qui régit son organisation institutionnelle, ses compétences et les prélèvements obligatoires dont elle reçoit tout ou partie des recettes en vue d'assurer son financement. Bien qu'elles bénéficient du pouvoir exécutif et du pouvoir législatif, les communautés autonomes constituent des collectivités décentralisées et non des entités fédérées. Système de financement Le financement des communautés autonomes () repose sur la distinction entre le régime de droit commun, et le Concierto Económico propre au Pays basque et à la Navarre. Système de droit commun Il est établi par la loi organique de financement des communautés autonomes (LOFCA) et régulièrement révisé dans le cadre du Conseil de la politique fiscale et financière (CPFF). La dernière version est entrée en vigueur en , accordant une plus grande autonomie fiscale aux territoires. Chaque communauté se voit ainsi reverser 50 % du total de l'impôt sur le revenu (IRPF) et de la taxe sur la valeur ajoutée (TVA) perçu par l'État sur son territoire ; 58 % des impôts spéciaux (sur la bière ; sur le vin et les alcools fermentés ; sur les produits intermédiaires ; sur l'alcool et les produits dérivés ; sur les hydrocarbures ; sur le tabac ; sur le charbon) ; 100 % de l'impôt sur le patrimoine, de l'impôt sur les successions et donations, de l'impôt sur les transmissions patrimoniales, de l'impôt spécial sur l'électricité, de l'impôt spécial sur l’immatriculation, et des taxes sur les jeux de hasard. Jusqu'à son abrogation en , elles touchaient également l'intégralité des recettes de l'impôt sur la vente au détail de certains hydrocarbures (IVMDH). Le système de droit commun est adapté à la situation particulière d'éloignement propre aux îles Canaries grâce au dispositif du régime économique et fiscal (REF). Système spécifique Dans le cadre du Pays basque, les députations forales d'Alava, de Biscaye, du Guipuscoa et de Navarre recouvrent la totalité des impôts dans leurs ressorts territoriaux respectifs. Elles reversent ensuite aux autorités nationales une somme qui correspond aux dépenses assumées par l'État espagnol pour les compétences qu'il n'a pas transférées à la communauté autonome, comme la diplomatie, la défense nationale ou encore les intérêts de la dette publique étatique. Cette somme est régulée par une loi spécifique, votée en principe tous les cinq ans. Statistiques Chiffres en date du mois de décembre 2019. Les trois communautés autonomes ayant le produit intérieur brut le plus élevé sont la Catalogne (231,28 milliards d'euros), la Communauté de Madrid (230,02 milliards d'euros) et l'Andalousie (160,81 milliards d'euros), tandis que celles dont il est le plus bas sont l'Estrémadure (19,4 milliards d'euros), la Cantabrie (13,84 milliards d'euros) et La Rioja (8,39 milliards d'euros). Le revenu par tête est le plus haut dans la Communauté de Madrid (34 916 euros/habitant), au Pays basque (34 079 euros/habitant) et en Navarre (31 809 euros/habitant), et il se trouve le plus bas en Castille-La Manche (20 645 euros/habitant), en Andalousie (19 132 euros/habitant) et en Estrémadure (18 174 euros/habitant). Les trois territoires les plus endettés en valeur absolue sont la Catalogne (79,24 milliards d'euros), la Communauté valencienne (47,89 milliards d'euros) et l'Andalousie (36,36 milliards d'euros), alors que celles qui le sont le moins sont la Navarre (3,48 milliards d'euros), la Cantabrie (3,18 milliards d'euros) et La Rioja (1,72 milliard d'euros). La dette est la plus forte en valeur relative en Communauté valencienne (42,2 % du PIB), en Castille-La Manche (35,3 % du PIB) et en Catalogne (33,8 % du PIB), et la plus faible dans la Communauté de Madrid (14,8 % du PIB), le Pays basque (14,3 % du PIB) et les îles Canaries (14,2 % du PIB). Le déficit public est le plus élevé absolument en Communauté valencienne (1,57 milliard d'euros), en Catalogne (1,01 milliard d'euros) et en Andalousie (0,81 milliard d'euros). Il est le plus modeste en Galice (0,13 milliard d'euros d'excédent), au Pays basque (0,53 milliard d'euros d'excédent) et dans les Canaries (0,92 milliard d'euros d'excédent). En valeur relative, les communautés les plus déficitaires sont la Communauté valencienne (1,4 % du PIB), la Région de Murcie (1,34 % du PIB) et l'Andalousie (0,51 % du PIB), et les plus excédentaires sont les Canaries (2,01 % du PIB), le Pays basque (0,72 % du PIB) et la Navarre (0,5 % du PIB). Le taux de chômage relatif est le plus fort en Andalousie (21,8 % de la population active), dans les Canaries (21,2 % de la population active) et en Estrémadure (19,7 % de la population active) et le plus faible en Cantabrie (8,7 % de la population active), en Navarre et dans les îles Baléares (8,2 % de la population active pour chacune). Liste Notes et références Voir aussi Articles connexes Provinces d'Espagne Liste des dirigeants des communautés autonomes espagnoles Armorial des communautés autonomes espagnoles Administration territoriale de l'Espagne Liens externes . Constitution de l'Espagne Subdivision en Espagne
1032
https://fr.wikipedia.org/wiki/Environnement
Environnement
L'environnement est « l'ensemble des éléments (biotiques ou abiotiques) qui entourent un individu ou une espèce et dont certains contribuent directement à subvenir à ses besoins », ou encore « l'ensemble des conditions naturelles (physiques, chimiques, biologiques) et culturelles (sociologiques) susceptibles d’agir sur les organismes vivants et les activités humaines ». La notion d'environnement naturel, souvent désignée par le seul mot « environnement », a beaucoup évolué au cours des derniers siècles et tout particulièrement des dernières décennies. L'environnement est compris comme l'ensemble des composants naturels de la planète Terre, comme l'air, l'eau, l'atmosphère, les roches, les végétaux, les animaux, et l'ensemble des phénomènes et interactions qui s'y déploient, c'est-à-dire tout ce qui entoure l'Homme et ses activités — bien que cette position centrale de l'être humain soit précisément un objet de controverse dans le champ de l'écologie. Au , la protection de l'environnement est devenue un enjeu majeur, en même temps que s'imposait l'idée de sa dégradation à la fois globale et locale, à cause des activités humaines polluantes. La préservation de l'environnement est un des trois piliers du développement durable. C'est aussi le des huit objectifs du millénaire pour le développement, considéré par l'ONU comme . Linguistique Origine On trouve en français dès 1265 dans le sens de « circuit, contour » puis à partir de 1487 dans le sens « action d'environner ». Le mot provient du verbe environner, qui signifie action d'entourer. Lui-même est un dénominatif de environ, qui signifie alentours. Deux dictionnaires au attestent un emprunt à l'anglais environment mais pour traduire le mot milieu. Bertrand Lévy précise que le mot, au sens d', apparaît pour la première fois en 1964, il est dérivé de l’américain environment. Avant, les géographes qui s'intéressaient au sujet et notamment Élisée Reclus utilisaient le terme milieu. Sens Le mot environnement est polysémique, c'est-à-dire qu'il a plusieurs sens différents. Ayant le sens de base de ce qui entoure, il peut prendre le sens de cadre de vie, de voisinage, d'ambiance, ou encore de contexte (en linguistique). L'environnement au sens d'environnement naturel qui entoure l'homme est plus récent et s'est développé dans la seconde moitié du . Le mot environnement est à différencier du mot nature qui désigne les éléments naturels, biotiques et abiotiques, considérés seuls, alors que la notion d'environnement s'intéresse à la nature au regard des activités humaines, et aux interactions entre l'homme et la nature. Il faut également le différencier de l'écologie, qui est la science ayant pour objet les relations des êtres vivants avec leur environnement, ainsi qu'avec les autres êtres vivants, c'est-à-dire, l'étude des écosystèmes. La notion d'environnement englobe aujourd'hui l'étude des milieux naturels, les impacts de l'homme sur l'environnement et les actions engagées pour les réduire. L'environnement a acquis une valeur de bien commun, et a été compris comme étant aussi le support de vie nécessaire à toutes les autres espèces que l'Homme. En tant que patrimoine à raisonnablement exploiter pour pouvoir le léguer aux générations futures, il est le support de nombreux enjeux esthétiques, écologiques, économiques et socio-culturels, ainsi que spéculatifs (comme puits de carbone par exemple) et éthiques. L'ONU rappelle dans son rapport GEO-4 que sa dégradation (…) et . Ce même rapport rappelle que l'environnement fournit l'essentiel des ressources naturelles vitales de chacun (eau, air, sol, aliments, fibres, médicaments, etc.) et de l'Économie ; . Histoire L'histoire de l'environnement est une sous-division de l'histoire qui intéresse de plus en plus de chercheurs. Son but est d'étudier rétrospectivement l'état de l'environnement à différentes époques et ses interactions avec les activités humaines. Avant le La prise de conscience de l'existence d'un environnement s'est développée par vague et de manière différente selon les époques, les régions et les cultures humaines. Certaines interprétations animistes ou religieuses, comme le bouddhisme, ont favorisé un certain respect de la vie, des ressources naturelles, et des paysages. Ce respect était motivé avant tout par des croyances religieuses, bien plus que par un réel désir de protection des milieux naturels. En effet, les concepts d'environnement économique, urbain ou civique tels que nous les définissons aujourd'hui ne semblent pas avoir été relevés par les ethnologues ni par les historiens. Au Au , en Occident, le romantisme a mis en avant la beauté des paysages sauvages, parfois en les opposant aux paysages et à la misère des mondes ouvriers, et industriels. En vantant les beautés de la nature, les romantiques ont fait prendre conscience que ce bien était précieux et devait être préservé. C'est par cet intérêt porté au paysage que les sociétés humaines vont commencer à prendre en compte l'environnement. À partir de 1825, les peintres de l'École de Barbizon sortent de leurs ateliers, ils peignent directement la nature dans la forêt de Fontainebleau et souhaitent en préserver sa beauté. Contre les forestiers qui souhaitent planter des résineux au risque d'altérer le paysage, ils inventent l'écoterrorisme en s'opposant aux coupes et en arrachant les jeunes plants potentiellement disgracieux. En 1853, ils obtiennent que cette forêt soit classée sur plus d'un millier d’hectares pour un motif esthétique. En 1861, un décret impérial officialise ces « réserves artistiques ». Ainsi la forêt de Fontainebleau devient le premier site naturel protégé au monde.Le géographe Élisée Reclus décrit avec émerveillement et poésie le milieu dans lequel vivent les hommes tout en constatant les effets du capitalisme sur l’agriculture et l’environnement. Précurseur de l'écologie, il sensibilise et incite ses lecteurs à endosser la responsabilité de la beauté de la nature, condition pour l’épanouissement de la nature et de l’humanité. En 1872, sous la menace que le gouvernement d'Adolphe Thiers fait peser sur la forêt de Fontainebleau George Sand se révèle pionnière de la future écologie. Soucieuse de rigueur et de curiosité scientifique elle convoque toutes les sciences naturelles : la biologie, la géologie, l'entomologie mais aussi les sciences de l'ingénieur pour rédiger un plaidoyer de douze pages où elle écrit : « Si on n’y prend garde, l’arbre disparaîtra et la fin de la planète viendra par dessèchement, sans cataclysme nécessaire, par la faute de l’homme », elle initie ainsi les règles d'une exploitation forestière respectueuse et sauve la première réserve naturelle. Les États-Unis créent le statut de parc national, avec le président Abraham Lincoln le et la Yosemite Valley devient le second site naturel protégé au monde. Le parc national de Yellowstone deviendra en 1872 le premier parc national. La France, en 1906, vote sa première loi sur la protection du paysage. À cette époque, c'est plutôt le paysage, et non l'écosystème qui guide les choix des élus pour les sites à protéger, comme le montre par exemple le classement des boucles de la Seine peints par les impressionnistes.En 1896, Arrhenius développe l'embryon de la première théorie environnementaliste, en étudiant l'effet de l'augmentation de la teneur en dioxyde de carbone (CO) dans l'atmosphère ; dans son article De l'influence de l'acide carbonique dans l'air sur la température du sol, il cite la vapeur d'eau et le CO comme gaz à effet de serre, et emploie même le terme. Il propose certains calculs mettant en évidence l'élévation de la température en fonction de l'élévation de la concentration en CO ; il formule l'hypothèse du lien entre des variations de concentration au cours des âges géologiques, expliquant les variations de températures correspondantes. Au Dès la fin du et pendant la majeure partie du , le développement mondial est très fort. La révolution industrielle et la forte croissance économique favorisent une industrie lourde et fortement consommatrice en ressources naturelles. Les nombreux conflits font prendre conscience de la rareté de certaines ressources, voire localement de leur épuisement. Les premières catastrophes industrielles et écologiques visibles (marées noires, pollution de l'air et des cours d'eau) sensibilisent l'opinion publique et certains décideurs à la protection des écosystèmes. La perception de l'environnement a également fortement progressé avec une meilleure diffusion des connaissances scientifiques et une meilleure compréhension des phénomènes naturels. La découverte et l'exploration de nouveaux milieux (Arctique, Antarctique, monde sous-marin) ont mis en évidence la fragilité de certains écosystèmes et la manière dont les activités humaines les affectent. Ils ont été respectivement et notamment vulgarisés par de nombreux auteurs, dont Paul-Émile Victor et le commandant Cousteau. Dans le même temps, la connaissance rétrospective de l'histoire de la planète et des espèces progressait avec la paléoécologie, et la mise à jour de preuves scientifiques de catastrophes écologiques majeures qui ont fait disparaître successivement des espèces durant des millions d'années. Ces sciences du passé ont montré les liens forts qui lient la pérennité des espèces à leur environnement et au climat. De nombreux outils scientifiques et techniques ont également contribué à une meilleure connaissance de l'environnement et donc à sa perception. Parmi les principaux, citons l'observation, puis l'analyse et la synthèse, photographie aérienne, puis satellitaire, et plus récemment, la modélisation prospective. Vers la fin du , la prise de conscience de la nécessité de protéger l'environnement devient mondiale, avec la première conférence des Nations unies sur l'environnement à Stockholm en juin 1972. En juin 1992, lors du sommet de la Terre de Rio de Janeiro, l'environnement est défini comme un bien commun et un bien public. Depuis les années 1990, les mentalités évoluent très rapidement pour se rapprocher de la perception que nous avons aujourd'hui de l'environnement. Cependant, la prise en compte de l'environnement dans les décisions et les pratiques environnementales diffère énormément d'un pays à l'autre. Dans les pays en voie de développement, où les préoccupations de la population sont très différentes de celles des pays développés, la protection de l'environnement occupe une place beaucoup plus marginale dans la société. Au La Charte de l'environnement a été annoncée le 3 mai 2001 à Orléans par le président de la République française Jacques Chirac. Elle a été adossée à la Constitution française par la loi constitutionnelle du mars 2005. Par principe de précaution, elle dispose que : « Chacun a le droit de vivre dans un environnement équilibré et respectueux de la santé ». Avec la Charte de l’environnement, le droit à l’environnement devient une liberté fondamentale de valeur constitutionnelle. La Charte place en effet, désormais, les principes de sauvegarde de notre environnement au même niveau que les Droits de l’Homme et du Citoyen de 1789 et les droits économiques et sociaux du préambule de la constitution de 1946. Art et environnement Depuis quasiment les débuts de l'art, l'environnement a été une source d'inspiration inépuisable pour l'homme. Les représentations d'animaux ou de paysages jalonnent l'histoire de l'art, et il n'est pas une époque qui fasse exception à la règle. Les paysages occupent une part primordiale dans l'art en Extrême-Orient, notamment en Chine et au Japon, mais il faudra attendre la Renaissance en Europe pour voir les paysages prendre de l'importance dans la peinture. De nombreux peintres seront qualifiés de paysagistes, tant parmi les romantiques que parmi les impressionnistes. Plus tard, les éléments environnementaux seront toujours très présents dans les nouvelles formes d'art, comme la photo, et plus tard, le cinéma. Plus récemment, des artistes ou des personnalités utilisent l'art pour sensibiliser la population à la défense de l'environnement : c'est le cas par exemple d'Al Gore, qui réalisa un film An inconvenient truth, ou le photographe Yann-Arthus Bertrand. Sciences de l'environnement La science a connu un développement considérable au cours du dernier siècle. Les connaissances scientifiques ont beaucoup progressé, en particulier dans le domaine de l'environnement. Certaines disciplines spécialement dédiées à l'environnement, qui n'existaient pas jusque-là sont même apparues récemment, comme l'écologie devenue seulement prééminente dans la seconde moitié du . La mise au point de nouveaux moyens techniques, d'instruments de mesures et d'observation, a fait considérablement avancer la connaissance que nous avions de l'environnement, que ce soit au niveau du fonctionnement des êtres vivants et des interactions avec leur milieu, des écosystèmes. Les avancées de la physique et de la chimie nous ont permis de comprendre le fonctionnement des végétaux et plus globalement des corps vivants. L'avancée de la science a entraîné une plus grande mesurabilité des impacts humains sur l'environnement, d'où provient également une plus grande prise de conscience. Les problématiques environnementales sont passées de problèmes locaux, comme la protection d'une espèce, à des problèmes mondiaux (trou dans la couche d'ozone, réchauffement de la planète, par exemple). La nécessité d'avoir des données mondiales est donc apparue, entraînant le besoin de mutualiser les données. Par nécessité, le monitorage (programme de surveillance) environnemental se développe aujourd'hui à échelle planétaire, aidée par les avancées techniques, politiques et idéologiques. L'Organisation des Nations unies offre un cadre international de travail : PNUE, ainsi que des conférences internationales, et des sommets mondiaux, comme celui de Rio, permettant ainsi à des chercheurs de divers horizons de rassembler leurs connaissances. Les problématiques environnementales étant récemment devenues mondiales, il est fondamental d'appréhender la recherche scientifique de manière globale, et non plus locale. De nombreux pays ou groupes de pays ont également des communautés d'intervenants, d'indicateurs et de chercheurs spécialisés dans les thématiques environnementales, avec des programmes de mutualisation et d'échange des connaissances. Observation (monitoring) de l'environnement Des agences ou observatoires de l'environnement se sont constitués dans de nombreux pays. Ils relèvent, mesurent, et suivent des indicateurs environnementaux et produisent des statistiques, éventuellement agrégées au niveau local, régional, national, européen (ex : Eurobaromètre) et planétaire (sous l'égide de l'ONU et du Programme des Nations unies pour l'environnement (PNUE). Ce sont des outils d'aide à la décision. Impacts de l'Homme sur l'environnement L'idée d'une dégradation de l'environnement de la Terre dans laquelle vivent les humains, par l'effet de la pollution, est devenue largement majoritaire à la fin du : cet effet prend la forme d'une crise écologique globale. Plus qu'une idée, les faits démontrent que l'évolution de l'environnement est représentative d'une dégradation de l'habitat, imputable à l'activité humaine. Pour mesurer cette dégradation, on peut se servir de plusieurs indicateurs : les pollutions apparentes, c'est-à-dire les traces de composés synthétisés par l'homme dans les milieux naturels : les sols, l'air et l'eau. Ces indicateurs sont plus couramment désignés sous d'autres noms, comme qualité de l'eau pour la présence de pollution dans l'eau, ou qualité de l'air pour la présence de polluants dans l'air ; la raréfaction des ressources naturelles, renouvelables ou pas ; la perte de biodiversité, qui est même considérée comme un indicateur clé de l'état de l'environnement. En 2001, un rapport de l'OCDE a fait l'état des thématiques environnementales et leur a associé un « niveau d'inquiétude ». Cette étude montre que les impacts de l'homme sur l'environnement sont multiples et variés. Presque tous les éléments constituant l'environnement sont touchés par les activités humaines. Ces impacts sur l'environnement sont liés à plusieurs facteurs, dont ceux évoqués le plus souvent sont la démographie et le développement économique. En effet, le lien entre la population et la pollution est évident : les impacts humains locaux sont proportionnels au nombre d'habitants d'une région, et il en est de même pour le nombre d'habitants sur la Terre. Mais la démographie n'est pas le seul facteur qui intervient dans cette équation. Le niveau de développement économique, les habitudes de vie, le climat et toute une multitude de facteurs, jouent un rôle très important dans les impacts sur l'environnement, ce qui amène de nombreux spécialistes à relativiser le rôle de la démographie et de la surpopulation dans les problèmes environnementaux. Sols Les problèmes liés aux sols sont souvent des problèmes d'ordre local. On parle de régression et dégradation des sols lorsqu'un sol perd en qualité ou que ses propriétés changent. Ils peuvent être divisés en deux catégories : les problèmes liés à l'érosion. L'érosion est un phénomène naturel, mais elle peut s'avérer désastreuse lorsqu'elle est provoquée par l'homme. Pouvant avoir pour cause certaines techniques d'agriculture comme la monoculture, l'agriculture intensive ou l'irrigation sur certains types de sols, des techniques d'élevage comme le surpâturage, ou la déforestation (les racines contribuent souvent à stabiliser le sol et à empêcher l'érosion), elle peut avoir comme effet des glissements de terrain, favoriser la désertification, l'aridification ou des menaces pour la biodiversité ; les problèmes de changement des qualités du sol. Il peut alors s'agir de salinisation, souvent due aux techniques agricoles, ou de pollution directe du sol, d'origine industrielle ou individuelle. Le sol concerné peut alors devenir infertile, et hostile à certaines espèces végétales ou animales et affecter la diversité des organismes peuplant le sol. Eau Selon un rapport de l'OCDE de 2001, trois points sont particulièrement préoccupants concernant l'eau. Il s'agit de la consommation d'eau et l'épuisement de la ressource, la pollution des eaux de surface et la pollution des eaux souterraines. Eau ressource La gestion de l'eau en tant que ressource naturelle est une question préoccupante pour de nombreux états. Le rapport de l'OCDE de 2001 qualifie ce problème comme « nécessitant une attention urgente ». Toujours d'après ce rapport, un grand nombre d'humains vivent dans des zones soumises au stress hydrique. En 2030, en l'absence de mesures efficaces pour préserver les ressources en eau potable, il pourrait y avoir milliards de personnes concernées par le stress hydrique, dont 80 % de la population du BRIC (Brésil, Russie, Inde, Chine). Cette pénurie sera aggravée par l'augmentation de la population et donc des besoins en eau pour boire ou pour l'agriculture. Le réchauffement de la planète aurait également des incidences fortes sur les ressources en eau. Des régions comme l'Asie centrale, l'Afrique sahélienne ou les grandes plaines des États-Unis pourraient connaître un assèchement dramatique pour les populations, leur approvisionnement en eau, et l'agriculture, comme le rappellent les études de l'UNFCCC. Ce manque d'eau à l'échelle mondiale semble donc inéluctable, et s'annonce lourd de conséquences sur les activités humaines (agriculture, développement, énergie), et sur les relations diplomatiques internationales. En effet, les enjeux se multiplient autour de l'eau ; indispensable à la survie d'une population, elle l'est aussi pour l'agriculture, via l'irrigation, à la production d'énergie hydraulique. Les cours d'eau ne se limitant généralement pas à un seul État, ils sont devenus des enjeux géopolitiques stratégiques déterminants à la source de nombreux conflits. La plupart des états sont conscients de ces enjeux forts, comme en atteste la tenue régulière du forum alternatif mondial de l'eau. Qualité de l'eau La pénurie d'eau n'est pas la seule préoccupation à avoir vis-à-vis de la gestion des ressources en eau. En 2001, l'évolution de leur qualité et de leur degré de pollution était également inquiétante. Parce que l'eau douce est une ressource précieuse, la pollution des nappes phréatiques, qui constituent une réserve importante d'eau douce relativement pure, et des lacs et des rivières, est sans doute la plus préoccupante. Ceux-ci étant également liés aux activités humaines, ils sont affectés, et leur état est globalement en cours de dégradation. Les pollutions des eaux douces se retrouvent dans les mers et les océans, de par le cycle de l'eau, et viennent ainsi aggraver la pollution marine. La pollution des eaux peut être d'origine et de nature diverses et variées. Elle peut être : physique : qui elle-même peut être thermique ou radioactive. La pollution thermique est due principalement aux industries qui utilisent l'eau comme liquide de refroidissement. Provoquant un réchauffement significatif des cours d'eau concernés, elle peut avoir pour conséquence la disparition locale de certaines espèces animales ou végétales. La pollution radioactive, pouvant survenir lors d'accidents nucléaires, est extrêmement persistante. Ses effets à long terme sont aujourd'hui méconnus ; chimique : extrêmement diverse, elle est causée par le rejet de différentes substances chimiques issues de l'industrie, l'agriculture ou des effluents domestiques. Les principales pollutions chimiques sont : les pollutions issues de l'agriculture et des certaines industries. Forte consommatrice de produits chimiques, l'agriculture a un impact considérable sur les milieux aquatiques. L'usage de pesticides, produits extrêmement nocifs aux êtres vivants, entraîne une dissémination de ces substances dans des milieux aquatiques, souterrains ou de surface, et provoque la mort de certaines espèces animales. Les nitrates et les phosphates, contenus en fortes quantités dans les engrais, entraînent des problèmes d'eutrophisation. Le fort développement de bactéries ou d'algues de surface, qui trouvent dans les nitrates et les phosphates les éléments nécessaires à leur développement, entraîne un manque d'oxygène dissous dans l'eau, ce qui conduit finalement à la destruction de toute vie animale ou végétale en dessous de la surface, les pollutions aux métaux lourds, comme le plomb, le mercure, le zinc ou l'arsenic. Issus pour la plupart des rejets industriels, ils ne sont pas biodégradables. Présents tout au long de la chaîne alimentaire, ils s'accumulent dans les organismes, les pollutions aux acides, provenant des pluies acides sont également nocifs, les pollutions aux substances médicamenteuses. Un très grand nombre de molécules médicamenteuses ne sont pas entièrement assimilées par le corps humain, et sont donc rejetées à l'égout. En l'absence de traitements spécifiques, elles se retrouvent dans les milieux naturels aquatiques, avec des conséquences pour l'environnement et la santé humaine encore mal connues. Des études sont en cours pour mesurer les impacts de ces substances, les pollutions aux hydrocarbures, comme les marées noires ou les dégazages sauvages. Spectaculaires en mer, elles sont aussi fréquentes en milieu urbain, ou elles peuvent représenter jusqu'à 40 % des pollutions de l'eau, les pollutions aux PCB : utilisées principalement dans les transformateurs électriques, condensateurs, et comme isolants en raison de leurs excellentes caractéristiques diélectriques, ces substances se stockent dans les graisses des êtres vivants, et peuvent avoir des effets toxiques et cancérigènes. Organique : cette pollution est la pollution la plus « naturelle », mais aussi la plus ancienne. En effet, en l'absence de traitement, une ville de rejette de matière organique par jour dans ses égouts. Cette matière, bien que biodégradable, n'en est pas dénuée d'impacts pour autant. De trop forts rejets dans les rivières peuvent conduire à l'asphyxie des écosystèmes aquatiques, les premiers concernés étant les poissons, puis, à plus forte concentration, le reste de la faune et de la flore aquatique ; Microbiologique : on désigne sous ce terme les pollutions par les virus, bactéries et parasites. Principalement contenus dans les excréments, ces germes peuvent provoquer des maladies graves pour ceux qui les ingurgitent. Air La pollution atmosphérique, ou pollution de l'air, est une pollution d'origine diffuse qui peut avoir des effets locaux ou globaux. Le terme « pollution de l'air » signifie généralement « l'introduction directe ou indirecte dans l'air ambiant (à l'exception des espaces confinés) par l'homme de toute substance susceptible d'avoir des effets nocifs sur la santé humaine et/ou l'environnement dans son ensemble ». Comme pour l'eau, la pollution de l'air peut être de nature et d'origine diverses et variées. On distingue différents types de pollutions : les gaz chimiques toxiques, issus principalement de la combustion (provenant de l'industrie ou des moteurs, par exemple), dont : l'ozone, qui bien qu'étant un composé naturel de certaines couches de l'atmosphère, est considéré comme un polluant avec des effets néfastes sur la santé (asthme, irritations des voies respiratoires supérieures…) lorsqu'il est présent dans la basse atmosphère, les gaz issus de la combustion, comme le dioxyde de soufre, les oxydes d'azote, le monoxyde de carbone, l'hydrogène sulfuré, et certains autres gaz à effet de serre ; les poussières, ou plus généralement les particules en suspension et les COV, provenant principalement des travaux publics, du nettoyage ou autre ; les gaz à effet de serre, dont les principaux sont le dioxyde de carbone, le méthane, mais aussi certains gaz fluorés, provenant de la combustion, des transports, des élevages, et des industries ; les métaux lourds, issus de différentes industries spécifiques, dont l'arsenic, le plomb, le zinc, le cuivre, le chrome, le mercure et le cadmium sont les principaux. Les effets de cette pollution peuvent être régionaux ou mondiaux. Régionalement, on peut avoir : un effet direct de toxicité sur la flore, la faune ou les hommes, dans le cas de gaz toxiques, notamment. Les métaux lourds, les particules en suspension, et les gaz issus de la combustion ont des effets notoires dangereux sur les organismes. Lors de fortes pollutions, les polluants peuvent obscurcir le ciel, réduisant la photosynthèse, et pouvant influer sur l'intensité des précipitations et la météorologie locale ; c'est le cas par exemple du nuage brun d'Asie ; une modification de la composition de l'air, qui entraîne une accumulation de polluants dans les pluies, pouvant provoquer des pluies acides, aux effets désastreux sur la flore locale et sur les organismes vivants aquatiques. À l'échelle de la planète, les effets de la pollution atmosphérique sont importants, et ont des impacts sur l'atmosphère et le climat de l'ensemble du globe. Les deux principaux effets de cette pollution sont : le trou dans la couche d'ozone. Historiquement, c'est une des premières prises de conscience des effets globaux que peut avoir l'activité humaine sur la planète. Dû aux gaz chlorés et halogénés, et notamment aux CFC et aux halons, le trou n'a été découvert que vers le début des années 1980. Il a des impacts importants sur la santé humaine, la faune et la flore, notamment par le biais des rayons ultraviolets qui ne sont alors plus filtrés par l'ozone stratosphérique. À la suite d'une réduction drastique de ces gaz du fait de leur interdiction progressive, leur utilisation a été divisée par 8 en 20 ans, et le trou dans la couche d'ozone a cessé de s'agrandir et devrait se refermer autour de 2050 ; le réchauffement climatique, défini par le secrétaire général des Nations unies comme un enjeu majeur de notre temps, est très probablement dû à un rejet massif de gaz à effet de serre d'origine humaine. Mettant en jeu des processus très longs, ce réchauffement pourrait avoir des conséquences négatives importantes sur la biodiversité, le niveau des océans, et les courants marins au niveau mondial, et pourrait entraîner ou favoriser des destructions d'écosystèmes, des désertifications ou des bouleversements climatiques graves à une échelle locale (sécheresses, inondations, intensité des cyclones…). Les conséquences affecteraient une majeure partie de la population mondiale et seraient multiples et globalement négatives. Biodiversité Les activités humaines ont une incidence forte sur la biodiversité, c'est-à-dire sur l'avenir des espèces vivantes, animales et végétales. Le taux d'extinction actuel des espèces est de 100 à fois supérieur au taux moyen naturel constaté dans l'histoire de l'évolution de la planète. En 2007, l'UICN a évalué qu'une espèce d'oiseaux sur huit, un mammifère sur quatre, un amphibien sur trois et 70 % de toutes les plantes sont en péril. Cette extinction massive des temps modernes est souvent désignée par le nom d'extinction de l'Holocène. L'origine de cette extinction massive d'espèces est principalement humaine, et notamment depuis les années 1500, où l'influence de l'homme a considérablement augmenté. La surchasse et la surpêche sont à l'origine de la disparition ou facteurs de menaces sur plusieurs espèces, mais c'est surtout la destruction et la dégradation de l'habitat naturel qui a eu les plus importantes conséquences. L'anthropisation grandissante des milieux naturels, via la déforestation, l'imperméabilisation des sols, l'agriculture et l'élevage extensif, l'urbanisation des littoraux, l'introduction d'espèces invasives, mais aussi la pollution des eaux et des sols, ainsi que le changement climatique, sont autant de facteurs qui réduisent ou détruisent l'habitat de certaines espèces, causant parfois leur disparition. La biodiversité fait l'objet d'études internationales dirigées par les Nations unies, via un groupe d'experts : l'IPBES. Elle est considérée comme un indicateur important, dont la dégradation serait significative pour la santé de la planète, mais aussi pour le bien-être humain. La préservation de la biodiversité est également une cible des objectifs du millénaire pour le développement. Ressources naturelles Une ressource naturelle est un élément présent dans la nature, exploité ou non par les humains, et pouvant être renouvelable ou non renouvelable. Dans une approche quantitative, on parle de capital naturel. La raréfaction des ressources naturelles est considérée comme inquiétante et représente une menace pour l'environnement et les activités humaines, qu'il s'agisse des ressources naturelles renouvelables, ou des ressources non renouvelables. S'agissant des ressources renouvelables (poissons, forêts, etc.), leur surexploitation peut entraîner une baisse significative de la ressource disponible, diminuant ainsi sa capacité de renouvellement. Ce sont les problèmes de la surpêche et de la déforestation entre autres. Si rien n'est fait pour enrayer cette spirale, cela peut conduire à l'épuisement total de la ressource, comme cela s'est déjà produit localement sur l'île de Pâques, par exemple, où la déforestation a conduit à la disparition des arbres sur l'île et à l'extinction de plusieurs espèces. Pour les ressources non renouvelables telles que les énergies fossiles et les minerais, l'impact de leur extraction sur l'environnement est relativement faible à court terme. C'est leur utilisation, qui produit souvent une pollution significative, et leur raréfaction qui sont une source d'inquiétude socio-économique. En effet, certaines de ces ressources sont une composante importante de l'activité humaine et économique. Leur extraction, continuellement en hausse, conduit à une baisse inquiétante des réserves, ce qui pose des problèmes pour les besoins des générations futures en matières premières. Catastrophes écologiques L'apparition de certains types d'industrie et de nouvelles techniques au cours du a rendu possible des accidents ou des actions ayant des conséquences très importantes sur les hommes et sur de multiples domaines de l'environnement, tout en touchant des zones géographiques plus ou moins vastes. Certains de ces accidents, dont certaines grandes catastrophes industrielles ou certains accidents nucléaires, peuvent affecter des écosystèmes entiers et engendrer des séquelles graves sur l'environnement. On parle alors de catastrophe environnementale ou écologique. Le terme est parfois utilisé pour désigner, non pas un événement ponctuel, mais une action ayant des effets négatifs importants et constants sur l'environnement. Le thème a notamment été largement utilisé dans les médias pour parler de l'impact écologique du barrage des Trois-Gorges. Effets sur la santé humaine Les dégradations de l'environnement ont des effets importants, sur la santé humaine et la qualité de vie des populations, comme en attestent les études sur le sujet et les différents organismes chargés d'étudier la relation entre la santé et l'environnement. La qualité de l'environnement — notamment dans les régions fortement peuplées —, est devenue un véritable problème de santé publique. Le lien entre santé et environnement a pris toute son importance depuis le sommet de la Terre de Rio en 1992 ; la protection de l'environnement est alors apparue comme une étape incontournable des politiques de santé publique mondiales. Ce lien est généralement désigné par le terme santé-environnement, et il est étudié par la médecine environnementale et le domaine des risques sanitaires. Les domaines de l'environnement pour lesquels la pollution peut avoir les conséquences les plus néfastes sur les populations sont l'eau et l'air, ressources indispensables à la vie. La pollution des sols peut aussi générer, à plus long terme, des problématiques sanitaires. L'eau et l'air peuvent être vecteurs de produits toxiques, CMR, non-biodégradables, allergisants ou eutrophisants mais aussi de virus, bactéries et autres agents pathogènes ayant des effets pathologiques directs, à court, moyen ou long terme, sur les organismes vivants. Relations de l’humain avec l’environnement Il existe un pan de recherche portant spécifiquement sur les relations que l’humain entretient avec l’environnement, soit l’anthropologie de l’environnement. Plusieurs approches marquent cette branche de la recherche : l’écologie culturelle de Steward, l’approche écosystémique de Rappaport, l’ethnoscience et l’ethnoécologie comme chez Haudricourt, l’œuvre d’anthropologie structurale de Claude Lévi-Strauss, les sur rapports à la nature, des vivants et des non-vivants, notamment ceux de Ellen et Katsuyochi, de Descola et de Viveiros de Castro, et ceux sur la perception et sur « l’habiter » menés par Ingold. Ces recherches, selon Doyon, ont quelques points en commun : d’abord de questionner les perceptions et les constructions sociales de la nature. Mais aussi, elles cherchent souvent aussi à montrer que les divisions courantes dans la pensée occidentale entre la nature et la culture, ou entre la société et l’environnement ne sont finalement pas universelles et s’ancrent plutôt dans des constructions modernes, dans la suite des travaux de Latour. Quant aux thèmes de recherche, ceux-ci sont aussi variés. Les conséquences sociales, économiques et politiques des discours globalisés sur l’environnement sont une voie explorée par plusieurs spécialistes. Des enjeux connexes peuvent être discutés et analysés, comme la justice environnementale, les réfugiés climatiques et le racisme environnemental. D’autres sujets peuvent être étudiés dans les rapports entre humain et environnement, recensés par Doyon, parmi lesquels il y a : l’exploitation de la nature par la production mécanisée et industrielle en agriculture (pêche, exploitation minière, foresterie ou carburants fossiles), mais aussi le développement durable, la privatisation et la marchandisation de la nature et du vivant, la création des aires protégées, le développement de l’écotourisme. Le lien qui existe entre l'Homme, les animaux, la biodiversité et l'environnement est représenté par le concept du « One Welfare ». Techniques de protection de l'environnement Dans les dernières années, des moyens techniques ont été développés pour adapter les méthodes industrielles aux impacts de l'activité humaine sur l'environnement. Ces moyens peuvent être techniques, mais aussi législatifs et normatifs. Au niveau international, des accords comme le protocole de Kyoto imposent des quotas maximum d'émissions de gaz à effet de serre. D'autres accords règlent des points plus précis, comme la protection d'un lieu, d'une espèce menacée, ou l'interdiction d'une substance. Traitement des effluents Dans les pays développés, les effluents, qu'ils soient liquides ou gazeux, sont majoritairement traités. Ces effluents peuvent être d'origine industrielle ou provenir des particuliers. Dans la plupart des pays riches, les effluents sont traités lorsqu'ils sont polluants. Pour l'eau, les particuliers sont équipés de fosses septiques ou sont reliés à l'égout. Les rejets liquides passent alors par une station d'épuration avant d'être rejetés dans la nature. Pour les industries, la législation impose des normes qualitatives pour les rejets. Les industries possèdent leur propre station de traitement, ou sont elles aussi reliées à l'égout. S'agissant de l'air, il existe là-aussi des normes imposant de traiter les rejets polluants. Ces normes sont cependant très dépendantes des techniques existantes, selon le principe de la meilleure technique disponible. La situation est très différente dans les pays en voie de développement. La plupart des effluents ne sont pas du tout traités, par manque de moyens, ou par absence de législation contraignante. Les enjeux environnementaux sont véritablement importants ; des effluents non traités ont un impact fortement négatif, non seulement sur l'environnement, mais aussi sur la santé des habitants. Gestion des déchets L'homme a un impact fort sur l'environnement via ses déchets. On estime que l'ensemble de l'humanité produit entre 3,4 et 4 milliards de tonnes de déchets par an, soit environ 600 kilos par an et par personne. Et ce chiffre est en constante augmentation Comme pour les effluents, l'absence de gestion des déchets dans les pays pauvres ou sortant des circuits légaux dans le monde, entraînent des impacts négatifs sur l'environnement et la santé humaine. On estime qu'environ 75 % des déchets d’équipements électriques et électroniques (50 millions de tonnes par an) disparaissent des circuits officiels de retraitement, exportée en grande partie illégalement vers des décharges clandestines en Afrique (Ghana, Nigeria), en Asie (Chine, Inde, Pakistan, Bangladesh), ou encore en Amérique du Sud. Pour éliminer les déchets, il faut tout d'abord les collecter. Ensuite, il existe différentes techniques pour les éliminer : le stockage, ou l'enfouissement dans des décharges : en général, il est préférable de stocker uniquement les déchets ultimes, comme les résidus d'incinération ; l'incinération : très utilisée, car peu coûteux, il impose notamment de traiter les fumées qui peuvent s'avérer très nocives. Cette technique peut servir à une valorisation énergétique ; la pyrolyse ou la gazéification, qui permettent elles aussi une valorisation énergétique des déchets, et nécessitent également un traitement des fumées ; la méthanisation ou biométhanisation : en enfouissant les déchets organiques et en les privant d'oxygène, la matière organique fermente et dégage du méthane. Ce gaz peut ensuite être brûlé pour produire de l'énergie ou être distribué dans le réseau de gaz de ville ; le recyclage, qui a pour avantage de réduire la consommation en matières premières pour la fabrication de nouveaux biens, et qui permet de minimiser l'impact environnemental des déchets. L'impact environnemental des déchets peut être limité, à la fois par les industriels par l'Écoconception et d'autres dispositifs. Mais aussi par les consommateurs, à travers la démarche zéro déchet et la règle des 5 R, qui sont à appliquer dans cet ordre: Refuser : tous les produits à usage unique. Privilégier les objets réutilisables et les achats sans déchet (comme le vrac) Réduire : la consommation de biens, aux quantités réellement nécessaires. Eviter le gaspillage. réutiliser : tout ce qui peut l'être (réparer, vendre/acheter d'occasion, louer, emprunter...) recycler tout ce qui ne peut pas être réutilisé. composter tous les déchets organiques (rot en anglais) Cette démarche permet d'éviter à la source la création de déchets, de préserver ainsi les ressources naturelles, et de mieux valoriser les déchets qui sont malgré tout générés. Gestion des ressources naturelles La gestion des ressources naturelles est un enjeu environnemental de premier plan. Dans le but de sauvegarder les ressources non renouvelables, et de préserver les ressources renouvelables, des techniques de gestion se sont mises en place. Dans le cas du papier, certains labels certifient une gestion durable de la forêt, certifiant que l'exploitation respecte les rythmes de croissance des arbres et ne participe pas à la déforestation. Pour de nombreuses autres ressources, des labels existent, certifiant de techniques de gestion durables. Pour la pêche ou la chasse des quotas réglementaires imposent de respecter le rythme de renouvellement des espèces animales. Pour des espèces animales ou végétales menacées ou plus fragiles, il est possible de leur assurer une certaine protection grâce à des parcs naturels. Dans ce domaine, les efforts restant à faire sont grands pour assurer une gestion durable de la majorité des ressources que nous utilisons. C'est pour cette raison que l'OCDE a en fait une de ses priorités. Protection des milieux et des espèces Dans le but de préserver la biodiversité, de nombreux moyens ont été développés pour protéger les milieux naturels et les espèces qui y vivent. Les réserves naturelles, qui existent dans de nombreux pays au monde, permettent de préserver des écosystèmes rares ou menacés en limitant l'urbanisation et les activités humaines dans les zones concernées. Pour les espèces menacées, l'UICN dresse et actualise une liste rouge répertoriant les espèces menacées d'extinction. Appuyées par des conventions internationales, comme la convention de Washington, des mesures sont prises pour leur préservation. Plus récemment, la meilleure compréhension des espèces animales a permis la création des corridors biologiques, qui permettent de relier des milieux naturels entre eux, favorisant ainsi la migration et la dispersion des espèces. Réduction des émissions de gaz à effet de serre La réduction des émissions de gaz à effet de serre est devenue un enjeu mondial majeur pour la lutte contre le réchauffement climatique. La sobriété, le choix d'équipements moins gourmands en énergie sont là aussi les méthodes principalement employées. Le recours aux énergies renouvelables contribue, en réduisant les émissions de gaz à effet de serre, à combattre le réchauffement climatique, et représentent un avenir prometteur. Certains pays ont vu l'émergence et la progression de ces énergies ces dernières années, bien qu'elles restent encore marginales dans la plupart des pays. L'adoption par les consommateurs d'un régime végétarien ou végétalien contribue également à réduire l'émission de gaz à effet de serre. Les énergies renouvelables englobent des techniques relativement récentes, comme l'énergie solaire thermique, l'énergie solaire photovoltaïque, mais aussi d'autres formes d'énergies qui sont utilisées depuis longtemps sous d'autres formes, comme la biomasse, l'énergie éolienne, la géothermie et l'énergie hydraulique. Actions de protection de l'environnement En réponse à la croissance des impacts négatifs sur l'environnement, et en partie, par la place grandissante de l'intérêt pour l'environnement dans la société, les gouvernements ont élaboré ou mis en place des lois ou des normes techniques, dans le but de réduire les répercussions néfastes de l'activité humaine sur l'environnement. Environnement : un des trois piliers du développement durable Le terme développement durable apparaît pour la première fois dans un rapport de l'UICN publié en 1980. La traduction du terme anglais sustainable development devrait être développement soutenable, mais l'expression développement durable lui a été préférée. C'est le rapport Brundtland (1987) qui pose véritablement les bases du développement durable, et qui en donne la définition de référence : « un développement qui répond aux besoins des générations du présent sans compromettre la capacité des générations futures à répondre aux leurs ». Comme le détaille le rapport Bruntland, cela implique un développement qui soit à la fois vivable (écologiquement supportable et socialement juste), viable (économiquement rentable et écologiquement supportable) et équitable (économiquement rentable et socialement juste), s'appuyant en cela sur ce qu'on appelle souvent les trois piliers du développement durable : l'économie, le social et l'environnement. L'idée d'un développement soutenable signifie que l'on ne doit pas prendre à la Terre plus que ce qu'elle peut donner. Cela implique le recours aux énergies renouvelables, au recyclage pour les matières premières dont le stock n'est pas renouvelable (comme les métaux par exemple), mais aussi une bonne connaissance du rythme de renouvellement des espèces animales, des végétaux, de la qualité de l'air, de l'eau, et plus généralement, de toutes les ressources que nous utilisons ou sur lesquelles nous agissons. Le but de cette démarche est d'avoir une empreinte écologique suffisamment faible pour ne pas faire diminuer le capital naturel. Le développement durable a été décliné en programmes pour la préservation de l'environnement par la majorité des gouvernements et des instances internationales ; en effet, il existe aujourd'hui un consensus global autour de la nécessité de se préoccuper de la durabilité du développement. Mais le développement durable est aussi l'objet de nombreuses critiques. Luc Ferry, par exemple, se demande « qui voudrait plaider pour un « développement intenable » ! Évidemment personne ! […] L'expression chante plus qu'elle ne parle ». Le développement durable peut également parfois être instrumentalisé, soit à des fins politiques pour légitimer des idées protectionnistes, par exemple, ou à des fins commerciales, comme argument de vente par des grandes sociétés. Enfin, le développement durable met la croissance économique au cœur de la stratégie de protection de l'environnement, accordant notamment une place importante à l'innovation et aux solutions techniques alors que certains de ses détracteurs estiment que c'est la croissance économique elle-même qui est à l'origine de la dégradation de l'environnement : c'est la théorie de la décroissance. Modèles économiques Le modèle économique de société, de par la consommation d'énergie, de matières premières, et de par le progrès technique, est très étroitement lié avec les impacts sur l'environnement et sa protection. Pour beaucoup, adopter un modèle économique différent permettrait de réduire nos impacts : les deux modèles les plus couramment évoqués sont celui du développement durable et celui de la décroissance. Décroissance La décroissance est un modèle théorique qui prône la décroissance de l'économie dans le but de réduire les impacts humains sur l'environnement. Ce courant de pensée a pris naissance avec les réflexions du club de Rome, qui publia un rapport en 1972, sous le nom de The Limits to Growth, traduit en français par Halte à la croissance ? et aussi connu sous le nom de Rapport Meadows. Ce rapport part du constat que la population humaine ne cesse de croître, ainsi que la consommation de biens matériels, de matières premières, d'énergie, et la pollution engendrée. Il préconise donc de se limiter à une croissance zéro, pour éviter d'épuiser les ressources naturelles. Partant du même constat, les partisans de la décroissance, aussi appelés objecteurs de croissance, concentrent leurs critiques sur le choix du PIB comme indicateur de référence, jugeant ce dernier trop restrictif. En effet, cet indicateur ne prend pas en compte l'état de l'environnement et de ses ressources, pas plus que le bien-être humain. Pour eux, la meilleure solution serait d'entrer en décroissance économique de manière durable et d'abandonner ce qui n'est pas indispensable pour se contenter de satisfaire ses besoins naturels primaires sans entrer dans une société de consommation excessive. Les partisans de la décroissance sont opposés au développement durable, qui accorde une place importante à la croissance et au développement technique. Cette théorie est vivement critiquée, notamment sur le fait qu'elle ne prend pas en compte le fait que les progrès scientifiques et techniques pourraient permettre de moins polluer, remplacer les énergies fossiles par des énergies renouvelables, et qu'il est possible de maintenir une croissance économique sans augmenter les consommations d'énergie et de matières premières. Pour étayer cet argument, ils s'appuient par exemple sur l'évolution de l'intensité énergétique des grandes économies mondiales qui a significativement baissé depuis vingt ans. Cette théorie a fait notamment l'objet des critiques de plusieurs « prix Nobel » d'économie, comme Amartya Sen ou Robert Solow, qui précisent que le progrès permettra de remplacer les matières premières manquantes, notamment par le biais du recyclage. Ils citent en exemple le rapport Meadows qui prédisait la fin du pétrole pour le début du . Enfin, un autre argument souvent repris est qu'un arrêt de la croissance économique serait préjudiciable aux pays les plus pauvres, dont la survie est très dépendante de la croissance, comme le prouve la crise économique de 2008-2009. Changement de mode d'alimentation Plusieurs chercheurs et ingénieurs mettent en avant le fait qu'une diminution significative de la consommation de viande permettrait d'agir efficacement pour l'environnement. Le secteur de l'élevage représente environ 15% des émissions de gaz à effet de serre, principalement sous forme de méthane. L'élevage, intensif ou extensif, conduit à des risques environnementaux diverses tel que la pollution du sol et des eaux, une substitution des forêts au profit des prairies, et une substitution des prairies au profit de cultures dédiées à l'alimentation animale. Politiques de l'environnement L'environnement en politique Historiquement, ce n'est véritablement qu'avec l'apparition des dans les pays développés que l'environnement a occupé une place dans le débat politique. C'est à la fin des années 1970 que les premiers ministères de l'environnement voient le jour, avec la création le 2 décembre 1970 de l'Environmental Protection Agency par le gouvernement Nixon aux États-Unis, suivi en janvier 1971 par la France et en mai de la même année par l'Australie. Petit à petit, l'ensemble des pays développés vont se doter d'un tel ministère, avec plus ou moins d'importance, et souvent à la suite d'une détérioration importante de l'environnement, comme en Allemagne à la suite de la catastrophe de Tchernobyl. Depuis, la défense de l'environnement a pris une part croissante dans le débat politique, avec la création des partis verts. Les performances électorales de ces partis dans les pays développés se sont globalement améliorées des années 1980 à nos jours. Aujourd'hui, certaines élections récentes montrent l'importance des questions environnementales dans les débats politiques. En France en 2007, le pacte écologique de Nicolas Hulot, demandant un engagement fort en matière d'environnement, a été ratifié par tous les candidats à l'élection présidentielle. À l'élection présidentielle américaine de 2008, les questions environnementales ont eu une place importante dans les débats, défendues ardemment par Barack Obama. Enfin, aux élections européennes de 2009, le très bon score du groupe des Verts dans les pays de l'Union européenne vient confirmer cette tendance : l'environnement est véritablement devenu un enjeu politique fort. Actions internationales Illustrant la globalité du phénomène et sa place croissante dans le monde politique et géopolitique, les actions internationales en lien avec l'environnement se sont multipliées : sommets internationaux, accords et protocoles, journées mondiales, évolution des réglementations, etc.. La description de la politique environnementale des États-Unis fait l'objet d'un article spécifique. Le manque de vision stratégique holistique bloque un certain nombre d'avancées pour l’environnement (ex Cf protocole de Kyoto et taxe carbone qui est l'exemple d'un échec majeur) Sommets et accords internationaux La première réunion internationale autour de l'environnement fut la Conférence internationale sur l’usage et la conservation de la biosphère, qui s'est réunie en 1968 à Paris. Elle permit aux différents acteurs présents d'entamer les discussions en vue du premier Sommet de la Terre, prévu à Stockholm en 1972. Ces sommets de la Terre sont les principaux sommets internationaux consacrés à l'environnement, et se tiennent tous les 10 ans. La conférence des Nations unies sur l'environnement de Stockholm en juin 1972, premier sommet international de grande ampleur consacrée à l'état de l'environnement, marque véritablement la prise de conscience d'un problème environnemental mondial, et de la nécessité d'une action concertée de préservation. Elle débouche sur une déclaration de principes et un plan d'action concrètes. Le 3 mars 1973, la convention de Washington est adoptée par un grand nombre de pays. Elle a pour objectif de veiller à ce qu'aucun commerce ne mette en danger la pérennité d'une espèce animale dans son milieu naturel. Son combat le plus connu est peut-être celui contre le trafic d'ivoire, qui met en danger les éléphants d'Afrique. La même année est adoptée la convention MARPOL, qui réglemente les pratiques en vue de diminuer les pollutions marines. Le sommet de la Terre de Nairobi, qui s'est tenu en 1982, a été un échec, du fait du faible intérêt de Ronald Reagan, alors président des États-Unis, du faible retentissement de ce sommet, et de l'absence de décisions importantes. Ce sommet n'est d'ailleurs pas considéré comme un sommet de la Terre. En 1984, le Programme des Nations unies pour l'environnement (PNUE) organise la Conférence mondiale de l’industrie sur la gestion de l’environnement, à Versailles, puis l'année d'après la Conférence internationale sur l’évaluation du rôle du dioxyde de carbone et autres gaz à effets de serre à Villach, alors que les premières interrogations sur le réchauffement climatique commencent à surgir. Le est signé le protocole de Montréal, qui vise à stopper les dégâts causés à la couche d'ozone, notamment en interdisant l'usage des chlorofluorocarbures et d'autres gaz nocifs pour la couche d'ozone. En 1989, la convention de Bâle réglemente le commerce des déchets, en interdisant notamment l'exportation de déchets des pays développés vers les pays en voie de développement pour échapper aux réglementations locales. En juin 1992, lors du sommet de la Terre de Rio de Janeiro, l'environnement a été défini comme un « bien commun » ou un « bien public ». Les acteurs internationaux ont montré avoir pris conscience que la problématique environnementale ne pouvait pas être découplée des problèmes économiques, écologiques et sociaux, de sorte que l'environnement a été considéré comme un dénominateur des trois piliers du développement durable. Il a été intégré dans les objectifs des agendas 21 pour les collectivités territoriales. Le est signé le protocole de Kyoto. Ce texte est d'une importance fondamentale puisque les pays l'ayant signé s'engagent à réduire leurs émissions en gaz à effet de serre, avec des objectifs chiffrés, et ce, pour essayer de limiter le réchauffement climatique. La mise en application du protocole et son suivi donneront lieu à une conférence internationale quasiment tous les ans. Ce protocole n'est entré en vigueur qu'en 2005, puisqu'il devait pour cela être ratifié par des pays dont les émissions en gaz à effet de serre représentent au moins 55 % des émissions mondiales. En 2002, lors du Sommet de la Terre de Johannesburg, sous l'impulsion, entre autres, des grandes ONG environnementales, l'environnement et le développement durable ont touché le monde des entreprises. On a vu émerger le concept de responsabilité sociétale des entreprises, application des principes de développement durable aux entreprises, l'environnement étant un témoin de l'efficacité fonctionnelle des trois piliers (économique, écologique et le social) du développement durable. Les préoccupations environnementales touchent également d'autres domaines, et apparaissent dans de nombreuses autres conférences ou sommets mondiaux (G8, G20, Conférences mondiales sur l'habitat, les villes, entre autres). Le conseil de sécurité des Nations unies s'est réuni en avril 2007 pour agir contre les changements climatiques et les dégradations de l'environnement, témoignant de l'importance de la question. Le dernier sommet mondial important a été le sommet de Copenhague en décembre 2009, dont le bilan est mitigé qui a entamé la préparation de l'après-Kyoto, et essayé de lui donner un nouveau souffle en décidant d'engagements chiffrés en matière de réduction des émissions de gaz à effet de serre. Les journées internationales Les journées mondiales ou internationales sont souvent officialisées par l'Organisation des Nations unies. Un nombre croissant de journées internationales sont consacrées à des thèmes environnementaux, illustrant la place grandissante des thématiques environnementales dans la société. On y trouve, entre autres : 20 ou 21 mars, jour de l'équinoxe : Jour de la Terre ; 22 mars : Journée mondiale de l'eau ; 22 mai : Journée internationale de la biodiversité ; 5 juin : Journée mondiale de l'environnement ; 8 juin : Journée mondiale de l'océan ; 17 juin : Journée mondiale de la lutte contre la désertification et la sécheresse ; 16 septembre : Journée internationale de la protection de la couche d'ozone ; 22 septembre : Journée sans voiture ; 4 octobre : Journée internationale des animaux. Réglementation Le droit de l'environnement est une discipline relativement récente qui a pour objet l'étude ou l'élaboration de règles juridiques concernant l'utilisation, la protection, la gestion ou la restauration de l'environnement. C'est un droit technique et complexe, en pleine expansion, et dont les champs tendent à se densifier au fur et à mesure des avancées sociales, scientifiques et techniques. Il est dans un nombre croissant de pays matérialisé par un code de l'environnement, mais sans juridiction spécialisée à ce jour (il n'y a pas de juge de l'environnement, comme il peut y avoir un juge à l'enfance, une spécialité criminelle ou anti-terroriste). Dans certains pays il existe cependant des services de police, douane ou garde-côte ayant une spécialité environnementale. Les textes de références sont généralement nationaux, sauf dans le cas de conventions, d'accords, et de systèmes de management internationaux, comme la norme de management environnemental ISO 14001. La plupart des pays cherchent désormais à harmoniser leurs textes réglementaires pour adopter une réponse plus adaptée aux problèmes mondiaux. Sans que cela soit pour autant réglementé, de nombreuses ONG appellent à une éthique de l'environnement qui soit reconnue par la majorité. De même, certaines organisations demandent que soit développée la notion de crime environnemental, notion diversement définie à travers le monde. Associations écologistes Il existe de nombreuses associations et organisations non gouvernementales actives sur les questions d'environnement. Parmi les plus en vue au niveau international, on trouve : Avaaz.org ; Friends of the Earth international ; Les Amis de la Nature ; Greenpeace ; Climate Action Network ; Sustainable Building Alliance ou SB Alliance ; Union internationale pour la conservation de la nature ; World Wildlife Fund. En France, les associations peuvent être « agréées au titre de l'environnement » par le ministère de l'Écologie et du Développement durable. Ce sont des associations régies par la loi de 1901 qui contribuent à révéler des problèmes ou à trouver et tester des solutions dans les domaines de la protection de la nature et de l'environnement et de l'amélioration du cadre de vie (leur vigilance s'exerce sur l'ensemble du territoire). Il existe aussi des associations concernant l'éducation à l'environnement et au développement durable (EEDD) ou le lien santé-environnement, comme l'Association Santé Environnement France (ASEF). Économie de l'environnement Théorie économique L'économie de l'environnement est souvent considérée comme une sous-discipline de l'économie, qui s'intéresse aux relations entre l'environnement et l'économie, c'est-à-dire aux coûts des atteintes à l'environnement, de la protection et de la connaissance de l'environnement, ainsi qu'à l'efficacité et à la conception d'instruments économiques pour changer les comportements à l'égard de l'environnement. Toutefois, cette position est critiquée notamment par l'agroéconomiste américain Lester R. Brown, qui considère que l'économie devrait être au contraire une sous-discipline de l'écologie. Le problème qui se pose souvent est celui de la valeur marchande à attribuer à un bien environnemental, à une ressource ou à sa qualité. Par exemple, il est très difficile d'attribuer un montant à un air de bonne qualité ou de chiffrer les impacts d'une pollution sur l'eau. Les outils économiques permettant d'influencer les comportements sont nombreux, allant de la loi de l'offre et de la demande (qui rend moins accessible une ressource rare en augmentant son prix), les amendes, dont le calcul du montant peut s'avérer difficile, les licences, normes, permissions, etc. Cela nécessite une prise en compte des problèmes relatifs aux externalités liées à une activité, qui induisent un coût environnemental non pris en compte par le responsable ; par exemple, un agriculteur ne va pas payer les coûts engendrés par une éventuelle pollution de l'eau par les pesticides, ou un transporteur ne va pas payer pour les gaz rejetés dans l'atmosphère. C'est la prise en compte de ces problèmes qui a fait naître le principe de pollueur-payeur, mais également les droits à polluer, dont l'exemple le plus connu est peut-être la bourse du carbone, prévue par le protocole de Kyoto L'économie de l'environnement traite également des marchés associés au domaine de l'environnement, et dont la croissance est forte. Ces marchés répondent à des besoins de non-pollution, d'efficacité énergétique, de traitement de l'air, de l'eau, de propreté ou de dépollution. Cette croissance entraîne une hausse de la demande en personnel formé aux métiers de l'environnement. Métiers et formations Les métiers de l'environnement se sont fortement développés dans le contexte du développement durable, faisant de l'environnement un secteur économique en plein développement. Le Grenelle de l'Environnement en France, et les objectifs de croissance verte et de réduction des rejets de CO2 dans les pays industrialisés ont donné une nouvelle impulsion au développement des métiers de l'environnement. On peut les séparer en cinq grands domaines : la protection et la gestion des espaces et espèces naturelles, ne représentant qu'un faible pourcentage des emplois du secteur. Assurées par l'État et des organisations spécialisées, ces missions se retrouvent principalement dans le secteur des forêts, des ressources naturelles et des parcs naturels. ; la prévention et le traitement des pollutions et des nuisances, dans les secteurs de l'eau (avec notamment l'ultrafiltration et l'osmose inverse), du bruit (murs anti-bruits), des déchets ménagers ou industriels, mais aussi de la recherche scientifique et technique de nouveaux moyens en vue de réduire les nuisances ; l'aménagement du territoire, principalement dans l'urbanisation, le paysage et la construction d'infrastructures ; la prise en compte des incidences sur l'environnement des différents projets, plans ou programmes à travers l'élaboration des études d'impact ou des évaluations environnementales. Ces documents sont pris en charge, en général, par des bureaux d'étude qui rassemblent les différentes compétences qui couvrent les champs de l'environnement : biodiversité, pollutions, nuisances...) ; la prise en compte des problématiques environnementales dans les entreprises est généralement du ressort du ou des pôles « QHSE » (Qualité Hygiène Sécurité Environnement). Il s'agit de prendre en compte la règlementation sur l'environnement et de réduire les impacts en matière de pollutions au cours de l'activité régulière ou accidentelle d'une entreprise. La majorité des grandes entreprises aujourd'hui ont engagé une démarche environnementale ; la gestion sociétale de l'environnement, qui englobe les métiers de l'éducation à l'environnement, les politiques, les métiers du droit de l'environnement, mais aussi le lobbying, le conseil et l'audit. À cela il faut ajouter tous les métiers qui ne sont pas directement liés à l'environnement, mais qui comportent une fort dimension environnementale, comme les métiers de l'énergie, de la construction et de la thermique du bâtiment. La forte croissance de ces métiers demande des formations adaptées, elles aussi en forte augmentation. Dans les pays développés, il est aujourd'hui possible de trouver de nombreuses formations spécialisées ou ayant un lien avec l'environnement. Philosophie et éthique de l'environnement Environnement et religion La plupart des religions anciennes étaient respectueuses de l'environnement bien que la notion d'environnement à l'époque ne fût pas la même qu'aujourd'hui. Certaines religions animistes et celtiques faisaient des éléments de la nature, comme les sources, certains animaux ou plantes, des divinités. En effet, la non-compréhension de la nature lui conférait un aspect mystique qui aboutissait souvent à une divinisation de ses éléments. Dans l'hindouisme, l'environnement a une grande importance. On traduit hindouisme par sanatana dharma, qui, traduit approximativement, signifie l'« essence éternelle du cosmos » – la qualité qui lie tous les êtres humains, animaux et végétaux à l'univers alentour et éventuellement à Dieu, source de toute existence. Le shintoïsme a également divinisé de nombreux éléments naturels, sous le nom de kami. Un kami peut être toute entité supérieure à l'homme par sa nature. Le monde naturel joue un rôle important dans le judaïsme. Dans la loi juive (halakhah), on trouve des mises en garde pour la protection des arbres fruitiers, ou de tout ce qui relève du bien commun, y compris les éléments naturels constituant l'environnement. La gestion de la création a été confiée par Dieu à l'homme afin de lui assurer une base matérielle et un tremplin pour son développement spirituel. Le rapport du Judaïsme à la nature est donc marqué par le respect de ce qui appartient à Dieu (l'homme est gestionnaire, et non propriétaire) et le fait que tout élément sur terre a son rôle à jouer dans la création, pour le bien être de l'homme et l'harmonie de l'ensemble des créatures. L'Église catholique alerta la communauté internationale dès les années 1970 sur un important manque d'éthique. Notamment le pape Paul VI, inquiet des nouvelles politiques agricoles, a pris position en 1970 lors du anniversaire de la FAO, puis a délivré un message fort en 1972 à l'ouverture de la Conférence des Nations unies sur l'environnement de Stockholm. Puis, en parallèle à l'œcuménisme prôné par Jean-Paul II, divers évènements chrétiens eurent lieu sur la question de l'environnement. De multiples initiatives œcuméniques ont abouti à proposer en 2007 de consacrer un temps pour la sauvegarde de la Création chaque année entre le septembre (journée de prière pour la sauvegarde de la Création chez les orthodoxes, adoptée ensuite par les catholiques) et le 4 octobre (fête de saint François d'Assise chez les catholiques). De même, la plupart des autorités religieuses islamiques se sont positionnées en faveur d'un plus grand respect de l'environnement. 60 responsables religieux musulmans représentant 20 pays différents, se sont réunis les 17 et 18 août 2015 à Istanbul pour le colloque de l’Islamic Climate Change Symposium, et ont signé la déclaration islamique sur le changement climatique. Position du Saint-Siège En juin 2012, à l'approche de la Conférence des Nations unies sur le développement durable, Rio+20, le Saint-Siège rappelle . En juin 2015, quelques mois avant la Conférence de Paris sur le climat (COP 21), le pape François publie l'encyclique Laudato si' (« sur la sauvegarde de la maison commune »). C'est la première encyclique d'un pape entièrement consacrée aux questions d'environnement, d'écologie intégrale, et de développement durable et intégral. Bien conscient des problèmes environnementaux de la planète, notamment de l'origine anthropique du réchauffement climatique, le pape souligne que ce sont les pauvres de la planète qui souffrent le plus de la dégradation de l'environnement, et il montre que la préservation de l'environnement ne peut pas être dissociée de la préoccupation d'aider les plus pauvres, ce qui constitue la dimension sociale de la doctrine de l'Église. Notes et références Notes Références Sauf indication contraire, les sources présentées ici sont exclusivement en français (). Annexes Bibliographie Bernard Kalaora et Chloé Vlassopoulos, Pour une sociologie de l’environnement, société et politique, 2013, Champ-Vallon Limoges C & Doray P (1994) Le débat public comme apprentissage social et comme régulation constituante : le cas de l'environnementalisation. Avril 1994 ; In Actes du colloque international de Montréal : Quand la science se fait culture. Naomi Klein : Tout peut changer : capitalisme et changement climatique, Actes Sud, 2015 Jean de Kervasdoué: Ils croient que la nature est bonne, Robert Laffont, 2016 Articles connexes Biosphère L’écosphère Convention sur la diversité biologique Écologie Éducation à l'environnement et au développement durable Nature Liste des ministres de l'Environnement Organisation mondiale de l'environnement Politique climatique Americana - Forum sur l'environnement et Salon international des technologies environnementales Écologie intégrale Liens externes Portail Environnement de la Commission européenne Sélection de sites web sur l’écologie, la biodiversité et l’environnement dans le répertoire encyclopédique : Les Signets de la Bibliothèque nationale de France
1034
https://fr.wikipedia.org/wiki/Enron
Enron
Enron était une entreprise américaine du secteur de l'énergie, qui fut l'une des plus importantes entreprises américaines par sa capitalisation boursière. Outre ses activités initiales dans le gaz naturel, Enron avait monté un système de courtage par lequel elle achetait et revendait de l'électricité, notamment au réseau des distributeurs de courant de l'État de Californie. En décembre 2001, elle fit faillite de manière retentissante, en raison de pertes occasionnées par ses opérations spéculatives sur le marché de l'électricité, qui avaient été maquillées en bénéfices via des manipulations comptables. Cette faillite entraîna dans son sillage celle d'Arthur Andersen, qui auditait ses comptes, et fut à l'origine de nouvelles lois et normes dans les domaines de la finance et de la comptabilité. Le scandale Enron est devenu un important symbole des dérives du capitalisme américain des années 1990. Histoire Création de la société En 1984, Kenneth Lay, 42 ans, prend la tête de la Houston Natural Gas, un petit distributeur texan de gaz. Il est l'ancien sous-secrétaire à l'Énergie dans l'administration Reagan et est très lié à la famille Bush qui a fait des affaires dans le pétrole, et à Dick Cheney, lui aussi patron dans le milieu pétrolier. En juillet 1985, Enron nait de la fusion de Houston Natural Gas et de la Internorth of Omaha. Son nom fut d'abord Enteron, composé de En pour Energy, de on de Houston et de ter pour la phonétique. Néanmoins, ce mot veut dire « intestin » en anglais scientifique : les lettres t et e seront ôtées pour conserver Enron. Quand l'entreprise démarra ses activités, elle était à la tête d'un réseau de gazoducs important. Son business model restait traditionnel : production et transport de gaz, ainsi que la vente, essentiellement sur les marchés de gros, dont il devient le leader avec 15 % du marché. Développement et diversification Dans les activités de production et de transport d'énergie Enron multiplie les prises de participation dans les sociétés de pipelines aux Etats-Unis, en Europe, en Asie et en Amérique du Sud. Les activités de trading sont déjà présentes, avec des instruments de couverture contre les risques de fluctuation des cours du pétrole et de gaz. En 1988, elle se développe à Londres pour capter les contrats de fourniture gazières résultant de la privatisation des services publics britanniques. La même année, elle lance la "Gas Bank", une chambre de compensation pour le commerce du gaz, chargée du montage financier des projets d'investissements gaziers, qui préfigure son business model à venir. Dans le courtage d'énergie Au tournant des années 1990 et avec l'arrivée de Jeffrey Skilling, ancien consultant de McKinsey, Enron entend profiter de la libéralisation du marché de l'énergie aux États-Unis et adopte un nouveau business model autour du courtage de l'énergie. Enron offre, grâce à la Gas Bank, des produits financiers dérivés comme des swaps, options, ... à ses clients : elle couvre des risques technologiques (accidents), économiques (fluctuations de cours), politiques (risque-pays), financiers (variations de taux d'intérêt, de taux de change...). Enron fait ainsi appel à des techniques d'ingénierie financière, considérant . Enron est la contrepartie de toutes les transactions. La détention des actifs (infrastructures énergétiques) devient alors secondaire dans le business d'Enron et lui permet de faire se rencontrer l'offre et la demande si besoin. Le business des pipelines devient un business de trading. Matières premières, réseaux de télécommunications... En 1993, elle se lance dans le commerce de l'électricité. Puis elle entreprend une diversification en élargissant son marché à d'autres matières premières et offre des dérivés sur un grand nombre de sous-jacents. En 1996, elle se lance sur le Nord Pool, bourse de l'électricité des pays scandinaves. Cette politique sera suivie en 1999 par le lancement du site EnronOnline, une plate-forme de trading où seront négociés jusqu'à . Parmi les nouveaux produits lancés par Enron, on trouve : Enron Broadband : une plate-forme de négoce pour la bande passante. Azurix : une société gérant des infrastructures de distribution d'eau, dont le but était de reproduire le modèle de la "Gas Bank" pour l'eau. des dérivés climatiques développés et commercialisés par Enron au milieu des années 1990. Ce développement se fit sous la tutelle du sénateur texan Phil Gramm, dont l'épouse était présidente de la Commodity Futures Trading Commission (CFTC, l'organe de contrôle des produits financiers dérivés, en particulier pour les matières premières). Plus largement, Enron était très active dans le domaine du lobbying, finançait certains partis politiques, et aurait réussi à influencer en sa faveur plusieurs lois et réglementations. Une vaste campagne de communication fut également lancée auprès des consommateurs, notamment pour les persuader qu'une dérégulation du marché (cf. déréglementation) réduirait leur facture de 43 %. Succès Enron a longtemps été considérée comme un modèle d'innovation et de croissance aux Etats-Unis. De 1990 à 1999, elle affiche un chiffre d'affaires et des résultats en progression de plus de 20% par an. Elle sert de modèle aux entreprises de la nouvelle économie qui profitent de l'essor d'Internet. Sa capitalisation boursière passe de 10 à 100 milliards de dollars et Enron est, à un moment, la septième entreprise la plus importante des Etats-Unis par ce critère. Sa croissance a été liée à un ensemble de facteurs exogènes ou endogènes : Enron a d'abord profité de la priorité donnée au gaz naturel par l'administration fédérale américaine, face au pétrole largement contrôlé par l'OPEP Elle a ensuite bénéficié de la dérégulation des marchés nationaux de commodités aux Etats-Unis Elle a enfin profité du développement d'Internet en dématérialisant ses activités de courtage via des plates-formes de marchés en ligne Enron a opté pour une stratégie à hauts risques et haut rendement, avec de nombreuses acquisitions et investissements, et une diversification très rapide de ses activités. Le magazine Fortune décerne à Enron le titre "d'entreprise la plus innovante des États-Unis" six années de suite. Elle a aussi redynamisé Houston, la ville où elle est basée, qui avait été sinistrée par les deux chocs pétroliers. Culture d'entreprise Enron avait développé une culture d'entreprise très agressive et portée sur la prise de risque, souvent qualifiée d'arrogante. Sa politique de ressources humaines consistait à recruter des cadres à haut potentiel issus des meilleures universités américaines et baignant dans la culture élitiste, ainsi que des traders expérimentés. Elle les rémunérait bien mieux que ne le faisait la concurrence. La culture d'Enron valorisait plus que tout le reste la croissance et la performance financière, assortie de sanctions en cas d'échecs. Les salariés étaient mis sous tension par un système de notation, les plus mal notés étant limogés, inspiré du modèle de Jack Welch de General Electric. Controverses avant le scandale En janvier 1999, Human Rights Watch accuse Enron de complicité dans de « graves violations » des droits de l’homme en Inde. La centrale de Dabhol, détenue à 50 % par Enron, « emploie des forces de sécurité qui agressent régulièrement les personnes qui manifestent pacifiquement contre la centrale », écrit l'organisation, qui accuse les gouvernements indien et américain de tolérer ces pratiques. Le scandale Enron Fraudes et manipulations En interne, Enron créa plus de . Le but premier de ces sociétés était de permettre à des investisseurs de cofinancer des infrastructures longues à rentabiliser grâce à la titrisation. Ces sociétés permettaient aussi d'externaliser certains risques importants de la société mère pour éviter de la mettre en péril. Enron utilisait largement ce type de sociétés non consolidées dans ces buts et par la suite pour sortir des actifs ou des passifs du bilan. Ces sociétés, dont les sièges sociaux étaient installés dans les îles Caïmans, les Bermudes ou les Bahamas, rendaient ainsi le bilan plus "présentable". Toutefois, de succinctes informations sur ces filiales étaient indiquées dans des notes en bas de page des documents d'information financière. L'entreprise poursuivait simultanément une politique de communication agressive. « Je crois en Dieu et je crois dans le marché », déclare Kenneth Lay, le charismatique président de Enron. Il envoya aux salariés un courrier leur annonçant qu'il pensait que le cours de l'action gagnerait 800 % avant l'année 2010. Exemple de montage financier d'Enron L'objectif est de permettre à Enron d'emprunter de l'argent sans que cela apparaisse dans ses comptes. L'opération implique trois acteurs : Enron, une filiale offshore d'Enron (comme Jedi, LJM ou Mahonia) et une banque (appelons-la banque A). Tous sont complices du montage. L'opération est ici largement simplifiée. D'abord la filiale vend pour un million de dollars de gaz à la banque A. La filiale, contrôlée par Enron, reçoit alors un million de dollars de la part de la banque A (un contrat de livraison de gaz est signé, mais cette livraison n'a pas lieu ; seul son paiement est effectué). Enron vend ensuite pour un million de dollars de gaz à sa filiale. Enron reçoit donc un million de dollars de cette dernière. Enfin Enron achète à la banque A pour un million cinquante mille dollars de gaz, et paie en plusieurs fois. La banque A recevra, au terme du processus, un million cinquante mille dollars (les cinquante mille dollars sont, en réalité, des intérêts). Quel est le résultat ? L'opération équivaut pour Enron à contracter un prêt d'un million de dollars auprès de la banque A et le rembourser progressivement avec des intérêts. Mais cela apparaît dans les comptes comme une opération commerciale, et permet à Enron de se surendetter sans éveiller les soupçons. D'autre part, sur les résultats comptables, Jeff Skilling demanda, comme condition à sa prise de la direction, de tenir une comptabilité sur la base des prix du marché et non pas sur des valeurs historiques, ce que le cabinet Arthur Andersen accepta. Il faut savoir qu'aucune pratique ne réglemente encore le nouveau business model d'Enron. Cette méthode de comptabilité à la valeur du marché qui est la règle dans le domaine de la finance est appliquée pour la première fois hors de ce milieu. Cela permet d'inscrire en comptabilité non pas les bénéfices réels, mais les bénéfices à la valeur du cours du gaz au jour de la signature du contrat. La révélation des fraudes et l'effondrement de l'entreprise En 2000-2001, les actions Enron baissent fortement dans le sillage de l'explosion de la bulle Internet. Comme ces actions servent de garantie à de nombreux montages financiers réalisés entre Enron et les banques, celles-ci demandent le remboursement de ces emprunts camouflés qui, dès lors, réapparaissent dans le bilan d'Enron. Le 20 août 2001, son PDG, Kenneth Lay, déclare à Business Week: « La société est probablement dans sa meilleure forme, la meilleure qu'elle ait jamais eue. » Il a pourtant vendu toutes ses actions Enron depuis six mois, empochant au passage une dizaine de millions de dollars de profit net. Le 9 octobre 2001, Goldman Sachs qualifie Enron de « best of the best ». Le 29 octobre 2001, le PDG d'Enron joint le secrétaire au Commerce Donald Evans pour lui demander s'il peut influencer l'agence de cotation Moody's qui a dégradé la note de la dette à long terme de sa société. Evans estime qu'il ne peut intervenir. Le , la SEC (le gendarme de la bourse américaine) ouvre une enquête. Le , la multinationale se déclare en faillite ; le cours de l'action chute à en quelques mois. En un an, sa valeur boursière a été divisée par 350. Environ sont immédiatement licenciés, . Des procédures pénales sont ouvertes contre les anciens dirigeants de l'entreprise : le trésorier, Ben Glisan fut condamné à cinq ans de prison. Le directeur financier, Andrew Fastow, à dix ans (son épouse, Lea, fut elle aussi condamnée pour avoir aidé à masquer les comptes). Le , Kenneth Lay, , est reconnu coupable de six chefs d'accusation, dont la fraude et le complot ; mais il décède d'un infarctus le 6 juillet avant de commencer à purger sa peine. L'ancien numéro deux d'Enron, Jeffrey Skilling est également reconnu coupable de 19 des 28 accusations, dont fraude, complot, fausses déclarations et délit d'initié et condamné à vingt-quatre ans et quatre mois de prison le . La Cour suprême des États-Unis décide le 24 juin 2010 d'annuler la condamnation de Jeffrey Skilling, ancien PDG d'Enron, pour manquement à ses « obligations morales » lors de la faillite de la société en 2001. Le 21 juin 2013, sa peine initiale de 24 ans de détention est ramenée à 14 années. Les anciens partenaires de l'entreprise sont également inquiétés par les poursuites judiciaires, notamment : le cabinet Arthur Andersen, qui est démantelé en 2002 à la suite de la faillite d'Enron, Citigroup, JP Morgan, Merrill Lynch, Deutsche Bank, la CIBC, et la banque Barclays. NatWest David Birmingham, Giles Darby et Gary Mulgrew, trois anciens banquiers britanniques de la banque Greenwich NatWest - accusés par la justice des États-Unis de transactions frauduleuses liées à l'affaire Enron - ont été extradés de leur pays le . Un quatrième banquier, Neil Coulbeck, s'est suicidé. Notes et références Voir aussi Scandale Enron Banqueroute Kenneth Lay et Jeffrey Skilling Crise de l'énergie en Californie Escroquerie Normes IAS/IFRS Gouvernance d'entreprise et loi Sarbanes-Oxley Lehman Brothers Enron, l'incroyable scandale. DVD. Par Alex Gibney. Seven 7, . () Le film Braqueurs amateurs () reprend l'histoire d'Enron et fait d'ailleurs une référence à l'entreprise à la fin du film. () Liens externes Site d'Enron Documents juridique sur l'affaire Enron Les activités d'Enron Entreprise du secteur de l'énergie ayant son siège aux États-Unis Affaire financière Entreprise fondée en 1985 Entreprise disparue en 2001 Entreprise américaine disparue Entreprise ayant son siège à Houston
1035
https://fr.wikipedia.org/wiki/Eukaryota
Eukaryota
Les eucaryotes (Eukaryota) sont un domaine regroupant tous les organismes, unicellulaires ou multicellulaires, qui se caractérisent par la présence d'un noyau et généralement d'organites spécialisés dans la respiration, en particulier mitochondries chez les aérobies mais aussi hydrogénosomes chez certains anaérobies. On le distingue classiquement des deux autres domaines que sont les bactéries et les archées (mais le clade des eucaryotes s'embranche en fait parmi ces Archées). Les eucaryotes rassemblent trois grands règnes du monde du vivant : les animaux, les champignons, les plantes, et d'autres (par exemple les algues brunes). Les eucaryotes unicellulaires sont parfois regroupés sous le terme de « protistes » et les non-Eukaryotes sous la dénomination de « procaryotes » (ces deux derniers groupes étant paraphylétiques). Les eucaryotes peuvent se reproduire de manière sexuée (par méiose et fusion de gamètes) ou non (par mitose). Dans la mitose, une cellule se divise pour produire deux cellules génétiquement identiques. Dans la méiose, la réplication de l'ADN est suivie de deux cycles de division cellulaire pour produire quatre cellules filles haploïdes. Ceux-ci agissent comme des cellules sexuelles (gamètes). Chaque gamète ne possède qu'un seul ensemble de chromosomes, chacun étant un mélange unique de la paire correspondante de chromosomes parentaux résultant d'une recombinaison génétique au cours de la méiose. Étymologie et histoire du concept Le terme Eukaryota provient du grec eu, « bien » et karuon, « noyau ». Il signifie donc littéralement « ceux qui possèdent un véritable noyau ». Il s'oppose au concept de Prokaryota. Les eucaryotes forment traditionnellement un empire du monde vivant, ou un domaine dans la classification proposée par Carl Woese. À cette occasion, ce dernier suggère un changement de nom pour Eucarya, un terme aujourd'hui très peu employé, en dehors de quelques microbiologistes. Le terme est aussi écrit sous la variante Eukarya, notamment par certains biologistes qui, à l'instar de Margulis et Chapman (2009), considèrent le taxon comme un super-règne. Caractéristiques morpho-anatomiques Les cellules eucaryotes possèdent, par opposition aux procaryotes (archées et bactéries) : des organites, divisant l'espace cellulaire en compartiments spécialisés, tels que : le noyau (contenant l'ADN), les mitochondries, le réticulum endoplasmique, l'appareil de Golgi, les ribosomes, les peroxysomes, les plastes (chloroplastes, chromoplastes, amyloplastes) et les vacuoles chez les plantes ; un cytosquelette complexe : microfilaments, microtubules et filaments intermédiaires ; la faculté à réaliser le mécanisme d'endocytose ; un ADN divisé en plusieurs chromosomes ; une division cellulaire appelée mitose (faisant intervenir centrioles et fuseau mitotique) ; une véritable reproduction sexuée, où chaque type sexuel apporte une part égale de matériel génétique. Cependant, certains eucaryotes, comme Euglena, n'ont pas de reproduction sexuée. Exemples d'eucaryotes Origine des eucaryotes Apparition Les plus anciens eucaryotes attestés seraient âgés de 1,6 Ga, certains acritarches dateraient approximativement de cette époque. Leur origine, toutefois, pourrait être encore plus ancienne. Grypania, vieille de , a été rapprochée des algues, et les Gabonionta, dans les formations de schistes noirs du Gabon, aussi anciens, suggèrent qu'une vie organisée faisant penser aux eucaryotes existait déjà. L'apparition des eucaryotes est encore plus ancienne. La présence de stérane, marqueur biochimique des eucaryotes dans des formations schisteuses australiennes suggèrent qu'à l'époque deux lignées s'étaient déjà différenciées il y a . Les groupes modernes ont d'abord été retrouvés dans les archives fossiles il y a sous la forme d'une algue rouge. Mais là aussi, les origines sont plus anciennes puisqu'un fossile trouvé dans le bassin du Vindhya en Inde et datant de pourrait bien être une algue filamenteuse. D'autres cellules fossilisées datées de 1,6 milliard d'années et présentant des cellules compartimentées et des organelles ont été découvertes dans des roches sédimentaires en Inde centrale. Il semble y avoir deux types d'algues rouges nommées Rafatazmia chitrakootensis (filamenteuse et contenant de grands disques rhomboïdaux qui pourraient être des restes de chloroplastes) et Ramathallus lobatus (plus globulaire et charnue). Mieux dater l'apparition des premiers eucaryotes est important pour évaluer les vitesse et taux de mutations du génome dans le temps. Faute d'ADN, les chercheurs ne peuvent pas certifier qu'il s'agit d'algues rouges. Enracinement au sein des archées Dans le monde des bactéries et des archées, le groupe le plus proche des eucaryotes est un super-embranchement d'archées, les archées d'Asgård. Leur génome code une série de protéines identiques ou similaires à des protéines qu'on pensait spécifiques des eucaryotes, et notamment l'actine qui forme le cytosquelette. Au sein des Asgards, l'embranchement le plus proche des eucaryotes est celui des Heimdallarchaeota. Origine de la mitochondrie La mitochondrie serait le résultat de l'endosymbiose d'une alpha-protéobactérie (une rhodobactérie) par une cellule eucaryote primitive. L'existence de gènes d'endosymbiotes (transférés au noyau de la cellule hôte et intégrés dans le génome de cette dernière) ou de leurs vestiges (demeurant dans le noyau alors que les organites eux-mêmes sont perdus ou dégénérés) révèle que les ancêtres d'eucaryotes dépourvus de mitochondries ont contenu jadis de tels organites. Cladogramme des eucaryotes Les eucaryotes comprennent deux clades : le taxon des unicontes (Unikonta, du grec , « bâton, flagelle »), qui représente les cellules eucaryotes possédant originellement un unique flagelle postérieur propulsif, est à l'origine des opisthocontes (Opisthokonta, du grec , « arrière ») regroupant les champignons et métazoaires ou animaux multicellulaires, et des amibozoaires ; le taxon des bicontes (Bikonta), qui représente les cellules eucaryotes possédant primitivement deux flagelles antérieurs les tirant en avant, est à l'origine des plantes vertes. Cladogramme selon les études de Cavalier-Smith, Brown Heiss et Torruella: Notes et références Voir aussi Bibliographie La plus connue des synthèses francophones est celle proposée par Guillaume Lecointre et Hervé Le Guyader dans Classification phylogénétique du vivant, parue aux éditions Belin en 2001 ( éd. en deux tomes parus en 2016 et 2017). Articles connexes Eukaryota (classification phylogénétique) Arbre phylogénétique Classification phylogénétique de Guillaume Lecointre et Hervé Le Guyader Liens externes Phylogénie moléculaire des eucaryotes Arbre phylogénétique du vivant « Tree of Life » Arbre phylogénétique du vivant - Université de Berkeley Les grandes lignées d'eucaryotes - Univ. Paris-Sud 11 Lifemap NCBI : consulter en ligne : arbre de vie dynamique Domaine (nom scientifique) Taxon décrit en 1978
1038
https://fr.wikipedia.org/wiki/Ensemble
Ensemble
En mathématiques, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être comprise comme un tout » (au sens d'omnis). Dans une approche axiomatique, la théorie des ensembles est une théorie de l'appartenance (un élément d'un ensemble est dit « appartenir » à cet ensemble). Le mot ensemble désigne alors un objet du domaine de cette théorie, dont les axiomes régissent les propriétés. La théorie des ensembles est utilisée pour fonder les mathématiques, et dans cette approche tout objet mathématique est in fine un ensemble. Mais la notion d'ensemble est aussi une notion de base qui intervient dans à peu près tous les domaines des mathématiques. Origines La formulation en reviendrait au mathématicien Georg Cantor, qui énonçait : « Par ensemble, nous entendons toute collection M d'objets m de notre intuition ou de notre pensée, définis et distincts, ces objets étant appelés les éléments de M ». Ceci était particulièrement novateur, s'agissant d'ensembles éventuellement infinis (ce sont ces derniers qui intéressaient Cantor). Ce qui est en jeu au premier chef dans la notion d'ensemble, c'est la relation d’appartenance : un élément appartient à un ensemble. Ce sont les propriétés de cette relation que Zermelo, puis d'autres, ont axiomatisées en théorie des ensembles. Il est assez remarquable que l'on puisse s'en contenter pour une théorie qui peut potentiellement formaliser les mathématiques. Mais ce n'était pas l'intention de Cantor, et il n'avait pas non plus axiomatisé sa théorie. L'objet de cet article est de donner une approche intuitive de la notion d'ensemble, telle qu'elle est indiquée dans l'article théorie naïve des ensembles. Ensembles, éléments et appartenance Un ensemble peut être vu comme une sorte de sac virtuel entourant ses éléments, ce que modélisent bien les diagrammes de Venn. Souvent (ce n'est pas toujours possible), on essaye de le distinguer typographiquement de ses éléments, par exemple en utilisant une lettre latine majuscule, par exemple « E » ou « A », pour représenter l'ensemble, et des minuscules, telles que « x » ou « n », pour ses éléments. Les éléments peuvent être de n’importe quelle nature : nombres, points géométriques, droites, fonctions, autres ensembles… On donne donc volontiers des exemples d'ensembles en dehors du monde mathématique. Par exemple : lundi est un élément de l’ensemble des jours de la semaine ; une bibliothèque est un ensemble de livres, etc. Un même objet peut être élément de plusieurs ensembles : 4 est un élément de l'ensemble des nombres entiers, ainsi que de l’ensemble des nombres pairs (forcément entiers). Ces deux derniers ensembles sont infinis, ils ont une infinité d’éléments. L'appartenance d'un élément, noté par exemple x, à un ensemble, noté par exemple A, s’écrit : x ∈ A. Cet énoncé peut se lire : « x appartient à A », « x est élément de A », « x est dans A », « A a pour élément x », « A possède x », ou parfois « A contient x » (il y a ambiguïté cependant dans ce dernier cas, A contient x peut signifier que x est un sous-ensemble de A, c’est-à-dire que x est un ensemble et que tous ses éléments appartiennent à A, ce qui est très différent de « x appartient à A »). Le symbole « ∈ », dérive de la lettre grecque ε (epsilon) introduite par Giuseppe Peano dès 1889. Pour Peano « x ε A » se lit « x est un A », par exemple « x ε N » se lit « x est un entier positif ou nul». Le ε renvoie à l'initiale du mot « est » (en latin, langue de l'article de Peano de 1889 !), en français, ou en italien (« è »). Bertrand Russell reprend les notations de Peano en 1903 dans les Principles of Mathematics, ouvrage qui va participer à leur diffusion, et où est utilisée la forme arrondie vieillie du epsilon : « ϵ », en usage dans l'édition mathématique anglo-saxonne. Comme souvent pour les relations, on barre ce symbole pour indiquer sa négation, la non-appartenance d’un objet à un ensemble : « z ∉ A » signifie « z n’appartient pas à A ». Égalité de deux ensembles En mathématiques – et pas seulement en mathématiques d'ailleurs –, on considère que deux objets sont égaux quand ils ont les mêmes propriétés, que l'on ne peut donc les distinguer l'un de l'autre – c'est la définition de l'égalité de Leibniz. Dire que deux objets sont égaux, c'est-à-dire que deux expressions désignent en fait le même objet, c'est donc donner une information sur ce que sont ces objets. En théorie des ensembles on décide qu'un ensemble est complètement caractérisé par ses éléments, son extension, alors qu'il peut avoir plusieurs définitions. Par exemple, il n'y a pas lieu de distinguer l'ensemble des entiers différents d'eux-mêmes et l'ensemble des entiers supérieurs à tous les nombres premiers : ces deux ensembles sont tous les deux vides, donc égaux – ils ont bien les mêmes éléments –, même s'ils ont des définitions différentes, et sont vides pour des raisons très différentes. On dira donc que deux ensembles A et B sont égaux (on le notera comme d'habitude A = B) quand ils ont exactement les mêmes éléments. Cette propriété est connue sous le nom d'extensionnalité : (Extensionnalité)     A = B   si et seulement si   ∀x (x ∈ A ⇔ x ∈ B) où « ⇔ » désigne l'équivalence logique. Deux ensembles qui ont les mêmes éléments sont bien identiques : tout ce qui peut être dit de l'un peut être dit de l'autre. Si nous nous représentons les deux ensembles comme des sacs étiquetés chacun par leur nom, s’ils sont égaux, alors il s’agit en fait d’un seul et même sac avec deux étiquettes. Par contre, les propriétés d’un ensemble ne dépendent absolument pas de la nature ou de la forme du sac, seulement de son contenu. Ainsi un ensemble est complètement déterminé par ses éléments. Quand un ensemble est fini, il est donc possible de le définir en donnant la liste de ses éléments, que l'on note traditionnellement entre accolades. Par exemple l'ensemble auxquels appartiennent les éléments 2, 3, et 5, et seulement ces éléments, est noté {2, 3, 5}. L'ensemble est défini en extension. Mais on ne peut procéder ainsi en toute généralité, on ne pourrait définir ainsi un ensemble infini. Même si quelques artifices de notation qui ressemblent à la notation en extension sont possibles (voir ci-après), la façon la plus générale de définir un ensemble est de donner une propriété caractéristique des éléments de cet ensemble. Par exemple, on pourra définir l'ensemble des nombres premiers par une propriété caractéristique de ceux-ci : être différent de 1 et avoir pour seuls diviseurs 1 et lui-même. On parle de définition en compréhension. L’ensemble {2, 3, 5} peut être défini en compréhension comme l’ensemble de tous les nombres premiers inférieurs à 6. La définition en extension des ensembles finis peut être vue comme un cas particulier simple de définition en compréhension : par exemple l'ensemble {2, 3, 5} est caractérisé par la propriété, pour un nombre entier, d'être égal à 2 ou à 3 ou à 5. Ensembles finis Quand on parle d'ensembles finis, c'est en un sens intuitif, sans avoir vraiment défini cette notion. Un ensemble est fini quand on peut compter ses éléments à l'aide d'entiers tous plus petits qu'un entier donné. Les ensembles finis peuvent être définis en extension, par la liste de leurs éléments, et décrits comme tels ; on place la liste des éléments d'un ensemble entre accolades, comme on l'a déjà vu pour l'ensemble {2, 3, 5}. Par exemple, l'ensemble des jours de la semaine peut être représenté par { lundi, mardi, mercredi, jeudi, vendredi, samedi, dimanche }. La notation d'un ensemble en extension n'est pas unique : un même ensemble peut être noté en extension de façon différentes. L’ordre des éléments est sans importance, par exemple { 1, 2 } = { 2, 1 }. La répétition d’éléments entre les accolades ne modifie pas l’ensemble : toujours avec le même exemple, { 1, 2, 2 } = { 1, 1, 1, 2 } = { 1, 2 }. À cause de la propriété d'extensionnalité, il n'est pas question de distinguer des ensembles par le nombre de répétitions d'un même élément à ces ensembles : un élément appartient ou n'appartient pas à un ensemble, il ne peut appartenir à un ensemble une, deux, ou trois fois… On pourrait imposer que la notation se fasse sans répétitions, ce serait assez malcommode dès qu'interviennent des variables : on ne pourrait noter un ensemble en extension sans devoir supposer que ses éléments sont distincts. Il peut arriver que l'on ait besoin d'ensemble « avec répétition », dans le cas fini, il s'agit plus justement, de suites finies à l'ordre des éléments près, on définit alors la notion de multiensemble fini (qui peut se définir à partir de la notion de suite finie). Les ensembles réduits à un seul élément sont appelés singletons. Par exemple l'ensemble qui contient pour seul élément 0 est appelé « singleton 0 » et noté {0}. Les ensembles qui ont exactement deux éléments sont appelés paires, la paire des éléments 1 et 2, notée {1,2}, ne doit pas être confondue avec le couple (1,2), qui a un ordre déterminé. Quand on axiomatise la théorie des ensembles, les paires (et singletons) jouent un rôle particulier, voir l'article Axiome de la paire. Par extensionnalité, il n'y a qu'un seul ensemble sans éléments, l'ensemble vide, que l'on note ∅ ou { }. Définition d’un ensemble en compréhension Un ensemble peut être défini en compréhension, c’est-à-dire qu'on le définit par une propriété caractéristique parmi les éléments d'un ensemble donné. Ainsi l'ensemble des entiers naturels pairs est clairement défini en compréhension, par la propriété « être pair » parmi les entiers naturels. On peut utiliser la notation d'un ensemble en compréhension, par exemple pour l'ensemble des entiers naturels pairs, on écrira (ℕ désignant l'ensemble des entiers naturels) : . On définira de la même façon (ℤ désignant l'ensemble des entiers relatifs) : l'ensemble des entiers relatifs compris entre -7 et 23 ; l'ensemble des carrés parfaits non nuls. La formulation générale est : Cette construction a besoin d'un ensemble déjà existant E et d'une propriété P définie sur tous les éléments de E. Elle permet donc de construire des sous-ensembles mais pas la réunion d'une famille d'ensembles, ni l'ensemble des parties d'un ensemble, ni même les ensembles finis définis par la liste de leurs éléments comme au paragraphe précédent. On pourrait pourtant écrire, par exemple pour l'ensemble des parties P(E) = { A | A ⊂ E } Il n'est pas pour autant possible de définir un ensemble par n'importe quelle propriété, et lever entièrement la restriction de la compréhension. Si c'était le cas on pourrait définir l'ensemble {x | x ∉ x}, ce qui conduit à une contradiction (c'est le paradoxe de Russell). La restriction de la compréhension à un ensemble connu protège contre ce genre de paradoxes, elle correspond directement au schéma d'axiomes de compréhension de la théorie de Zermelo. Cette restriction ne peut se lever que dans des cas particuliers précis, qui correspondent à d'autres axiomes de la théorie de Zermelo (axiome de la paire, axiome de la réunion, axiome de l'ensemble des parties). On n'a pas dit ce que l'on entendait par « propriété » ou « condition ». Malgré la restriction précédente, on ne peut tout autoriser, sous peine d'autres paradoxes comme le paradoxe de Richard ou le paradoxe de Berry, qui fait intervenir, par exemple, « l'ensemble des entiers naturels définissables en moins de quinze mots français ». Il est nécessaire de préciser le langage dans lequel on peut définir ces conditions. En particulier ce langage doit être défini a priori, et ne peut être étendu qu'à l'aide de définitions qui sont soit de simples abréviations, soit résultent de preuves d'existence et d'unicité. Ensemble défini comme image directe Pour noter l'ensemble des carrés parfaits non nuls (voir exemple au paragraphe précédent) on peut utiliser la notation plus concise : dont la forme générale est : Elle représente l'ensemble des images d'un ensemble E par une application f. L'ensemble obtenu s'appelle image directe de E par f. Il s'agit d'une variante de la notation en compréhension ci-dessus. Elle se déduit de celle-ci, en utilisant la définition d'une fonction, si F est l'ensemble d'arrivée de la fonction f : . De cette notation dérivent d'autres notations faciles à comprendre Ces notations ont leur avantage et leur inconvénient. D'un côté, elles facilitent une compréhension immédiate des ensembles considérés et rendent accessibles à l'intuition des objets plus compliqués. D'un autre côté, ces notations masquent un quantificateur existentiel indispensable dès lors que l'on veut utiliser cet ensemble. Autres notations Il existe d'autres notations commodes, en particulier pour les ensembles de nombres, et plus généralement pour les ensembles totalement ordonnés. On peut utiliser des points de suspension, pour des notations inspirées de la notation en extension pour des ensembles de cardinalité infinie, ou finie mais non déterminée. Par exemple, l’ensemble des entiers naturels peut se noter par : ℕ = { 0, 1, 2, 3, … }. S'il est clair par ailleurs que n désigne un entier naturel, {1, 2, … , n}, voire {1, … , n} désigne en général l'ensemble des entiers supérieurs ou égaux à 1 et inférieurs ou égaux à n. De même on peut écrire ℤ = { … , –3, –2, –1, 0, 1, 2, 3, … }. Quand il y a un procédé itératif simple pour engendrer les éléments de l'ensemble, on peut se risquer à des notations comme {0, 2, 4, 6, … } pour l'ensemble des entiers naturels pairs On peut bien sûr utiliser ces notations pour des ensembles ayant « beaucoup » d'éléments, {1, 2, … , 1000} plutôt que d'écrire les mille premiers nombres entiers non nuls, ou encore { 3, 5, … , 21} plutôt que { 3, 5, 7, 9, 11, 13, 15, 17, 19, 21 }. Toutes ces notations ne sont pas systématiques, ni universelles, et pour les dernières au moins, pas très rigoureuses. On peut encore signaler, la notation, rigoureuse celle-ci, de certains sous-ensembles de la droite réelle, les intervalles. Par abus de notation, parfois on ne note pas la variable dans la définition en compréhension, mais seulement la propriété. Ainsi on note un ensemble en plaçant entre accolades la nature, ou une propriété caractéristique, des objets qui lui appartiennent. Par exemple la notation {chiens} désigne l’ensemble de tous les chiens ; pour prendre un exemple plus mathématique, on pourrait écrire parfois {pairs} pour l'ensemble des nombres pairs. Notes et références Traduction Références Voir aussi Relation binaire Opération ensembliste Produit cartésien Ensemble flou Catégorie des ensembles Classe (mathématiques) Théorie des ensembles Objet mathématique
1040
https://fr.wikipedia.org/wiki/Ethernet
Ethernet
Ethernet est un protocole de réseau local à commutation de paquets. C'est une norme internationale : ISO/IEC 802-3. Initialement conçu au début des années 1970, pour relier entre eux des ordinateurs rattachés à un même câble coaxial (par analogie avec les réseaux de distribution de fluides – eau, gaz – ou de télévision par câble dans un même immeuble), depuis les années 1990, on utilise très fréquemment Ethernet sur paires torsadées pour la connexion des postes clients (le cable coaxial ayant été remplacé par des concentrateurs – hub – puis des commutateurs – switch ), et des versions sur fibre optique pour le cœur du réseau. Cette configuration a largement supplanté d'autres standards comme le , FDDI et ARCnet. Ethernet n'offre pas de garantie de bonne livraison des données, ce qui est laissé aux couches protocolaires supérieures. N.B. Le terme "Ethernet sans fil" pour désigner le Wi-Fi (normes IEEE 802.11) est un abus de langage. L'IEEE réserve en effet le terme "Ethernet" aux normes 802.3, qui sont filaires. Origine du nom Dans les premiers réseaux Ethernet, le câble coaxial diffusait les données à toutes les machines connectées, de la même façon que les ondes radiofréquences parviennent à tous les récepteurs. Le nom Ethernet dérive de cette analogie : avant le , on imaginait que les ondes se propageaient dans l’éther, milieu hypothétique censé baigner l'Univers. Quant au suffixe , il s'agit de l'abréviation du mot (« réseau ») en anglais. Histoire . Une histoire commune veut qu'il ait été inventé en 1973, date à laquelle Robert Metcalfe écrivit une note à ses patrons à propos du potentiel d'Ethernet. Metcalfe affirme qu'Ethernet a été inventé sur une période de plusieurs années. En 1975, Robert Metcalfe et David Boggs (l'assistant de Metcalfe) ont publié un document intitulé (Ethernet : commutation de paquets distribuée pour les réseaux informatiques locaux). Metcalfe a quitté Xerox en 1979 pour promouvoir l'utilisation des ordinateurs personnels et des réseaux locaux, et a fondé l'entreprise 3Com. Il réussit à convaincre DEC, Intel et Xerox de travailler ensemble pour promouvoir Ethernet en tant que standard, au terme d'une période au cours de laquelle la réflexion des constructeurs s'oriente vers une informatique décentralisée. La norme Ethernet I (), ou « DIX » (DEC Intel Xerox) est publiée en 1980, suivie d'une révision Ethernet II en 1982. L'IEEE s'inspire du standard DIX et publie sa norme IEEE 802.3 en 1983. Ethernet était à l'époque en compétition avec deux systèmes propriétaires, Token Ring (IBM, plus récent) et ARCnet (TRW-Matra, plus ancien) ; ces deux systèmes ont au fil du temps diminué en popularité puis disparu face à Ethernet, en raison de la baisse de coûts due à la production de masse, et aux modernisations ultérieures d'Ethernet. Ethernet avait par ailleurs moins de contraintes topologiques que le Token Ring (au CeBIT de 1995, on pouvait voir à titre expérimental un simili plafond blanc utilisé comme medium Ethernet, les signaux transitant par infrarouge). Pendant ce temps, 3Com est devenue une compagnie majeure du domaine des réseaux informatiques. Description générale Standardisation initiale Ethernet est fondé sur le principe de membres (pairs) sur le réseau, envoyant des messages dans ce qui était essentiellement un système radio, captif à l'intérieur d'un fil ou d'un canal commun, parfois appelé l'éther. Ainsi, Ethernet est conçu à l'origine pour une topologie physique et logique en bus (tous les signaux émis sont reçus par l'ensemble des machines connectées). Chaque pair est identifié par une clé globalement unique, appelée adresse MAC, pour s'assurer que tous les postes sur un réseau Ethernet aient des adresses distinctes sans configuration préalable. Collisions Une technologie connue sous le nom de CSMA/CD (, ou écoute de porteuse avec accès multiples et détection de collision) régit la façon dont les postes accèdent au média. Au départ développée durant les années 1960 pour ALOHAnet à Hawaï en utilisant la radio, la technologie est relativement simple comparée à ou aux réseaux contrôlés par un maître. Lorsqu'un ordinateur veut envoyer de l'information, il obéit à l'algorithme suivant : Procédure principale Trame prête à être transmise. Si le medium n'est pas libre, attendre jusqu'à ce qu'il le devienne puis attendre la durée intertrame ( pour l'Ethernet ) et démarrer la transmission. Si une collision est détectée, lancer la procédure de gestion des collisions. Sinon, la transmission est réussie. Une station qui détecte une collision émet sur le média un signal de collision appelé « jam signal » (une séquence de 4 à ). Procédure de gestion des collisions Continuer la transmission à hauteur de la durée d'une trame de taille minimale () pour s'assurer que toutes les stations détectent la collision. Si le nombre maximal de transmissions (16) est atteint, annuler la transmission. Attendre un temps aléatoire dépendant du nombre de tentatives de transmission. Reprendre la procédure principale. En pratique, ceci fonctionne comme une discussion ordinaire, où les gens utilisent tous un médium commun (l'air) pour parler à quelqu'un d'autre. Avant de parler, chaque personne attend poliment que plus personne ne parle. Si deux personnes commencent à parler en même temps, les deux s'arrêtent et attendent un court temps aléatoire. Il y a de bonnes chances que les deux personnes attendent un délai différent, évitant donc une autre collision. Des temps d'attente en progression exponentielle sont utilisés lorsque plusieurs collisions surviennent à la suite. Comme dans le cas d'un réseau non commuté, toutes les communications sont émises sur un médium partagé, toute information envoyée par un poste est reçue par tous les autres, même si cette information était destinée à une seule personne. Les ordinateurs connectés sur l'Ethernet doivent donc filtrer ce qui leur est destiné ou non. Ce type de communication « quelqu'un parle, tous les autres entendent » d'Ethernet était une de ses faiblesses, car, pendant que l'un des nœuds émet, toutes les machines du réseau reçoivent et doivent, de leur côté, observer le silence. Ce qui fait qu'une communication à fort débit entre seulement deux postes pouvait saturer tout un réseau local. De même, comme les chances de collision sont proportionnelles au nombre de transmetteurs et aux données envoyées, le réseau devient extrêmement congestionné au-delà de 50 % de sa capacité (indépendamment du nombre de sources de trafic). Suivant le débit utilisé, il faut tenir compte du domaine de collision régi par les lois de la physique et notamment la vitesse de propagation finie des signaux dans un câble de cuivre. Si l'on ne respecte pas des distances maximales entre machines, le protocole CSMA/CD devient inopérant et la détection des collisions ne fonctionne plus correctement. Topologie Historiquement Ethernet utilisait des bus sur câbles coaxiaux, surtout de type 10BASE5 puis 10BASE2. Il fut ensuite adapté en 10BASE-T pour utiliser des topologies physiques en étoile sur câbles à paires torsadées, les pairs étant raccordés à des concentrateurs (hubs), ce qui ne change toutefois rien à la nature d'Ethernet: la topologie logique reste le bus, le médium reste partagé, tout le monde reçoit toutes les trames, il n'y a toujours qu'un seul segment, tout le monde voit les collisions. Domaines de diffusion et de collision Ethernet est un réseau de type diffusion (Broadcast), c'est-à-dire qu'il est possible d'envoyer (y compris dans ses évolutions ultérieures, sur demande) une trame donnée à toutes les stations raccordées au réseau Ethernet, qui constitue ainsi un domaine de diffusion (Broadcast domain). Il est possible de raccorder deux segments Ethernet par le biais d'un pont (bridge) qui va répéter et retransmettre à l'identique (contrairement à un routeur) les trames d'un segment vers un autre segment. Les deux segments ainsi raccordés forment un seul domaine de diffusion, en revanche ils forment chacun leur propre domaine de collision (les collisions ne traversent pas le pont). Évolution majeure: Ethernet commuté (les switchs) Pour résoudre les problèmes liés aux collisions, les commutateurs (switchs) ont été développés afin de maximiser la bande passante disponible, en reprenant les câbles à paires torsadées (et plus tard en y ajoutant la fibre optique). Un commutateur est une sorte de pont multiport, chaque lien point à point entre un hôte et le commutateur étant alors un segment avec son propre domaine de collision. Dans ce cas, les caractéristiques d'Ethernet changent nettement: la topologie physique n'est plus en bus mais en étoile (comme avec les hubs) ; la topologie logique n'est plus celle d'un bus (médium partagé), mais est également en étoile : les communications entre deux pairs donnés sont isolées (contrairement aux hubs et aux bus coaxiaux Ethernet), ce qui augmente clairement les capacités de transmission globales du réseau. Chaque paire hôte1/hôte2 communique ensemble par une sorte de lien Point à Point virtuel établi par le commutateur ; les communications peuvent se faire en (émission et réception simultanées) et il n'y a plus de collision. Pour ce faire CSMA/CD est désactivé (en mode CSMA/CD l'émetteur écoute ce qu'il émet, et si quelqu'un parle en même temps que l'émetteur il y a collision, ce qui est incompatible avec le mode full-duplex) ; les distances maximales ne sont plus contraintes par la vitesse de propagation (il n'y a plus de collision à détecter) mais uniquement par l'atténuation des signaux dans les câbles. Normalisation Historique Historiquement Ethernet est un standard de fait décrit depuis 1980 par les spécifications Ethernet / DIX. Par ailleurs, l'IEEE a publié son propre standard IEEE 802.3 en 1983, s'inspirant de ce standard de fait. Il existe donc en fait un standard Ethernet II / DIX d'une part (de 1982), et une norme IEEE 802.3 d'autre part (de 1983). Les deux standards sont interopérables. Par la suite les mises à jour normatives ont été formalisées par l'IEEE, et 802.3 a du reste pris officiellement en compte les aspects de DIX en 1998 (révision 802.3-1998). Modèle OSI Bien qu'il implémente la couche physique (PHY) et la sous-couche (MAC) du modèle IEEE 802.3, le protocole Ethernet est classé dans les couches de liaison de données (niveau 2) et physique (niveau 1) du modèle OSI. En 802.3, la couche LLC (Logical Link Control) 802.2 fait la charnière entre les couches supérieures et la sous-couche MAC (Media Access Control) qui fait partie intégrante du processus 802.3 avec la couche physique ; les formats de trames que le standard définit sont normalisés et peuvent être encapsulés dans des protocoles autres que ses propres couches physiques MAC et PHY. Ces couches physiques font l'objet de normes séparées en fonction des débits, du support de transmission, de la longueur des liaisons et des conditions environnementales. Différence Ethernet II DIX / 802.3 Ethernet a été standardisé sous le nom IEEE 802.3 : Ethernet : les et d'une trame Ethernet contiennent le type (EtherType) de protocole de la couche supérieure (ARP, IPv4, IPv6…) ; comme il n'y a pas d'indication sur la longueur des données, il n'y a pas de couche LLC (Logical Link Control) pour supprimer un bourrage potentiel ⇒ ce sera donc à la couche supérieure (Réseau) de supprimer le bourrage s'il y en a ; 802.3 : les et d'une trame 802.3 contiennent la longueur de la partie des données qui sera gérée par la couche LLC qui, située entre la couche MAC et la couche réseau, supprimera le bourrage avant de l'envoyer à la couche réseau. Types de trames Ethernet et champ EtherType Il y a quatre types de trames Ethernet (en dehors de l'Ethernet Experimental de 1975) : Ethernet (trame DIX – Digital Intel Xerox ; très majoritairement utilisée, notamment pour IPv4 & IPv6) Novell « raw IEEE 802.3 » – hors standard IEEE 802.2 LLC IEEE 802.2 LLC/SNAP Ces différents types de trame ont des formats différents mais peuvent coexister et être distinguées entre elles sur un même médium physique par les membres du réseau. La différence de base entre les trames Ethernet II et les autres trames est l'utilisation du champ de 16 bits (soit ) situé après les adresses MAC: En Ethernet II il est utilisé comme champ d'identification « EtherType » pour indiquer le type de données transportées (le payload). En IEEE 802.3 il indique la taille des données transportées (le payload) – taille qui est toutefois limitée par la norme à . Par convention les valeurs de ce champ entre indiquent une taille de payload et donc permettent d'identifier une trame Ethernet 802.3 ; et les valeurs plus grandes indiquent un EtherType, et l'utilisation du format Ethernet II. Cette utilisation duale du même champ justifie son appellation courante de champ longueur/type. L'IEEE 802.3 ayant initialement défini ce champ de après les adresses MAC comme la longueur du payload, il est fait appel à un nouveau champ pour préciser le payload transportés et les niveaux et types de service utilisés (Service Access Point). Les trames 802.3 doivent ainsi avoir un champ LLC de défini par la norme IEEE 802.2. Le LLC étant trop petit par rapport aux besoins potentiels, un champ supplémentaire SNAP de a été défini ultérieurement, utilisable en option. En examinant le champ LLC, il est possible de déterminer s'il est suivi par un champ SNAP ou non. En outre, Novell a utilisé des trames 802.3 sans LLC (avant la normalisation IEEE 802.2) dans son système d'exploitation Netware pour y faire passer son protocole IPX. Netware ayant été très répandu (à une époque), ce non-standard en est devenu un de fait. Note: Les valeurs de champ longueur/type entre et sont indéfinies et ne devraient jamais être employées. Synthèse graphique d'une trame Ethernet Trame Ethernet Exemple de trame Ethernet II (Information extraite du document de G.Requilé du CNRS et adaptée): Le champ Type de protocole des trames Ethernet II peut prendre entre autres les valeurs suivantes : 0x0800 : IPv4 0x86DD : IPv6 0x0806 : ARP 0x8035 : RARP 0x809B : AppleTalk 0x88CD : SERCOS 0x0600 : XNS 0x8100 : VLAN Remarques comme expliqué ci-dessus, si le champ type de protocole (EtherType) possède une valeur hexadécimale inférieure à 0x05DC alors la trame est une trame Ethernet 802.3 et ce champ indique la longueur du champ données ; avant émission d'une trame un préambule de synchronisation suivi d'un délimiteur de trame sont envoyés, pour un total de , alternance de 1 et 0 avec les deux derniers bits à 1 (ce préambule/délimiteur ne fait pas partie de la trame) ; un silence correspondant à est observé après l'envoi d'une trame ; l'adresse MAC de (diffusion) Ethernet a tous ses bits à 1 ; taille minimale de trame: la taille minimale d'une trame Ethernet est de (DMAC+SMAC+EtherType+Payload+FCS) pour permettre le bon fonctionnement du CSMA/CD ; par conséquent la taille minimale du champ de données est de ( - Frame Format). si nécessaire, pour atteindre les de données, un bourrage est effectué, et celui-ci est transparent au niveau utilisateur. taille maximale des donnés: les trames normalisées contiennent en théorie au maximum , l'IEEE n'ayant pas normalisé de valeur supérieure. les équipements modernes savent désormais utiliser des trames géantes (Jumbo Frames) pouvant dépasser les de données, sous réserve de configuration locale spécifique. le champ longueur des trames 802.3 ne peut dépasser 1500 (sous peine d'être reconnues comme des trames Ethernet II), ce qui les empêche apparemment d'utiliser des jumbo frames. Une proposition pour résoudre ce conflit est d'utiliser un EtherType spécial 0x8870 quand une longueur supérieure à 1500 aurait dû être indiquée. Quoique théoriquement obsolète (du point de vue de l'IEEE), cette solution est implémentée par certains équipements. Évolutions protocolaires ultérieures La plupart des évolutions ultérieures sont rendues possibles par la mise en œuvre de l'Ethernet commuté. Auto-négociation Une station et un commutateur qui se connectent ensemble peuvent utiliser l'auto-négociation, c'est-à-dire qu'ils négocient automatiquement sans configuration préalable nécessaire, les éléments de la communication Ethernet et notamment, la vitesse, le duplex, et l'utilisation ou pas de contrôle de flux. Contrôle de flux En Ethernet commuté, toutes les stations du réseau peuvent communiquer en même temps (ou à des vitesses différentes, le média physique n'étant pas partagé), il est donc possible pour une station que son port soit saturé en réception par plusieurs communications entrantes. Le commutateur peut alors stocker temporairement et/ou détruire les trames qui ne peuvent être transmises, ou opter pour d'autres méthodes comme le backpressure ou les trames Pause. Backpressure Dans ce cas le commutateur génère un signal de collision factice vers la station émettrice (en fait il n'y a pas de collision puisqu'il s'agit d'Ethernet commuté, full-duplex, mais ce signal est toujours pris en compte), ce qui fait cesser temporairement son émission. Trames Pause: 802.3x & 802.1Qbb IEEE 802.3x définit un type de trame Pause qu'un équipement dont le lien sature en réception peut envoyer pour faire taire l'émetteur le temps que le lien ne soit plus saturé, fournissant ainsi un mécanisme normalisé de contrôle de flux. Toutefois cette norme ne permet pas d'être spécifique en fonction du trafic (aucune prise en compte de types ou classes de trafic), tout le trafic de la station est stoppé. Par conséquent des trames Pause prenant en compte les classes de services sont normalisées par la norme IEEE 802.1Qbb (contrôle de flux Ethernet prenant en compte les priorités 802.1p). Réseaux locaux virtuels (VLAN) et Classes de Service (CoS) VLAN (802.1Q) La norme IEEE 802.1Q permet de faire circuler des réseaux virtuels au sein du réseau Ethernet physiques, en distinguant les trames de chaque VLAN (Virtual LAN) par un identifiant sur 12 bits de 1 à 4095. Il contient aussi une valeur de classe de service (802.1p) sur 3 bits. Qualité de service (802.1p) La norme IEEE 802.1Q, en plus de définir des VLAN, inclut aussi une valeur de classe de service (802.1p) sur 3 bits qui permet de classifier et discriminer 8 classes de trafic (des Classes de Service – Class of Service ou CoS) pour traitement éventuel par un mécanisme de Qualité de Service / QoS (Quality of Service). Sécurité: 802.1X Il est désormais possible pour un commutateur de contrôler l'identité de la station et/ou de l'utilisateur avant de le laisser accéder au réseau (et le cas échéant de le placer dans un certain VLAN), grâce à la norme IEEE 802.1X. Power over Ethernet (PoE) Les normes IEEE 802.3af et IEEE 802.3at permettent à un commutateur d'alimenter électriquement un équipement raccordé en paire torsadée dans le cadre du concept de Power over Ethernet (PoE). Power over Data Lines (PoDL) Le PoDL (Power over Data Lines) a été introduit par l'amendement IEEE 802.3bu-2016 pour alimenter électriquement avec une paire unique pour des applications automobiles et industrielles. Sur les normes à deux ou quatre paires utilisant le PoE, l'alimentation est transmise uniquement entre les paires, de sorte qu'à l'intérieur de chaque paire, il n'y a aucune tension présente autre que celle représentant les données transmises. Avec l'Ethernet à une paire, la puissance est transmise en parallèle aux données. Prévus au départ pour la norme 100BASE-T1 et 1000BASE-T1, la PoDL a été ajoutée aux variantes à paire unique 10BASE-T1, 2,5GBASE-T1, 5GBASE-T1 et 10GBASE-T1. Variétés d'Ethernet La section ci-dessous donne un bref résumé de tous les types de média d'Ethernet. En plus de tous ces standards officiels, plusieurs fabricants ont implémenté des types de média propriétaires pour différentes raisons—quelquefois pour supporter de plus longues distances sur de la fibre optique. Quelques anciennes variétés obsolètes d'Ethernet Xerox Ethernet -- L'implémentation originale d'Ethernet, qui a eu deux versions, la version 1 et 2, durant son développement. 10BASE5 (aussi appelé ) -- Ce standard de l'IEEE publié très tôt utilise un câble coaxial de type RG-8 dit « épais », de d'impédance, dans lequel on insère une connexion en perçant le câble pour se connecter au centre et à la masse (prises vampires). La liaison entre la carte réseau de l'ordinateur et le bus se faisait via un adaptateur externe: l'Attachment unit interface (AUI). Requiert un adaptateur d'impédance (souvent surnommé « bouchon ») à chaque extrémité du bus pour empêcher la reflexion du signal. 10BROAD36 -- Un vieux standard supportant l'Ethernet sur de longues distances. Il utilisait des techniques de modulation en large bande similaires à celles employées par les modems câble, opérées sur un câble coaxial. 1BASE5 -- Une tentative de standardisation de solution pour réseaux locaux à bas prix. Il opère à mais a été un échec commercial. 10BASE2 (aussi appelé ou ) -- un câble coaxial de type RG-58A/U dit « mince » de d'impédance connecte les machines ensemble, chaque machine utilisant un adaptateur en T pour se brancher à sa carte réseau. Requiert un adaptateur d'impédance (souvent surnommé « bouchon ») à chaque extrémité du bus pour empêcher la reflexion du signal. Pendant plusieurs années, ce fut le standard Ethernet dominant. Ethernet 10BASE-T -- Fonctionne avec minimum 4 fils (deux paires torsadées, conventionnellement les 1, 2 et 3, 6) sur un câble CAT-3 ou CAT-5 avec connecteur RJ45. Un concentrateur (ou ) ou un commutateur (ou ) est au centre du réseau, ayant un port pour chaque nœud. C'est aussi la configuration utilisée pour le 100BASE-T et le Gigabit Ethernet (câble CAT-6). Bien que la présence d'un nœud central (le ) donne une impression visuelle de topologie physique en étoile, il s'agit pourtant bien d'une topologie logique en bus - tous les signaux émis sont reçus par l'ensemble des machines connectées. La topologie logique en étoile n'apparaît que si on utilise un commutateur (). FOIRL -- (lien inter-répéteur sur fibre optique). Le standard original pour l'Ethernet sur la fibre optique. 10BASE-F -- Terme générique pour la nouvelle famille d'Ethernet : 10BASE-FL, 10BASE-FB et 10BASE-FP. De ceux-ci, seulement 10BASE-FL est beaucoup utilisé. 10BASE-FL -- Une mise à jour du standard FOIRL. 10BASE-FB -- Prévu pour inter-connecter des concentrateurs ou commutateurs au cœur du réseau, mais maintenant obsolète. 10BASE-FP -- Un réseau en étoile qui ne nécessitait aucun répéteur, mais qui n'a jamais été réalisé. Fast Ethernet () 100BASE-T -- Un terme pour n'importe lequel des standards sur paire torsadée. Inclut 100BASE-TX, 100BASE-T4 et 100BASE-T2. 100BASE-TX -- Utilise deux paires et requiert du câble CAT-5. Topologie logique en bus en utilisant un concentrateur (hub) ou en étoile avec un commutateur (switch), comme pour le 10BASE-T, avec lequel il est compatible. 100BASE-T4 -- Permet le 100 Mbit/s (en semi-duplex seulement) sur du câble CAT-3 (qui était utilisé dans les installations 10BASE-T). Utilise les quatre paires du câble. Maintenant désuet, comme le CAT-5 est la norme actuelle. 100BASE-T2 -- Aucun produit n'existe. Supporte le mode et utilise seulement deux paires, avec des câbles CAT-3. Il est équivalent au 100BASE-TX sur le plan des fonctionnalités, mais supporte les vieux câbles. 100BASE-FX -- Ethernet sur fibre optique. Gigabit Ethernet () 1000BASE-T -- sur câble de paires torsadées de catégorie 5 (classe D) ou supérieure (selon NF EN 50173-2002), sur une longueur maximale de . Utilise les 4 paires en , chaque paire transmettant 2 bits par top d'horloge, à l'aide d'un code à 5 moments. Soit un total de sur l'ensemble des 4 paires, dans chaque sens. Compatible avec 100BASE-TX et 10BASE-T, avec détection automatique des Tx et Rx assurée. La topologie est ici toujours en étoile car il n'existe pas de concentrateurs (hubs) . On utilise donc obligatoirement des commutateurs (). Spécifié par le standard IEEE 802.3ab. 1000BASE-X -- qui utilise des interfaces modulaires (des transceivers en anglais, appelés GBIC ou SFP selon leur technologie) adaptées au média (Fibre Optique Multi, Mono-mode, cuivre). Spécifié par le standard IEEE 802.3z. 1000BASE-SX -- sur fibre optique multimodes à . 1000BASE-LX -- sur fibre optique monomodes et multimodes à . 1000BASE-LH -- sur fibre optique, sur longues distances. 1000BASE-ZX -- sur fibre optique monomodes longues distances. 1000BASE-CX -- Une solution pour de courtes distances (jusqu'à ) pour le sur du câble de cuivre spécial. (cf. cercle CREDO) 10 Gigabit Ethernet Le standard Ethernet par seconde recouvre sept types de média différents pour les réseaux locaux, réseaux métropolitains et réseaux étendus. Il a été spécifié par le standard IEEE 802.3ae dont la première publication date de 2002, puis a été incorporé dans une révision de l'IEEE 802.3. La version Ethernet est plus rapide que Gigabit Ethernet mais seulement jusqu'au niveau de la couche MAC. 10GBASE-CX4 (cuivre, câble , 802.3ak) -- utilise un câble en cuivre de type infiniBand 4× sur une longueur maximale de . 10GBASE-T -- transmission sur câble catégorie 6, ou 7 (802.3an), en full duplex sur avec un nombre de moments de codage qui sera fonction de la catégorie retenue pour le câble (et de l'immunité au bruit souhaitée), sur une longueur maximale de . Devrait être compatible avec 1000BASE-T, 100BASE-TX et 10BASE-T 10GBASE-SR ( MM, , ) -- créé pour supporter de courtes distances sur de la fibre optique multimode, il a une portée de , en fonction du type de câble. Il supporte aussi les distances jusqu'à sur la nouvelle fibre multimode . 10GBASE-LX4 -- utilise le multiplexage par division de longueur d'onde pour supporter des distances entre 240 et sur fibre multimode. 10GBASE-LR ( SM, , ) et 10GBASE-ER ( SM, , ) -- Ces standards supportent jusqu'à respectivement, sur fibre monomode. 10GBASE-SW ( MM, , SONET), 10GBASE-LW ( SM, , SONET) et 10GBASE-EW ( SM, , SONET). Ces variétés utilisent le WAN PHY, étant conçu pour inter-opérer avec les équipements OC-192 / STM-64 SONET/SDH. Elles correspondent aux niveaux physiques 10GBASE-SR, 10GBASE-LR et 10GBASE-ER respectivement, et utilisent le même type de fibre, en plus de supporter les mêmes distances (il n'y a aucun standard WAN PHY correspondant au 10GBASE-LX4.) 25 Gigabit et 50 Gigabit Ethernet Le 25 Gigabit Ethernet et 50 Gigabit Ethernet sont des standards de connectivité Ethernet utilisés dans un contexte de datacenter, développés par l'IEEE 802.3 sous les normes 802.3by et 802.3cd, et sont proposés par plusieurs constructeurs. Ils ont été validés en 2016. Ethernet par seconde et par seconde Ces deux familles de standards (40GBASE et 100GBASE) ont été initialement définies en 2010 sous la norme IEEE 802.3ba. Ethernet par seconde et par seconde Ces deux familles de standards (200GBASE et 400GBASE) ont été définies en décembre 2017 sous la norme IEEE 802.3bs. Mode LAN et mode WAN () Ethernet et ultérieurs prennent seulement en charge le mode . Sur les médias fibre, le mode LAN fonctionne à un débit ligne, au niveau de la fibre, de ce qui représente le débit MAC de pondéré par 66/64 rapport lié au codage de la couche PCS utilisant un code de ligne 64B66B. Le sur-débit de ce code est de 3 %, à comparer aux 25 % du code 8B10B du mode Gigabit Ethernet. Il existe un mode WAN PHY permettant de transporter les trames Ethernet sur des liens SDH ou SONET encore en place dans beaucoup de réseaux. Le mode WAN PHY opère à un débit légèrement inférieur à 10Gbe, à savoir (ce qui correspond au débit STM64/OC192). Le conteneur virtuel 64c ou 192c véhicule des codes 64B66B. Les modules optiques : couche PMD (PHY) Divers fabricants (Fiberxon, Sumitomo, Finisar, etc) proposent des modules optiques (ou cuivre, selon la technologie employée) appelés transceivers en anglais, permettant une interopérabilité. Ces modules permettent de convertir le signal optique (côté ligne) en un signal électrique différentiel (côté matériel) au débit de ; c'est donc l'équivalent de la couche PHY au niveau PMD du modèle OSI. Il existe plusieurs normes pour ces transceivers, par exemple (en 10 Gb/s) : XENPAK, XPAK, X2, XFP (normalisés selon le XFP MSA Group), SFP+ (normalisés selon le Small Form Factor Committee). Les serdes : couche PMA (PHY) Ce signal de , trop rapide à l'époque de sa standardisation, ne pouvait pas être traité directement, il a donc fallu le paralléliser, en général sur . Des circuits dédiés spécialisés permettent cette conversion. Le terme serdes vient de l'anglais pour serialiser/deserialiser. Le codage 64B66B : couche PCS (PHY) Le code en ligne utilisé 64B66B transforme le format XGMII ( de données plus de contrôle) en mots de . L'objectif est multiple : apporter une dispersion d'énergie et éviter de longues suites consécutives de '0' ou '1' que les modules optiques peuvent ne pas trop apprécier. ceci apporte donc des transitions afin de faciliter les mécanismes de récupération d'horloge. Le code est composé de deux bits de synchronisation suivis de de donnée. Si la synchro est '01', les sont de type donnée Si la synchro est '10', les contiennent au moins un octet de contrôle Les préambules '00' et '11' ne sont pas utilisés. Les de données sont embrouillés par un embrouilleur auto synchronisé. À ce niveau-là nous retrouvons un format équivalent MII, les couches suivantes : (MAC), (IP), (TCP/UDP) fonctionnant de façon similaire à gigabit Ethernet. Notes et références Voir aussi Articles connexes Power over Ethernet (PoE) pour l'alimentation électrique des périphériques à travers le câble Ethernet Paire torsadée Avionics Full DupleX () réseau Ethernet redondant et fiabilisé Synchronous Ethernet Agrégation de liens Teaming CPL pour Courant Porteur en Ligne Auto-négociation (ethernet) EtherNet/IP Ethernet dans le domaine des Télécommunications : organisation professionnelle active à l'échelle mondiale dont le but est d'accélérer le développement des services et des réseaux Ethernet de classe opérateur. ou PBB : protocole de communication qui repose sur des extensions au protocole Ethernet, utilisé principalement dans le segment accès et métropolitain des réseaux d'opérateurs, spécification IEEE 802.1ah : évolution du protocole précédent (PBB) permettant l'ingénierie de trafic, également connu sous le nom de PBT, spécification IEEE 802.1Qay Liens externes IEEE 802.3 Ethernet Working Group Use of the IEEE Assigned EtherType Field with IEEE Std 802.3, sur le site standards.ieee.org 10 Gigabit Ethernet Site web du - inaccessible le 23 septembre 2012 Frameip : Entête Ethernet par Sébastien FONTAINE (_SebF) Protocole de télécommunication Connectique Protocole réseau sur la couche liaison
1041
https://fr.wikipedia.org/wiki/GNU%20Emacs
GNU Emacs
GNU Emacs est l’une des deux versions les plus populaires de l’éditeur de texte Emacs (l’autre version est XEmacs). Ces deux versions sont majoritairement compatibles et ont de très nombreux points communs, décrits dans l’article Emacs. Dans le manuel, on peut lire qu'il est l’. GNU Emacs, développé par Richard Stallman depuis 1984 dans le cadre du projet GNU, s’appuie sur le langage Emacs Lisp. Développement Histoire GNU Emacs fait partie du projet GNU. En 1984, Stallman commence le projet sur les systèmes Unix. Il veut une alternative libre à Emacs. En 1991, à la suite de divergences d'opinion sur le développement, un fork dénommé Epoch produisit le logiciel Lucid Emacs, qui sera ultérieurement renommé XEmacs. À sa sortie, ce logiciel se distingue par une interface graphique et des fonctionnalités étendues. Le projet GNU continue à développer GNU Emacs. La plupart des fonctionnalités mises en avant dans XEmacs se retrouvent désormais dans GNU Emacs. Les deux projets se synchronisent régulièrement entre eux. Après un long temps de développement, la première version d'Emacs de la branche 22, la version 22.1, est diffusée le . Le développement de cette version a été assuré par Richard Stallman. Cette version apporte un nombre important de fonctionnalités ainsi qu'une refonte de l'interface graphique, reposant maintenant sur la bibliothèque GTK+. Le , Richard Stallman annonce sa volonté de se retirer de la maintenance d'Emacs. Il laisse la place à Stefan Monnier et Chong Yidong. Son développement reste actif. La plupart de ses développeurs sont affiliés à la Free Software Foundation (FSF). Droits sur le code Jusqu’en 1999, le développement de GNU Emacs est relativement hermétique, au point qu’il servait d’exemple pour le style « Cathédrale » dans l’ouvrage La Cathédrale et le Bazar. Depuis, le projet a adopté une liste de diffusion publique sur le développement, et ouvert un accès anonyme à CVS. Comme pour tous les projets GNU, il subsiste une règle particulière pour l’acceptation d’une partie de code significative : le détenteur des droits sur le code proposé doit les céder à la FSF. Il existe toutefois une exception notable : le code de MULE (pour "MULtilingual Extension", « extension multilingue »), car il appartient au gouvernement japonais et la cession du copyright n’était pas possible. Cette règle ne s’applique pas aux contributions mineures ou aux corrections de bugs. Il n’existe aucune définition rigoureuse de ce qu’est une contribution mineure, mais il est habituel de considérer une contribution de moins de 15 lignes comme mineure. Cette règle est prévue pour faciliter le respect du copyleft, afin que la FSF puisse défendre le logiciel devant un tribunal le cas échéant. Une telle obligation est connue pour avoir des effets négatifs sur les contributions. Certains affirment qu’elle affecte même les performances ; par exemple, l’incapacité de GNU Emacs à prendre en charge des fichiers volumineux de façon efficace serait à mettre sur le compte de cette obligation, qui découragerait les développeurs les plus sérieux. Mais d’après Richard Stallman, il est plus important que GNU Emacs soit libre que performant. Le respect scrupuleux de cette règle permet d’asseoir la confiance juridique que l’on peut accorder à la licence libre de GNU Emacs (la GPL), et au logiciel libre lui-même, qui constitue le travail intellectuel de nombreux détenteurs de droits potentiels et contributeurs. Historique des versions Historique des versions de GNU Emacs. Distribution GNU Emacs est un logiciel libre distribué selon les termes de la licence publique générale GNU. Le code source ainsi que les fichiers binaires sont disponibles sur le serveur FTP du projet GNU (cf. infra) et sur la plate-forme collaborative GNU Savannah. Les développeurs peuvent récupérer les sources en utilisant GNU Bazaar, le système décentralisé de contrôle des versions du projet GNU Emacs. GNU Emacs est par ailleurs intégré dans tous les systèmes libres, notamment GNU/Linux, FreeBSD. Il fonctionne également sur de nombreux systèmes propriétaires dans le but de convaincre leurs utilisateurs de migrer vers des solutions libres. GNU ELPA Emacs s’est défini dès l’origine comme un éditeur extensible. Si les modules d’extension les plus populaires se retrouvent souvent intégrés, la plupart sont disponibles sur Internet. Tous les paquets tiers sont désormais accessibles depuis Emacs via un dépôt de code source exclusivement destiné aux extensions Emacs Lisp. Baptisé GNU ELPA (de l’anglais « GNU Emacs Lisp Package Archive »), le projet est en production depuis 2010. Son nom vient d’une plateforme similaire initiée par le dénommé Tom Tromey et du gestionnaire de paquets « package.el » d’un certain Phil Hagelberg. Utiliser GNU Emacs Commandes Dans son mode d'édition normal, GNU Emacs se comporte comme les autres éditeurs de texte et permet à l'utilisateur d'insérer des caractères avec les touches correspondantes et de déplacer le point d'édition avec les touches fléchées. Échapper aux séquences de touches ou appuyer sur la touche Ctrl et / ou la touche méta, la touche Alt ou les touches Super en conjonction avec une touche normale produit des séquences de touches modifiées qui invoquent des fonctions de l'environnement Lisp d'Emacs. Des commandes telles que save-buffer et save-buffers-kill-emacs combinent plusieurs frappes modifiées. Certaines commandes GNU Emacs fonctionnent en invoquant un programme externe, tel qu'ispell pour la vérification orthographique ou GNU Compiler Collection (gcc) pour la compilation de programmes, l'analyse des résultats du programme et l'affichage du résultat dans GNU Emacs. Emacs prend également en charge les "processus inférieurs" - des processus de longue durée qui interagissent avec un tampon Emacs. Ceci est utilisé pour implémenter le mode shell, exécuter un shell Unix en tant que processus inférieur, ainsi que les modes lecture-évaluation-boucle d'impression (REPL) pour différents langages de programmation. La prise en charge des processus externes par Emacs en fait un environnement attractif pour la programmation interactive sur les lignes d'Interlisp ou de Smalltalk. Les utilisateurs qui préfèrent les clés de type IBM Common User Access peuvent utiliser cua-mode, un package qui était à l'origine un module complémentaire tiers, mais qui a été inclus dans GNU Emacs depuis la version 22. Minibuffer Emacs utilise le "mini-tampon", normalement la ligne la plus basse, pour présenter le statut et demander des informations - les fonctions qui seraient généralement effectuées par des boîtes de dialogue dans la plupart des interfaces graphiques. Le mini-tampon contient des informations telles que le texte à cibler dans une recherche ou le nom d’un fichier à lire ou à enregistrer. Le cas échéant, l'achèvement de la ligne de commande est disponible à l'aide des touches de tabulation et d'espace. Gestion de fichiers et affichage Emacs conserve le texte dans les structures de données appelées tampons. Les tampons peuvent ou non être affichés à l'écran, et toutes les fonctionnalités de tampon sont accessibles à la fois à un programme Emacs Lisp et à l'interface utilisateur. L'utilisateur peut créer de nouveaux tampons et rejeter ceux qui ne le sont pas, et de nombreux tampons peuvent exister en même temps. Il n'y a pas de limite supérieure au nombre de tampons qu'Emacs permet, autres que les limites de mémoire matérielle. Les utilisateurs avancés peuvent amasser des centaines de tampons ouverts de différents types liés à leur travail actuel. Emacs peut être configuré pour enregistrer la liste des tampons ouverts à la sortie et rouvrir cette liste au redémarrage. Certains tampons contiennent du texte chargé à partir de fichiers texte, que l'utilisateur peut modifier et enregistrer dans un stockage permanent. On dit que ces tampons sont des fichiers "visitants". Les tampons servent également à afficher d'autres données, telles que la sortie des commandes Emacs, les listes de répertoires dired, les chaînes de documentation affichées par la bibliothèque "help" et les messages de notification qui dans d'autres éditeurs seraient affichés dans une boîte de dialogue. Certaines de ces notifications sont affichées brièvement dans le mini-tampon et GNU Emacs fournit un tampon * Messages * qui conserve l'historique des notifications les plus récentes de ce type. Lorsque le mini-tampon est utilisé pour la sortie d'Emacs, il est appelé "zone d'écho". Les notifications plus longues sont affichées dans des tampons propres. La longueur maximale des messages qui seront affichés dans le mini-tampon est, bien sûr, configurable. Les tampons peuvent également servir de zones d'entrée et de sortie pour un processus externe tel qu'un shell ou une REPL. Les tampons créés par Emacs sont généralement nommés avec des astérisques à chaque extrémité, à distinguer des tampons utilisateur. La liste des tampons ouverts est elle-même affichée dans ce type de tampon. La plupart des séquences de touches d'Emacs restent fonctionnelles dans n'importe quel tampon. Par exemple, la fonction isearch standard de Ctrl-s peut être utilisée pour rechercher des noms de fichiers dans des tampons dired, et la liste de fichiers peut être enregistrée dans un fichier texte comme n'importe quel autre tampon. les tampons dired peuvent être basculés sur un mode inscriptible, dans lequel les noms de fichiers et les attributs peuvent être édités textuellement; Lorsque le tampon est enregistré, les modifications sont écrites sur le système de fichiers. Cela permet de renommer plusieurs fichiers en utilisant les fonctionnalités de recherche et de remplacement d'Emacs. Lorsque équipé, Emacs affiche les fichiers image dans des tampons. Emacs est binaire sécurisé et 8 bits propre. Emacs peut diviser la zone d'édition en sections distinctes appelées "windows", une fonctionnalité disponible depuis 1975, antérieure à l'interface utilisateur graphique couramment utilisée. Dans la terminologie d'Emacs, «Windows» est similaire à ce que les autres systèmes appellent « frames » ou « volets » - une partie rectangulaire de l'affichage du programme qui peut être mise à jour et interagir indépendamment. Chaque fenêtre d'Emacs a une barre d'état appelée "ligne de mode" affichée par défaut au bas de la fenêtre. Les fenêtres Emacs sont disponibles dans les modes texte-terminal et graphique et permettent l'affichage simultané de plusieurs tampons ou de plusieurs parties d'un tampon. Les applications courantes consistent à afficher un tampon dired avec le contenu des fichiers dans le répertoire en cours (il existe des modes spéciaux pour que le tampon de fichiers suive le fichier mis en évidence), pour afficher le code source d'un programme un tampon de shell avec les résultats de la compilation du programme, pour exécuter un débogueur avec un tampon shell exécutant le programme, pour travailler sur du code tout en affichant une page de manuel ou une autre documentation (éventuellement chargée sur le World Wide Web -dans les navigateurs Web) ou simplement pour afficher plusieurs fichiers à modifier en même temps, comme un en-tête et son fichier d'implémentation pour les langages basés sur C. De plus, il existe un mode suivi, un mode mineur qui enchaîne les fenêtres pour afficher des parties non chevauchantes d'un tampon. En utilisant le mode suivi, un seul fichier peut être affiché dans plusieurs fenêtres côte à côte qui se mettent à jour de manière appropriée lors du défilement. Les fenêtres Emacs sont en mosaïque et ne peuvent pas apparaître "en haut" ou "en dessous" de leurs compagnons. Emacs peut lancer plusieurs "frames", qui sont affichés sous forme de fenêtres individuelles dans un environnement graphique. Sur un terminal texte, plusieurs images sont affichées empilées pour remplir le terminal entier et peuvent être commutées à l'aide des commandes standard d'Emacs. Modes principaux GNU Emacs peut afficher ou éditer différents types de texte et adapter son comportement en entrant des modes complémentaires appelés "modes majeurs". Il existe des modes principaux pour différentes raisons, notamment l'édition de fichiers texte ordinaires, le code source de nombreux langages de balisage et de programmation, ainsi que l'affichage de pages Web, de listes de répertoires et d'autres informations système. Chaque mode majeur implique un programme Emacs Lisp qui étend l'éditeur pour qu'il se comporte plus facilement pour le type de texte spécifié. Les modes principaux fournissent généralement tout ou partie des fonctionnalités communes suivantes: Mise en évidence de la syntaxe ("font lock"): combinaisons de polices et de couleurs, appelées "faces", qui différencient les éléments de document tels que les mots - clés et les commentaires. Indentation automatique pour maintenir un formatage cohérent dans un fichier. L'insertion automatique des éléments requis par la structure du document, tels que les espaces, les nouvelles lignes et les parenthèses. Commandes d'édition spéciales, telles que les commandes permettant de passer au début ou à la fin d'une fonction lors de l'édition d'un fichier de programmation ou de commandes permettant de valider des documents ou d'insérer des balises de fermeture tout en travaillant avec des langages tels que XML. Modes mineurs L'utilisation de "modes mineurs" permet une personnalisation supplémentaire. Un tampon d'édition GNU Emacs ne peut utiliser qu'un seul mode majeur à la fois, mais plusieurs modes mineurs peuvent fonctionner simultanément. Celles-ci peuvent fonctionner directement sur les documents, comme dans le cas où le mode majeur du langage de programmation C définit un mode mineur distinct pour chacun de ses styles de retrait populaires, ou peuvent modifier l'environnement d'édition. Des exemples de ces derniers incluent un mode qui ajoute la possibilité d'annuler les modifications de la configuration de la fenêtre et un autre qui effectue une vérification de la syntaxe à la volée. Il existe également un mode mineur qui permet d'utiliser plusieurs modes principaux dans un seul fichier, par souci de commodité lors de l'édition d'un document dans lequel plusieurs langages de programmation sont intégrés. "Mode batch" GNU Emacs prend en charge la possibilité de l'utiliser comme interpréteur pour le langage Lisp Emacs sans afficher l'interface utilisateur de l'éditeur de texte. En mode batch, la configuration de l'utilisateur n'est pas chargée et les caractères d'interruption du terminal Cc et Cz auront pour effet habituel de quitter le programme ou d'interrompre l'exécution au lieu d'appeler les raccourcis clavier d'Emacs. GNU Emacs a des options en ligne de commande pour spécifier soit un fichier à charger et à exécuter, soit une fonction Lisp d'Emacs peut être transmise depuis la ligne de commande. Emacs démarre, exécute le fichier ou la fonction transmis, imprime les résultats, puis quitte. La ligne de shebang #!/usr/bin/emacs --script permet la création de scripts autonomes dans Emacs Lisp. Le mode Batch n'est pas un mode Emacs en soi, mais décrit un autre mode d'exécution pour le programme Emacs. Manuels En dehors de la documentation intégrée, GNU Emacs possède un manuel particulièrement long et détaillé. Une copie électronique du manuel GNU Emacs, écrite par Richard Stallman, est fournie avec GNU Emacs et peut être visualisée avec le navigateur intégré. Deux manuels supplémentaires, le Manuel de référence Emacs Lisp de Bil Lewis, Richard Stallman et Dan Laliberte, ainsi qu'une Introduction à la programmation dans Emacs Lisp de Robert Chassell sont inclus. Les trois manuels sont également publiés sous forme de livre par la Free Software Foundation. Le manuel de XEmacs est similaire au manuel GNU Emacs, à partir duquel il a généré en même temps que le logiciel XEmacs issu de GNU Emacs. Internationalisation GNU Emacs prend en charge de nombreux alphabets, scripts, systèmes d'écriture et conventions culturelles et fournit une vérification orthographique pour de nombreuses langues en appelant des programmes externes tels qu'ispell. La version 24 a ajouté la prise en charge du texte bidirectionnel et de la direction d'écriture de gauche à droite et de droite à gauche pour des langues telles que l'arabe, le persan et l'hébreu. De nombreux systèmes de codage de caractères, y compris UTF-8, sont pris en charge. GNU Emacs utilise UTF-8 pour son encodage à partir de GNU 23, tandis que les versions antérieures utilisaient leur propre encodage en interne et effectuaient des conversions lors du chargement et de l'enregistrement. L'encodage interne utilisé par XEmacs est similaire à celui de GNU Emacs mais diffère dans les détails. L'interface utilisateur de GNU Emacs est née en anglais et, à l'exception du tutoriel pour débutants, elle n'a pas été traduite dans une autre langue. Un sous-système appelé Emacspeak permet aux utilisateurs malvoyants et aveugles de contrôler l'éditeur via un retour audio. Extensibilité Le comportement de GNU Emacs peut être modifié et étendu de manière presque illimitée en incorporant des programmes Lisp Emacs qui définissent de nouvelles commandes, de nouveaux modes de tampon, de nouvelles keymaps, des options de ligne de commande, [30], etc. De nombreuses extensions fournissant des fonctionnalités orientées utilisateur définissent un mode majeur (soit pour un nouveau type de fichier, soit pour créer une interface utilisateur sans modification de texte) ; d'autres ne définissent que des commandes ou des modes mineurs, ou fournissent des fonctions qui améliorent une autre extension. De nombreuses extensions sont livrées avec l'installation GNU Emacs ; d'autres étaient téléchargées en tant que fichiers en vrac (le groupe de discussion Usenet gnu.emacs.sources était une source traditionnelle) mais il y a eu un développement de paquets gérés et de sites de téléchargement de paquets depuis la version 24, avec un gestionnaire de paquets intégré pour les télécharger, les installer et les mettre à jour. Quelques exemples incluent: AUCTeX, des outils pour éditer et traiter les documents TeX et LaTeX Calc, une calculatrice numérique RPN puissante Mode calendrier, pour conserver les agendas et les calendriers de rendez-vous dired, un gestionnaire de fichiers Presse dissociée, un générateur de texte de type Racter Docteur, une simulation de psychanalyse inspirée par ELIZA Dunnet, une aventure de texte Ediff et Emerge, pour comparer et combiner des fichiers de manière interactive. Emacs / W3, un navigateur Web textuel écrit en Emacs Lisp, principalement par William M. Perry. Emacs / W3 fait partie du package Sumo pour XEmacs, et le sous-module pour récupérer une URL fait actuellement partie du référentiel CVS de GNU Emacs. Dave Raggett était supporté par Emacs / W3 et par tkWWW en travaillant sur un successeur de HTML 2 appelé HTML +. Emacs Speaks Statistics (ESS) pour l'édition de langages statistiques tels que R et SAS Emacs Web Wowser (EWW), un navigateur Web intégré ERC et Rirc et Circe, clients IRC Eshell, un shell de ligne de commande écrit en Emacs Lisp. Cela permet une intégration plus étroite avec l'environnement Emacs que les shells standard tels que bash ou PowerShell, qui sont également disponibles dans Emacs. Par exemple, dans Eshell, les fonctions Elisp sont disponibles en tant que commandes shell et les sorties des commandes Unix peuvent être redirigées vers un tampon Emacs. Exwm, un gestionnaire de fenêtres X permettant aux applications X11 d'être exécutées dans une fenêtre Emacs. Gnus, un client de nouvelles complet (lecteur de nouvelles) et client de messagerie électronique et première preuve de la loi de Zawinski Magit, pour travailler avec le système de contrôle de version Git Mediawiki-mode pour éditer des pages sur des projets MediaWiki L’amélioration multilingue de Emacs (MULE) permet d’éditer du texte en plusieurs langues d’une manière quelque peu analogue à Unicode. Mode organisationnel pour conserver des notes, gérer différents types de listes, planifier et mesurer des projets et composer des documents dans de nombreux formats (tels que les formats PDF, HTML ou OpenDocument). Il existe des générateurs de sites statiques utilisant le mode org, ainsi qu'une extension, Babel, lui permettant d'être utilisé pour la programmation littéraire. Planificateur, gestionnaire d'informations personnelles Simple Emacs Spreadsheet (SES), un mode standard fournissant une feuille de calcul Mode d'interaction SQL, un mode pour interagir avec diverses versions de serveurs de base de données SQL. Le mode d'interaction Lisp supérieur pour Emacs (SLIME) étend GNU Emacs dans un environnement de développement pour Common Lisp. Avec SLIME (écrit en Emacs Lisp), l'éditeur GNU Emacs communique avec un système Common Lisp (utilisant le backend SWANK) sur un protocole de communication spécial et fournit des outils tels qu'une boucle read-eval – print, un inspecteur de données et un débogueur. Texinfo (Info), un navigateur d'aide en ligne View Mail (VM), un autre client de messagerie complet Viper, une couche d'émulation vi; [38] aussi, Evil, une couche d'émulation de Vim [39] W3M, un autre navigateur Web, basé sur et utilisant le navigateur autonome w3m. Wanderlust, un client de messagerie et d'informations polyvalent Zone, un mode d'affichage comportant divers effets de texte. Plateformes GNU Emacs est devenu l'un des programmes informatiques non triviaux les plus courants et fonctionne sur une grande variété de systèmes d'exploitation, y compris DOS, Windows et OpenVMS. Il est disponible pour la plupart des systèmes d'exploitation de type Unix, tels que Linux, les différents BSD, Solaris, AIX, HP-UX et macOS, et est souvent inclus dans les paquets d'installation du système. Les ports natifs de GNU Emacs existent pour Android et Maemo de Nokia. GNU Emacs s'exécute à la fois sur les terminaux en mode texte et dans les environnements graphiques. Sur les systèmes d'exploitation de type Unix, GNU Emacs peut utiliser le système X Window pour produire son interface graphique, soit directement à l'aide des widgets Athena, soit en utilisant un "toolkit widget" tel que Motif ou GTK+. GNU Emacs peut également utiliser les systèmes graphiques natifs de macOS et Windows pour fournir des barres de menus, des barres d'outils, des barres de défilement et des menus contextuels plus conformes à l'apparence de chaque plate-forme. Bibliographie Stallman, Richard M. (2007). GNU Emacs Manual. edition Boston, Massachusetts: Free Software Foundation. . Cameron, Debra; Elliott, James; Loy, Marc. (December 2004). Learning GNU Emacs, edition. O'Reilly & Associates. . Glickstein, Bob. (April 1997). Writing GNU Emacs Extensions. O'Reilly & Associates. . Notes et références Références Notes Annexes Articles connexes Liens externes GNU Emacs Manual. ed. (Mise à jour pour Emacs 23.3). GNU Press, 2011 – version en ligne (HTML), publiée sous la GFDL GNU Emacs Manual version 23.3, 2011 version PDF GNU Emacs FAQ Emacs Éditeur de texte Logiciel pour Unix Logiciel pour Windows Logiciel pour DOS Emacs Produit lancé en 1976
1045
https://fr.wikipedia.org/wiki/Eicosane
Eicosane
L'eicosane est un alcane linéaire de formule brute . Il possède 366319 isomères structuraux. Notes et références Alcane linéaire
1047
https://fr.wikipedia.org/wiki/Estonie
Estonie
L'Estonie, en forme longue la république d'Estonie ( et ), est un pays d'Europe du Nord situé sur les bords de la mer baltique. Elle partage ses frontières terrestres avec la Russie à l'est et avec la Lettonie au sud. La mer Baltique s'ouvre à l'ouest, séparant l'Estonie de la Suède, tandis que le golfe de Finlande, où se trouve la capitale, Tallinn, constitue une délimitation naturelle avec la Finlande au nord. L'Estonie possède des racines linguistiques et génétiques finno-ougriennes qui l’apparentent à la Finlande, souvent considérée comme le pays frère de l'Estonie. On y retrouve notamment le sauna, une mythologie riche ainsi qu'une culture du silence et un attachement particulier des Estoniens pour la nature. Ces caractéristiques, ajoutées à la forte influence des cultures germaniques et scandinaves, font de l'Estonie un pays nordique. Cependant, la situation géographique de l'Estonie et son histoire récente similaire à ses voisins méridionaux (la Lettonie et la Lituanie) conduisent souvent de nombreux observateurs à percevoir l'Estonie en tant que partie de l'ensemble géopolitique nommé pays baltes. Initialement peuplée de populations indigènes fenniques pendant plusieurs milliers d'années, l'Estonie a été conquise, colonisée puis convertie au christianisme par des chevaliers allemands au . Pendant près de 700 ans, et à la manière de la Finlande (dominée alors par la Suède), le peuple estonien autochtone vit sous le contrôle et l'influence permanente de populations germaniques (noblesse venue du Nord de l'Allemagne et des pays scandinaves), qui affectent durablement leur culture et leur mode de vie. En parallèle, la lutte permanente des puissances voisines (Suède, Danemark, Empire russe...) pour le contrôle de cet emplacement stratégique tout au long de l'histoire déclenche en réponse une volonté d'émancipation de la part des estoniens à partir du . Ces derniers, bien que majoritaires, sont dominés socialement et réduit au servage (voire à l'esclavage) pendant près de 700 ans. Ils réussissent néanmoins à tirer profit des luttes d'influences entre leurs anciens maitres allemands et la Russie impériale qui administre le territoire à cette époque, pour s'affirmer culturellement (le réveil national), puis politiquement tout au long du . Les Estoniens se servent des troubles engendrés par la révolution russe de 1917 et de la fin de la Première guerre mondiale pour revendiquer leur indépendance à partir de 1918, qu'il finissent par obtenir en 1920 suite à leur victoire sur la Russie bolchévique lors de la guerre d'indépendance. De 1920 à 1940, la jeune république d'Estonie, tout comme la Finlande voisine, édicte pour la première fois ses propres règles en tant qu'état souverain et tente de se faire une place dans le concert des nations européennes modernes. En 1940, en pleine Seconde guerre mondiale, l'Estonie, ainsi que ses voisins baltes, sont militairement envahis par l'Union soviétique dans l'indifférence générale et conformément au pacte germano-soviétique d'août 1939. Le pacte est finalement violé par l'Allemagne nazie qui envahi le territoire en 1941. A partir de 1944 et après la défaite allemande, la Russie soviétique reprend le contrôle de l'Estonie et y impose un régime communiste. Ces occupations successives contraignent le gouvernement et une grande partie de la population à l'exil pour échapper aux crimes et déportations de masse, particulièrement les minorités ainsi que l’élite intellectuelle du pays. De 1945 à 1990, le territoire de l'Estonie est administré de force par l'URSS par le biais d’une république socialiste créée de toute pièces pour laisser penser à une adhésion de la population. Non-reconnue par les pays du Bloc de l'Ouest qui continuent de soutenir le gouvernement de la République en exil, notamment pendant la guerre froide, l’Estonie soviétique, à cette période constitue le seul « pays » nordique de l'URSS mais aussi le moins peuplé et le plus prospère. Elle est alors le territoire soviétique dont le niveau de vie se rapproche le plus des pays situés de l'autre côté du rideau de fer. Néanmoins, le régime autoritaire ainsi que le manque de développement économique et d'opportunités entraine le début d'une colère populaire dans tous les pays Baltes (et l'URSS tout entière), qui abouti progressivement à la chute de cette dernière au début des années 1990. En Estonie, ce mouvement de protestation prend la forme de la révolution chantante pacifique à partir de 1987 qui mène à la restauration de l'indépendance du pays le . L’Estonie récupère alors ses institutions d'avant-guerre, de retour de l’exil, et reconstitue son état d’origine : une république parlementaire unitaire démocratique divisée en comtés avec comme capitale Tallinn, tandis que sa seconde ville Tartu reste le siège historique de sa principale université et de plusieurs institutions nationales. Consciente du retard de développement économique engendré par des décennies d'occupation, l'Estonie parie alors sur l'essor grandissant des nouvelles technologies de l'information consécutif à l'arrivée d'internet. Au milieu des années 1990, la stratégie du bond du tigre (en Estonien Tiigrihüpe), lancée par le gouvernement, organise le déploiement massif et accéléré d'infrastructures informatiques (notamment dans les écoles) et encourage l'utilisation du Web. L'éducation de sa population aux usages du numérique dès 1997, l'apparition de la carte d'identité numérique en 2002, du vote électronique en 2007, de la résidence digitale en 2014, ainsi que le programme e-Estonia de simplification des démarches administratives lui confère auourd'hui le statut de société digitale la plus avancée du monde. En découle un environnement propice à la création d'entreprises de l'économie numérique, qui place l'Estonie en tête du nombre de startups par habitants, avec notamment 8 licornes d'origine estonienne : Skype, Bolt, Playtech, Wise, Pipedrive, Zego, ID.me et Veriff. Grâce, entre autres, à l'économie numérique, l'Estonie est aujourd'hui un pays développé doté d'une économie qui a connu l'une des croissances les plus rapides de l'Union Européenne, qu'elle a rejoint en 2004. Le pays se classe à la trentième place en 2018 dans l'indice de développement humain et obtient des résultats favorables en termes de liberté économique, libertés civiles, éducation (régulièrement classé dans les premiers pays d'Europe) et liberté de la presse selon RSF (quatorzième dans le monde en 2020). Les citoyens estoniens bénéficient de soins de santé universels ainsi que d'une éducation gratuite et de qualité. Par ailleurs, l'Estonie est également l'un des pays qui compte le plus de musées, de livres et le plus grand répertoire de chansons par habitant au monde. Avec une population de 1,3 million d'habitants, elle est l'un des membres les moins peuplés de l'UE ainsi que de l'OTAN depuis mars 2004. L'Estonie est également membre de la zone euro, de l'ONU, de l'Organisation mondiale du commerce (OMC), du Conseil de l'Europe, de l'espace Schengen, de l'OCDE ou encore du Conseil des États de la mer Baltique, et est observateur au Conseil nordique, à l’Organisation internationale de la francophonie et à l'OCDE. En 2020 et 2021, l'Estonie siège du Conseil de sécurité des Nations unies. Histoire À l'issue de la dernière ère glaciaire, les premiers occupants à pénétrer sur l'actuel territoire estonien sont des populations nomades qui arrivent vers 8500 av. J.-C. Selon la théorie la plus répandue, le peuple finno-ougrien, dont descend la majorité des Estoniens contemporains, arrive dans la région vers le millénaire en introduisant la céramique à peigne commune à plusieurs peuples rattachés à la même famille linguistique. Vers 3200 une nouvelle population, sans doute d'origine indo-européenne, arrive dans la région : son apparition se traduit par l’apparition de la céramique cordée, de haches en pierre particulièrement bien finies (haches naviformes) et par l'amorce d'une activité agricole et de d'élevage. Les premières fermes sont construites à l'époque. Il semble qu'après une période de coexistence qui va jusqu’au , la langue finno-ougrienne s'impose sur le territoire de l'Estonie, au nord et sur la côte de la Lettonie, tandis que le parler des derniers arrivants s'impose dans le reste de la Lettonie et plus au sud. Toutefois, chaque langue emprunte sans doute à cette époque une fraction de son vocabulaire à l'autre. Par la suite, aucun autre mouvement de population massif ne semble avoir touché le territoire de l’Estonie. La population estonienne et sa langue semblent donc descendre directement des habitants de cette époque. Au début du les rives sud de la mer Baltique constituent une des dernières contrées païennes d'Europe. Les croisades baltes (1200-1227), menées sur le territoire par un ordre de soldats templiers allemand, les chevaliers porte-glaive, réalisent la conquête du pays dont les habitants sont convertis à la foi chrétienne. Un État dominé conjointement par des princes-évêques et l'ordre des moines soldats, recouvrant à la fois le territoire de l'Estonie et de la Lettonie moderne, se met en place avec deux classes de population bien distinctes : d'une part une minorité d'origine allemande qui constitue l'élite politique, militaire, religieuse, intellectuelle et qui monopolise le commerce et la propriété foncière, d'autre part les paysans, finno-ougriens sur le territoire estonien, dont le statut va se dégrader au fil des siècles. Cette division perdure plus ou moins jusqu'en 1917. Entre 1418 et 1562, la région forme la Confédération livonienne. Au début du le pays, touché par la Réforme, opte pour le luthéranisme. Il est le théâtre de conflits qui l'opposent à des voisins de plus en plus puissants : la Russie, la Lituanie, la république des Deux Nations et la Suède. Finalement cette dernière annexe la région en 1595. Initialement, les souverains suédois ne remettent pas en cause la suprématie de la noblesse balte d'origine germanique descendante des chevaliers porte-glaives. Cette politique change avec la grande guerre du Nord, à l'issue de laquelle (à compter de 1710), le territoire estonien devient pour deux siècles une région de l'Empire russe. Au la noblesse foncière germanophone, à qui les dirigeants russes laissent une grande autonomie, maintient les paysans finno-ougriens dans le servage. Celui-ci n'est aboli qu'au début du siècle suivant en partie sous la pression du pouvoir russe, en partie grâce à quelques germanophones éclairés. Certains de ces derniers, qualifiés d'estoniophiles, s'intéressent à la langue, la culture et l'histoire des autochtones. Des intellectuels membres de la classe moyenne estonienne, qui commence à se former à cette époque, vont prendre le relais en faisant un travail de collecte de la mémoire populaire et en affinant la langue permettant l'apparition des premiers périodiques et ouvrages de fiction en estonien. À la fin du siècle la langue estonienne, dopée par une tentative de russification, commence à se substituer à l'allemand comme langue véhiculaire. En parallèle la proportion de paysans propriétaires s'accroît fortement. Au début du apparaissent les premiers partis politiques estoniens dont les revendications se cantonnent à une autonomie limitée et à l'égalité de statut avec les germanophones qui conservent une grande partie des pouvoirs. Aux débuts de la guerre civile russe (1917-1922), la plupart des divisions militaires estoniennes (créées pendant la Première Guerre mondiale) combattirent contre l'Allemagne au côté des bolcheviks. Toutefois par la signature du traité de Brest-Litovsk, la Russie soviétique cède les États baltes à l'Empire allemand. Selon ce traité, l'Estonie, qui avait proclamé son indépendance le , devait être annexée par le Reich, mais la défaite allemande du lui permet d'accéder à la souveraineté, reconnue internationalement en 1919 (première période d'indépendance, 1919-1940). Les terres agricoles encore détenues par la noblesse germanophone sont redistribuées aux paysans et un régime parlementaire est instauré. Celui-ci, menacé durant la Grande Dépression par la montée d'un mouvement populiste, se mue en 1934 en régime semi-autoritaire. Au début de la Seconde Guerre mondiale, l'Estonie est d'abord envahie en juin 1940, ainsi que le prévoyaient les clauses secrètes du Pacte de non agression germano-soviétique (en même temps que les deux autres pays baltes), par l'URSS qui y organise un « plébiscite » pour donner à l'annexion du pays une apparence de légitimité. Les États-Unis et la plupart des pays non-communistes membres de l'ONU, ainsi que, par la suite, le Parlement européen, la CEDH et le Conseil des droits de l'homme de l'ONU n'ont pas reconnu l'incorporation de l'Estonie parmi les 15 Républiques socialistes soviétiques et ont continué à la reconnaître de jure comme État souverain. Quelque furent déportés par les soviétiques et seule une minorité survécut au Goulag ; ils furent remplacés après la guerre par des colons russes. Beaucoup d'Estoniens se réfugièrent dans la campagne où ils formèrent des maquis. En 1941, l'Estonie est occupée par la Wehrmacht, accueillie en libératrice par la population sortant d'un an de terreur rouge exercée par le NKVD et l'Armée rouge. Les Germano-Baltes quittent en masse le pays pour répondre à l'appel des autorités nazies. Les Estes finno-ougriens étant, dans la hiérarchie raciste des nazis inférieurs aux Germains, découvrent la cruauté des nazis, de sorte que plusieurs milliers rejoignent la résistance anti-allemande. Mais d'autres, nombreux, se mettent au service de l'occupant nazi et lorsque les Soviétiques libèrent l'Estonie du nazisme en 1944, ces collaborateurs (dont beaucoup de criminels de guerre) fuient pour éviter leurs procès, vers la Finlande, la Suède ou le Canada. La Shoah en Estonie est une réalité effroyable : sous l’occupation allemande, des dizaines de milliers de crimes sont commis par les nazis et leurs supplétifs estoniens (plusieurs dizaines de milliers d’Estoniens natifs ont été recrutés dans les Waffen-SS et la Wehrmacht ou dans la police auxiliaire estonienne). Il est estimé entre 35 000 et 125 000 personnes (Juifs, Roms, Estoniens, prisonniers de guerre soviétiques) morts dans les camps de concentration nazis établis en Estonie ou exécutés. Dans l’Estonie occupée est mis en place une république socialiste intégrée dans l'URSS, tandis que la République d’Estonie proprement dite, reconnue par la majorité des puissances occidentales, est représentée par un gouvernement en exil à l’étranger. La société estonienne et son économie sont profondément transformées par les Soviétiques. De nombreuses industries sont installées, l'agriculture est nationalisée et une forte minorité russe s'installe pour diriger ces nouvelles activités. La dislocation de l'URSS en 1991 permet à l'Estonie de retrouver son indépendance de facto à l'issue d'un processus pacifique. Du fait de la non-reconnaissance internationale de son occupation par l'URSS (voir plus haut), l'Estonie a pu, contrairement à douze autres républiques ex-soviétiques, quitter la sphère d'influence russe, opter pour une politique euro-atlantique et finalement adhérer à l'OTAN en avril 2004, puis à l'Union européenne le . Politique L'Estonie est une démocratie parlementaire depuis le rétablissement de l'indépendance en 1991 ; toutefois les lois en vigueur ne reconnaissent pas aux communistes de liberté d'expression, de rassemblement, et autres droits politiques. Pouvoir exécutif Le mandat du président de la République est de cinq ans. Il est élu au premier tour de scrutin par le Riigikogu (parlement) s'il obtient la majorité des deux tiers, et au second tour, si nécessaire, par un collège électoral composé des du Riigikogu et d'un nombre d'élus locaux défini à chaque nouvelle élection. Son principal pouvoir est de nommer le Premier ministre qui doit obtenir la confiance du Riigikogu. La présidente actuelle, Kersti Kaljulaid, a succédé en 2016 à Toomas Hendrik Ilves ; elle est la première femme à accéder à ce poste. Kaja Kallas exerce la fonction de Première ministre depuis le . Pouvoir législatif Le Riigikogu est le nom estonien du parlement monocaméral de l'Estonie. Il comprend , élus tous les quatre ans. L'Estonie étant une république parlementaire, le Riigikogu est le principal acteur du pouvoir estonien. Riigi- se rapproche de l'allemand Reich ou du suédois Riks (« État ») et -kogu vient d'« assemblée » en estonien. Les premières élections eurent lieu en 1920. Jusqu'en 1938, élections se déroulèrent sur la base de trois constitutions différentes. Depuis 1922, les sessions du Riigikogu ont lieu dans le château de Toompea où une aile a été reconstruite pour devenir le bâtiment du parlement. En 1992, après d'occupation soviétique, de nouvelles élections eurent lieu selon la nouvelle constitution adoptée durant l'été 1992. Le Riigikogu est entièrement équipé de matériel de vote informatique, les résultats sont transmis via internet et donc directement accessibles aux citoyens. Cinq partis politiques sont actuellement représentés au Riigikogu depuis les élections de 2019 et ont donc dépassé le seuil d'éligibilité de 5 %. Relations avec l'Union européenne Le processus d'adhésion de l'Estonie à l'Union européenne débute en 1995, et s'achève en 2004 : le , l'Estonie présente la question d'adhésion ; le , l'Estonie ouvre des négociations d'adhésion, elles s'achèvent lors du Conseil européen de Copenhague du ; le , le Conseil européen approuve l'adhésion ; le , l'Estonie signe le traité d'adhésion, en vigueur à partir du ; le , 68,9 % des Estoniens approuvent l'adhésion par référendum ; le , entrée dans l'Union européenne ; le , l'Estonie entre dans l'espace Schengen ; le , l'Union européenne prévoit de faire entrer l'Estonie dans la zone euro en 2011 ; le , la monnaie de l'Estonie devient l'euro. L'Organisation internationale de la francophonie L'Estonie est un membre observateur au sein de l'Organisation internationale de la francophonie. Subdivisions administratives Comtés L'Estonie comprend 15 régions administratives, appelées maakonnad (au singulier maakond) — le -maa signifie pays ou plus précisément terre : la région de Harju (en estonien Harjumaa) ; la région de Hiiu (en estonien Hiiumaa) ; la région du Viru Oriental (en estonien Ida-Virumaa) ; la région de Järva (en estonien Järvamaa) ; la région de Jõgeva (en estonien Jõgevamaa) ; la région de l'Ouest (en estonien Läänemaa) ; la région du Viru Occidental (en estonien Lääne-Virumaa) ; la région de Pärnu (en estonien Pärnumaa) ; la région de Põlva (en estonien Põlvamaa) ; la région de Rapla (en estonien Raplamaa) ; la région de Saare (en estonien Saaremaa) ; la région de Tartu (en estonien Tartumaa) ; la région de Valga (en estonien Valgamaa) ; la région de Viljandi (en estonien Viljandimaa) ; la région de Võru (en estonien Võrumaa). Villes La carte géographique des axes formées par la position des villes d'Estonie se présente sous la forme d'un rectangle reliant les 4 agglomérations majeures du pays. Chacune de ces villes est distinguée par un ou plusieurs domaines de spécialités : Tallinn, au Nord-Ouest, est la capitale politique, premier port marchand et poumon économique du pays. Elle est la plus peuplée, regroupe de nombreuses entreprises, notamment issues des technologies de l'information-communication. Tartu, au Sud-Est, est la ville intellectuelle et étudiante. Plus ancienne ville du pays, elle abrite en son sein l'Université de Tartu, classée parmi les 300 meilleures Universités du monde. Elle est à la fois le berceau de la culture estonienne proprement dite (littérature, théâtre, chants...), mais aussi reconnue pour la vitalité de sa vie étudiante, culturelle et intellectuelle. L'expression populaire Tartu vaim (l'esprit de Tartu) est très utilisée en Estonie. Pärnu, au Sud-Ouest, est la ville touristique. Située sur les bords de la mer baltique, elle est le principal lieu de villégiature de la population estonienne. Elle est couramment désignée sous l'appellation de "capitale de l'été". Narva et Kohtla-Järve, au Nord-Est sont des villes industrielles. Les deux villes sont le siège d'anciennes usines métallurgiques, mais également des centrales électriques qui alimentent tout le pays. Géographie D'une superficie () proche de celle des Pays-Bas (celle définie par le traité de paix de Tartu en 1920 était de ), l'Estonie est le plus septentrional des pays baltes, largement ouvert à l'ouest sur la mer Baltique, au nord sur le golfe de Finlande ( de côtes), bordé à l'est par la Russie (frontière de ) et au sud par la Lettonie (frontière de ). La côte estonienne est essentiellement rocheuse. 10 % du territoire est composé d'un archipel de plus de îles situées dans la Baltique dont les deux plus grandes sont Hiiumaa () et Saaremaa (). La distance de Tallinn à Helsinki n'est que de alors qu'il faut pour aller à Rīga, pour rejoindre Saint-Pétersbourg et pour Stockholm. Relief L'Estonie est un pays de terres basses marécageuses. Des inondations ont régulièrement lieu au printemps. Le pays compte peu de cultures agricoles permanentes. 48 % du pays est constitué de bois et de forêts, la taïga, et 13 % de marais à tourbe. L'Estonie compte également plus de . Le relief de l'Estonie est caractérisé par une altimétrie assez faible et un grand nombre de lacs et environ . Le point culminant est le Suur Munamagi, situé au sud-est du pays. Le lac Peïpous est le quatrième plus grand lac d'Europe après les lacs Ladoga et Onega en Russie et le Vänern en Suède. Il ressemble à une véritable mer intérieure du point de vue de sa superficie et sert de frontière à l'est avec la Russie. Il est gelé en hiver pendant quatre mois et est navigable pendant les huit autres mois de l'année. À l'inverse, l'été avec les longues journées ensoleillées estoniennes, le lac est propice à la baignade et de nombreux Estoniens et Finlandais sont attirés par les plages de dunes sur son côté nord. Il présente même de nombreux campings gratuits, mode d'hébergement favori dans les pays nordiques. Le reste du lac est par contre davantage composé de marécages. Climat Grâce au courant Nord-Atlantique chaud, toute l'Europe du Nord (dont l'Estonie) jouit d'un climat considérablement plus doux que, par exemple, les mêmes latitudes en Amérique du Nord. La mer Baltique cause de grandes différences de climat entre les zones côtières et continentales. Le climat est caractérisé par un hiver plutôt froid, un printemps doux et un peu pluvieux, un été relativement chaud et un long et doux automne (température moyenne en juillet ; température moyenne en février ). Les premières neiges apparaissent vers novembre. La température peut descendre en dessous de l'hiver. Le mois le plus sec est le mois de mars avec en moyenne alors que la pluviométrie est la plus élevée au mois de juin avec une moyenne de . Comme dans les autres pays nordiques, la latitude élevée de l'Estonie engendre une importante différence de lumière de jour entre l'hiver et l'été. Les journées sont plus courtes au solstice d'hiver : Tallinn (au nord) : de jour / de nuit ; Valga (sud) : de jour / de nuit. À l'inverse, les journées sont plus longues au solstice d'été : Tallinn : de jour / de nuit crépusculaire ; Valga : de jour / de nuit crépusculaire. Le nombre annuel d'heures ensoleillées varie entre , ce nombre étant plus élevé sur la côte et les îles et plus faible à l'intérieur du pays. Cela correspond à moins de la moitié de la quantité maximale de soleil possible. Écologie Les Estoniens, comme les autres populations nordiques, sont très proches de la nature et soucieux de la préservation de l'environnement . L'Estonie pratique le libre droit d'accès à la nature comme la Finlande. Le camping sauvage est autorisé partout hors des villes et des endroits qui mentionnent une interdiction spécifique. Une initiative de dépollution de grande ampleur a été mise en place en 2008 au niveau national par l'association Teeme Ära, devenu par la suite Let's do it! World au niveau international. Les zones polluées par de nombreux déchets ainsi que les décharges sauvages ont été localisées par images satellite et par des citoyens qui renseignaient une base de données. Les coordonnées GPS de chaque endroit ont ensuite été communiquées aux participants qui pouvaient localiser les zones proches de chez eux et y intervenir pour s'occuper des déchets. Plusieurs dizaines de milliers d'Estoniens ont participé à ce projet. Cette expérience fut accompagnée d'une vaste campagne de sensibilisation. 80 % des déchets collectés par les bénévoles ont été recyclés. L'Estonie est le second pays d'Europe, après la Bulgarie, à présenter les taux de pollution urbaine les plus élevés. Le pays produit la quasi-totalité de son électricité avec du pétrole de schiste et du charbon. En conséquence, il est le deuxième émetteur de CO2 par habitant d'Europe. L’Estonie compte aussi parmi les États à refuser l’objectif de neutralité carbone pour 2050. Réseau européen Natura 2000 Le réseau Natura 2000 rassemble des sites naturels ou semi-naturels de l'Union européenne ayant une grande valeur patrimoniale, par la faune et la flore exceptionnelles qu'ils contiennent. En décembre 2018, l'Estonie comptait dont : 66 zones de protection spéciale (ZPS) pour les oiseaux sur une superficie de ; 541 zones spéciales de conservation (ZSC) (dont les pSIC, SIC) pour les habitats et les espèces sur une superficie de . La superficie totale est de , ce qui représente 17,9 % de la surface terrestre et marine du territoire de l'Estonie. Cartographie des sites Natura 2000 de l'Estonie Carte des sites Natura 2000 (SIC, ZSC + ZPS) de l'Estonie, décembre 2017 (haute définition), Source Économie En 2005, le PIB/habitant était de , le PIB en standard de pouvoir d'achat (SPA) par habitant de et le taux d'inflation de 4,1 % (2005). En juillet 2006, le taux de chômage était de 4,2 %. L'Estonie se trouve dans une région d'Europe à fort potentiel économique, autour de la mer Baltique. Ces dernières années, elle a connu une croissance rapide (8,1 % en 2004, de 10,5 % en 2005 et de 11,4 % en 2006, selon Eurostat). Elle appartient, depuis 2001, au premier groupe des pays à fort niveau de développement humain ( sur 174). L’une des plus libérales d'Europe du Nord, l’économie estonienne exporte machines-outils, équipements électriques et électroniques (comme les pièces de téléphonie mobile), logiciels et services liées aux NTIC, bois et produits textiles. L'Estonie est l'une des sociétés les plus avancées sur le plan numérique. En 2005, elle est devenue le premier État à tenir des élections sur Internet. En 2014, elle est le premier État à offrir la résidence électronique, et est également à l'origine du système d'échange de données X-Road.Microsoft Skype est une entreprise qui commercialise son logiciel propriétaire et le service lié de voix sur IP (VoIP) développé par les programmeurs Ahti Heinla, Priit Kasesalu et Jaan Tallinn pour les entrepreneurs Niklas Zennström et Janus Friis. Les trois Estoniens étaient déjà à l'origine du logiciel Kazaa. L'Estonie est régulièrement citée comme modèle dans l'adoption des technologies de l'information et des télécommunications. Anneli Kavald, chargée de mission à l’Institut estonien en France, établit sur ce point une comparaison d'ordre culturel avec la France : L’économie, très dépendante sur le plan financier des banques suédoises, s’est révélée très fragile. La crise bancaire et financière de l'automne 2008 a provoqué une débâcle dans ce petit pays baltique qui avait formé sa propre bulle immobilière : entre juin 2008 et juin 2009, le chômage a doublé, le PIB a reculé de 15 %, la production industrielle de 34 %. Le gouvernement tente de renverser la situation essentiellement par des coupes budgétaires afin de pouvoir remplir les conditions d'entrée dans la zone euro dès 2011. On attendait pour 2009 une contraction du PIB comprise entre -14 % et -15 % tandis que le pays connaissait désormais la déflation qui a atteint - 0,1 % en 2009. Le pays renoue avec la croissance à partir de 2010, et le gouvernement estime que l'Estonie retrouvera le niveau de PNB d'avant la crise économique à horizon 2015. Quant au taux de chômage, il s’élève en décembre 2011 à 11,7 % contre 15,2 % en janvier 2010, selon Eurostat. L’écart de l’espérance de vie entre les personnes diplômées et les personnes non diplômées est de en Estonie Monnaie À l'issue de la Première Guerre mondiale, plusieurs monnaies circulaient en Estonie, dont le mark allemand et le rouble russe. Elles furent remplacées en 1918 par le mark estonien, à parité avec le mark allemand. Après plusieurs dévaluations, celui-ci fut remplacé le par la couronne estonienne au taux de 1 couronne pour 100 marks. Cette première couronne estonienne fut à nouveau dévaluée en 1933 lors de la crise économique. À la suite de l'invasion soviétique de 1940, la couronne estonienne se trouva remplacée par le rouble soviétique au taux de pour . Après l'indépendance, une nouvelle couronne estonienne (eesti kroon ; abréviation internationale EEK), fut introduite en à parité fixe avec le mark allemand (1 DEM = 8 EEK). Cette nouvelle monnaie rejoint le mécanisme de taux de change européen II (MCE II) le , en vue d'une adoption de l'euro initialement prévue en ( = , ± 15 %). Mais une inflation trop importante (environ 4 % sur ) retarde le passage à l'euro jusqu'à 2011. Depuis le , la monnaie nationale est l'euro, avec une parité fixe de = 15,6466 EEK. Les pièces en euro de l'Estonie représentent toutes la carte du pays. Afin de continuer à promouvoir la dématérialisation de toutes ses administrations commencée avec la promotion de sa dorsale internet, l'X-Road, L'Estonie envisage d'émettre sa propre cryptomonnaie, l'Estcoin Transports En , 11 des 15 comtés estoniens ont adopté la gratuité des déplacements en bus. L'Estonie est ainsi devenue le premier pays européen à prendre cette mesure sur quasiment l'ensemble du territoire, dans le but de limiter l'exode rural et la consommation de combustibles fossiles. La capitale Tallinn offre déjà la gratuité des bus depuis 2013. Démographie En 2010, la population de l'Estonie s'élève à , contre en 2000. La démographie est marquée par une perte sensible de population depuis la fin des années 1990 (-4,9/1000 en 1998 ; -3,8/ en 1999), en raison du départ d'une partie de la population, comme dans les autres pays baltes, mais surtout d'un indice de fécondité faible ( par femme en 2000 et 1,64 en 2010). Les principales villes sont : Tallinn (), Tartu (), Narva (), Pärnu (). Minorités ethniques Situation actuelle Les Russes représentent la minorité la plus importante d'Estonie (environ ) et la plus ancienne. Elle est loin d'être homogène car elle est constituée de plusieurs sous-groupes dont l'arrivée sur le sol estonien est échelonnée dans le temps. Tout au long de l'histoire de l'Estonie, des Russes se sont installés dans les villes pour occuper des métiers d'artisans et de commerçants : environ étaient présents ou sont descendants de Russes présents avant l'invasion soviétique de 1939. Parmi ceux-ci, les vieux-croyants forment une communauté d'environ , liée à l'Église vieille-orthodoxe pomore, pourchassée par le pouvoir tsariste et l'église officielle (patriarcat de Moscou et de toute la Russie), qui s'est installée au sur les rives du lac Peïpous. Le reste de la communauté s'est installé durant la période soviétique pour occuper les emplois générés par la construction en Estonie d'importants complexes industriels. Cette partie de la communauté russe liée à l'Église orthodoxe d'Estonie (patriarcat de Moscou), qui représente environ 20 % de la population et qui est de plus fortement concentrée dans les villes industrielles du Nord-Est (Narva, économiquement sinistrée) et dans la capitale, est généralement mal intégrée. Peu parlent l'estonien et, vivant en communauté fermée, ils ont peu de contacts avec les Estoniens qui ne cherchent de toute façon pas à les fréquenter. Malgré tout, ont opté depuis l'indépendance pour la nationalité estonienne après avoir passé avec succès un examen linguistique et culturel tandis que , souvent âgés, choisissaient la nationalité russe. Environ n'ont pas voulu trancher et sont depuis reconnus par l'État estonien comme étant des « non-citoyens » et sont donc privés de leurs droits civiques. Aujourd'hui encore, ils sont apatrides puisque leur pays d'origine, l'Union soviétique, a depuis disparu. Peu à peu, une partie de cette minorité russe quitte le pays. D'autres minorités sont présentes : Biélorusses, Ukrainiens, Setos, Juifs. Minorités disparues ou en voie de disparition Certaines minorités ont disparu ou sont en voie de disparition : Juifs, Allemands, Ingriens, Suédois. Suédois Les Suédois d'Estonie (suédois : Estlandssvenskar) sont les populations de langue suédoise qui se sont installées en Estonie, notamment pendant la période de colonisation du pays par la Suède (1561-1721). Comme du côté finlandais, ils résidaient principalement dans les îles du golfe de Riga (notamment Hiiumaa, Ruhnu, Naissaar et Vormsi) et sur les côtes ouest et nord du pays. La communauté suédoise, installée dans ces lieux depuis le et qui comptait alors a quitté le pays durant la Seconde Guerre mondiale. Il ne reste aujourd'hui que quelques centaines de Suédois d'Estonie. Langues La langue officielle de l'Estonie est l'Estonien, qui est la langue maternelle de plus de 69 % de la population du pays ainsi qu'une langue étrangère maîtrisée par 14 % de la population, ce qui fait que plus de 82 % des habitants du pays savent parler estonien. La plupart des habitants du pays qui ne maitrisent pas l'Estonien sont étrangers (particulièrement Russes) et sont plutôt âgés. L'apprentissage de l'Estonien est obligatoire dans toutes les écoles du territoire, et quasiment toute la jeunesse du pays maitrise cette langue. L'Estonien proprement dit repose sur le standard d'écriture du Nord de l'Estonie. Des langues régionales (notamment le Võro et le Seto) sont parlées dans le sud, et des dialectes sont encore parlés dans les îles au Nord-Ouest. Un temps délaissés et stigmatisés, ces dialectes sont aujourd'hui remis à l'honneur via certains médias et activités culturelles. La première langue étrangère dépend principalement des différentes catégories d'âges et des origines individuelles. L'anglais est la langue étrangère la plus parlée par la jeunesse et se répand très rapidement car enseignée très tôt dans les écoles et diffusée massivement par l'industrie culturelle britannique et américaine. Certaines personnes ont pu bénéficier d'un enseignement de l'anglais y compris lors de la période soviétique. Du fait du passé soviétique, le russe est également très présent avec 30 % des habitants l'ayant comme langue maternelle et 42 % comme langue étrangère. 72 % des habitants comprennent ainsi plus ou moins le russe, malgré un rejet massif de cette langue par la population de souche estonienne qui tend à l'oublier et l'écarter au profit de l'anglais. La concentration de population d'origine russe dans certains endroits très localisés est telle que la langue russe est quasiment hégémonique dans ces zones, notamment dans les villes de Narva, Kohtla-Järve, Maardu, le quartier de Lasnamäe à Tallinn et, dans une moindre mesure dans le quartier d'Annelinn à Tartu et la ville de Valga. La troisième langue et deuxième langue étrangère proposée à l'enseignement dans les écoles est souvent un choix entre le russe, l'allemand (très présent chez l'élite, et dans des domaines comme le tourisme), ainsi que le français (l'Estonie est un membre observateur de l’Organisation internationale de la francophonie, ce qui traduit la présence plus ou moins importante d'une certaine francophonie sur le territoire. Deux établissements participent à la promotion de la langue française : l’Institut français d’Estonie et l'école française de Tallinn.) Pour des raisons culturelles et historiques, les langues suédoise et finnoise sont aussi étudiées. Le Suédois fait également office de dialecte régional dans une petite région de la côte du Nord-Ouest, du fait de la colonisation des Suédois d'Estonie. Athéisme et religions D'après le recensement de 2011, 65 % des Estoniens de et plus ont indiqué être non croyants. L'orthodoxie est la première religion du pays avec un peu moins de se recrutant pour l'essentiel parmi la communauté russophone. Le luthéranisme quant à lui s'est implanté chez les habitants de langue maternelle estonienne. L'Église luthérienne regroupe 11,9 % de la population. Culture De tout temps, l'Estonie s'est trouvée dans la sphère de culture européenne. Tallinn (Reval à l'époque) était, au Moyen Âge, la ville la plus orientale de la Ligue hanséatique. Forte des diverses cultures qui se sont côtoyées et succédé du fait des occupations successives, l'Estonie s'est forgé une culture particulière faite de tolérance et de respect envers l'étranger, quels que soient son pays ou sa culture. L'Estonie compte de nombreuses minorités : les Russes représentent 25,7 % de la population. Viennent ensuite les Ukrainiens : 2,1 % de la population ; 1,2 % de la population est biélorusse et 0,8 % finnoise... L'importance de la population russophone vient naturellement de l'occupation soviétique et de l'industrialisation forcenée dont l'Estonie avait fait l'objet à l'époque. Littérature L'estonien n'est pas une langue indo-européenne mais finno-ougrienne de même que le finnois et le hongrois. L’estonien littéraire naît tardivement, entre les s. Il est surtout utilisé par des pasteurs allemands pour transmettre la littérature religieuse. Le plus ancien livre en estonien est le catéchisme de Wanradt et Köll, publié en 1535 à Wittenberg. On remarquera que c'est la Réforme qui est à l'origine de ce livre. Le voit la naissance de la littérature nationale, et la langue écrite se répand par les almanachs et journaux, colportés jusqu’au fond des campagnes. La littérature est alors composée de récits imités d’œuvres allemandes. À partir de 1820, Kristjan Jaak Peterson est à l’origine de la poésie estonienne moderne. Dans les années 1850, à la suite des mouvements nationaux et romantiques, la littérature connaît un véritable essor, avec notamment la redécouverte du folklore national et la rédaction de l’épopée nationale, le Kalevipoeg, composée par Friedrich Reinhold Kreutzwald, publiée entre 1857 et 1861 (voir L'Homme de Bois et la Femme d'Écorce, un conte typiquement estonien) dans les publications de la Société savante estonienne. L'édition populaire a été publiée en 1862 en Finlande. À cette période, entre 1860 et 1885, la nation estonienne prend conscience d’elle-même, et la littérature se développe rapidement. La poésie est un genre particulièrement vivace (et le reste aujourd’hui), symbolisée à cette époque par l’une des grandes poétesses de ce pays, Lydia Koidula. Comme dans le reste de l’Europe, la fin du voit le développement d’une littérature réaliste, en particulier avec Eduard Vilde. Peu après, la littérature s’ouvre de plus en plus aux courants occidentaux, avec le groupe des « Jeunes Estoniens ». C’est dans ce contexte qu’émerge l’une des figures estoniennes les plus connues à l’étranger, celle de la poétesse Marie Under. Les années 1920 voient le retour du réalisme, avec Anton Hansen Tammsaare. La période de l’entre-deux-guerres, celle de l’indépendance, contraste fortement avec la suivante, celle de l’exil pour les uns, de la déportation en Sibérie pour les autres. La littérature estonienne en exil demeure très vivace, pour preuve les volumes en estonien qui sont parus entre 1945 et nos jours. En Estonie devenue soviétique, la littérature « bourgeoise » est brûlée, interdite, censurée, etc. Un certain renouveau se déclare après la mort de Staline, avec les débuts de grands auteurs comme Viivi Luik et Jaan Kaplinski, mais surtout le monument Jaan Kross qui est publié chez Robert Laffont. Il est l'auteur notamment du Fou du Tzar (1978), prix du meilleur livre étranger 1989. comme le baron balte Timotheus von Bock du Fou du Tzar ou le juriste et diplomate Frédéric Fromhold de Martens de Le départ du professeur Martens (1984). Une fois le retour de l’indépendance, l’Estonie libre retrouve une belle vitalité littéraire, marquée par l’émergence de nombreux jeunes auteurs, comme Tõnu Õnnepalu, en particulier grâce aux généreuses subventions de la Fondation pour la culture. Médias Eesti Rahvusringhääling (ERR), la radio et télévision nationale estonienne. Kuku Raadio, radio privée. Musique, arts du spectacle La musique est indissociable de la culture nationale, les Estoniens n'ont-ils pas été qualifiés de « Peuple chantant » ? Le premier festival pan-estonien de chant a eu lieu en 1869 à Tartu, où près de mille chanteurs et musiciens venus de tout le pays furent réunis. Aujourd'hui cette fête rassemble trente mille chanteurs et musiciens devant un public de . Ces traditions ont inspiré en 1988 la « révolution chantante », c'est en chantant que l'Estonie s'est libérée du joug soviétique. En 2001, l'Estonie a remporté le concours Eurovision. L'Estonie est également le pays du compositeur de musique classique, religieuse et contemporaine Arvo Pärt, créateur du style tintinnabuli. Il existe deux grands théâtres en Estonie : le théâtre Estonia à Tallinn fondé en 1865, le théâtre Vanemuine à Tartu fondé en 1883. Tous les registres y sont abordés. Le cinéma estonien compte pour une très faible partie (2 %) du taux d'audience cinématographique du pays, mais est très productif surtout en ce qui concerne les films d'animation et documentaires. Un festival est proposé chaque été, consacré au film anthropologique à Pärnu et en hiver c'est à Tallinn que se déroule le « Festival de cinéma des nuits noires ». Sports Le cycliste Jaan Kirsipuu a été vainqueur de nombreuses étapes du Tour de France. À Sydney, la médaille d'or du décathlon a été remportée par Erki Nool, natif de Võru. À Pékin, c'est le discobole Gerd Kanter déjà champion du monde à Osaka en 2007, qui décroche l'or olympique. Il succède à Erki Nool, sacré en 2000 à Sydney et à Jaak Uudmae vainqueur du triple saut en 1980 lors des Jeux de Moscou. Dans les sports d'hiver, les athlètes estoniens sont très productifs : une médaille d'or, une d'argent et une de bronze aux Jeux olympiques de Salt Lake City en 2002 (se plaçant devant la Suède et le Royaume-Uni) et trois médailles d'or aux Jeux olympiques de Turin en 2006. À noter que le champion d'échecs Paul Keres (1916-1975), au sommet de l'élite dans les années 1930-1960, était Estonien et a concouru pour le pays, puis pour l'URSS. Il a même eu droit à son effigie sur le billet de banque de cinq couronnes. En rallye, Markko Märtin et Ott Tänak ont remporté plusieurs épreuves sur leurs voitures respectives dupuis les années 2000. Enfin, la joueuse de tennis Kaia Kanepi est devenue ces deux dernières années l'une des athlètes les plus populaires de son pays en intégrant le top 20 du classement WTA en 2010, après avoir notamment atteint les quarts de finale à Wimbledon et à l'US Open de tennis. Fêtes et jours fériés Capacités militaires L'armée estonienne est de constitution récente. En 2011, 1,9 % du PNB est consacré à la défense, soit un budget de la défense de d'euros. Ayant adopté une attitude prudente face à la Russie, l'Estonie compte sur l'OTAN pour protéger son espace aérien et sur l'Union européenne en cas de crise internationale. Elle participe à plusieurs missions à l'étranger sous le commandement des Nations unies ou de l'OTAN. Les forces estoniennes sont présentes en Afghanistan et un contingent est impliqué dans la guerre en Irak. Les forces estoniennes font partie de la KFOR au Kosovo et de la Force intérimaire des Nations unies au Liban renforcée. L'armée de l'air possédant plusieurs hélicoptères et avions légers de transport ainsi qu'une centaine de batteries anti-aériennes, son réseau radar est relié à celui de l'OTAN. Les forces militaires de l'Estonie ont introduit une nouvelle formation basée sur la cyberguerre et la défense des infrastructures électroniques et infrastructures essentielles de la république d'Estonie. Actuellement, la principale organisation de cyber-défense estonienne est le CERT (Computer Emergency Response Team of Estonia), créée en 2006, comme organisation responsable de la gestion des incidents de sécurité dans des réseaux informatiques estoniens. Son but est de réduire le plus possible les dommages liés aux incidents de sécurité en répondant efficacement aux nouvelles menaces. L'Estonie a connu une série de cyberattaques qui ont commencé le 27 avril 2007. Les dirigeants estoniens attribuent ces attaques aux autorités russes, lesquelles démentent. Le 25 juin 2007, le président estonien Toomas Hendrik Ilves a rencontré le président des États-Unis, George W. Bush. Parmi les sujets abordés, il y avait notamment les attaques sur l'infrastructure électronique estonienne. Ces attaques ont provoqué, dans un certain nombre d'organisations militaires mondiales, une reconsidération de l'importance de la sécurité de réseau dans la doctrine militaire moderne. Le 14 juin 2007, les ministres de la Défense de l'OTAN ont tenu une réunion à Bruxelles, publiant un communiqué sur une action immédiate commune. Cette action permit de mettre fin aux attaques à l'automne 2007. L'OTAN s'apprête à mettre en place en Estonie son futur centre cybernétique de défense, les Estoniens formeront ainsi les spécialistes du cyber-terrorisme, du cyber-espionnage et de la cyber-défense pour les forces de l'alliance atlantique. Le , le président des États-Unis Barack Obama, en visite en Estonie au moment où se déroule la guerre du Donbass en Ukraine, pays qui n'est pas membre de l'OTAN, et où la Russie est accusée notamment par les membres de l'OTAN, d'envoyer des troupes de soldats russes pour soutenir les pro-Russes, déclare que l'Estonie . Codes L'Estonie a pour codes : Notes et références Voir aussi Bibliographie Louis Villecourt (1897-1930), L'Estonie, préface d'Alexandre Millerand, Les éditions Rieder, Paris, 1932 (lire en ligne) . . Articles connexes Liens externes Gouvernement estonien. Constitution de la République d’Estonie.
1048
https://fr.wikipedia.org/wiki/Estonien
Estonien
L’estonien (autonyme : , ) est une langue appartenant à la branche fennique de la famille des langues ouraliennes. Il est étroitement apparenté au finnois et plus lointainement au hongrois. Il est parlé par environ , dont la très grande majorité () habite en Estonie. Il peut y avoir intercompréhension entre un locuteur du finnois et un locuteur estonien : les difficultés seraient de l'ordre de tournures grammaticales différentes, mais ce sont surtout les accents différents qui apporteraient des difficultés. Enfin, le finnois a intégré un certain nombre de mots suédois dans son vocabulaire, tandis que les Estoniens ont emprunté des mots de vocabulaire d'origine allemande, bas-allemande ou russe. Le SIL International, organisme chargé d'attribuer les codes ISO 639-3, classe l'estonien comme une macro-langue (est) et y inclut l'estonien standard (ekk) et le võro (vro). La base de données linguistiques Glottolog ne reconnait pas quant à elle le võro et inclut trois variétés dans l'estonien : l'estonien côtier du Nord-Est l'estonien côtier du Nord, comprenant : l'estonien de l'Est l'estonien insulaire l'estonien moyen l'estonien du Nord-Ouest l'estonien du Sud, comprenant : l'estonien de Mulgi l'estonien de Seto l'estonien de Tartu Alphabet L'alphabet estonien comporte 27 lettres et est ordonné ainsi : A a, B b, D d, E e, F f, G g, H h, I i, J j, K k, L l, M m, N n, O o, P p, R r, S s, Š š, Z z, Ž ž, T t, U u, V v, Õ õ, Ä ä, Ö ö, Ü ü Les positions de z et ž dans cet alphabet sont à noter, ainsi que l'appartenance à cet alphabet des lettres diacritiquées en tant que lettres à part entière. Les lettres F, Š, Z et Ž sont quatre lettres rencontrées uniquement dans certains mots d'emprunts. Il est également important de noter l'absence des lettres C, Q, W, X et Y, qui ne sont utilisées que dans des noms propres et ne le sont pas dans les mots de racine estonienne et sont exclues de l'alphabet officiel estonien. Prononciation Quelques-unes des lettres de l'alphabet ont des prononciations particulières ou différentes du français : õ note /ɤ/ (une voyelle postérieure non arrondie, semblable à un o français, mais vraiment postérieur, prononcé sans arrondissement des lèvres) ; ä produit le phonème /æ/ comme en finnois (a très ouvert comme dans cat en anglais) ; ö, ü produisent respectivement les phonèmes /ø/ et /y/ comme en allemand, correspondant aux eu fermé et u du français. Quant aux lettres š et ž, elles se prononcent respectivement /ʃ/ et /ʒ/, correspondant aux ch et j du français. Hormis ces quelques lettres, il faut prêter attention au fait que E se prononce [e] (é), que le R est roulé, que le S est toujours dur (comme dans le mot jadis) et enfin, que le U a la même prononciation que ou en français. Il faut également veiller à aspirer le H. Enfin, en estonien, une voyelle double note une voyelle longue et une double consonne note une consonne géminée. Ceci a une valeur phonémique, qui peut différencier deux mots. Phonologie Sur le plan phonologique, l’estonien se caractérise notamment par l’existence de trois durées vocaliques et consonantiques : la plupart des phonèmes peuvent être brefs, longs ou surlongs. Cette présentation des faits a néanmoins été remise en question dans les années 1990. Plutôt que de décrire la durée des phonèmes, de nombreux linguistes préfèrent aujourd’hui décrire les trois « durées » syllabiques (voire des groupes de deux syllabes) et réduisent le système ternaire traditionnel à un emboîtement de deux oppositions binaires : les syllabes accentuées peuvent être brèves ou longues et les syllabes longues peuvent porter un « accent » fort ou faible, le terme d’« accent » désignant ici un ensemble de traits essentiellement prosodiques comprenant l’énergie articulatoire, la courbe intonative et la longueur relative de la syllabe accentuée et de la syllabe suivante. L’accent tonique est sur la première syllabe des mots, sauf dans les mots d'emprunt relativement récents, où il s'est souvent maintenu à la place qu'il avait dans la langue d'origine. L'orthographe ne distingue pas les phonèmes longs et surlongs ; les uns comme les autres sont notés par une lettre double, tandis que les phonèmes brefs sont notés par une lettre simple. La seule exception concerne les occlusives, pour lesquelles trois graphies différentes existent : les brèves sont notées b, d, g, les longues p, t, k, et les surlongues pp, tt, kk. Grammaire Typologiquement, l’estonien représente une forme de transition entre langue agglutinante et langue flexionnelle. Il a subi au cours de son histoire une forte influence de l'allemand, dans son vocabulaire comme dans sa syntaxe. Il a par exemple développé un système de verbes à particules dont la forme et le fonctionnement rappellent les verbes à particules séparables de l'allemand. L’estonien ne possède pas d’articles et ne connaît pas le genre grammatical. La déclinaison comprend 14 cas : nominatif, génitif, partitif, illatif, inessif, élatif, allatif, adessif, ablatif, translatif, terminatif, essif, abessif et comitatif. L’une des particularités de ce système casuel est l'absence d'accusatif ; le complément d'objet peut être marqué, selon les contextes, par le nominatif, le génitif ou le partitif. L’adjectif épithète s'accorde en cas et en nombre avec le substantif qu'il détermine, sauf au terminatif, à l'essif, à l'abessif et au comitatif où il n'y a pas d'accord en cas (l'adjectif est alors au génitif). Le système verbal se caractérise par l'absence de temps dédié au futur (le « présent » est le temps du « non-passé ») et par l’existence de formes spéciales pour exprimer l'action accomplie par une personne indéterminée (l’équivalent du « on » français) ainsi que le discours rapporté (mode verbal spécifique appelé « mode oblique » ou « médiatif »). Il existe au moins deux infinitifs : le premier, terminé par le suffixe -ma, est la forme qui figure dans les dictionnaires; il est utilisé par exemple après les verbes signifiant « devoir » ou « commencer à ». Le deuxième infinitif, terminé surtout en -da ou en -ta (mais aussi en -la, -na ou -ra), s’utilise par exemple après les verbes signifiant « pouvoir », « vouloir », « aimer ». Certaines grammaires considèrent aussi comme un infinitif spécifique la forme en -vat (correspondant au médiatif présent) lorsqu'elle est employée après un verbe d'apparence (signifiant « sembler »). Histoire Moyen Âge La première transcription connue d’un mot estonien remonte peut-être au : dans sa Cosmographie, Aethicus Ister mentionne une île du nom de Taraconta (Tharaconta). Certains auteurs pensent qu’il désignait peut-être par là l’Estonie ou sa plus grande île, Saaremaa. Taraconta peut en effet être interprété comme Taara + kond. Taara était, selon certains, l’un des principaux dieux des anciens Estoniens ; le suffixe -kond désigne quant à lui une communauté de personnes, comme dans le mot perekond « famille », ou une entité territoriale, comme dans maakond « province ». Taraconta pourrait ainsi désigner les Estoniens comme les adorateurs de Taara. À partir du , des sources écrites plus abondantes permettent d’avoir une idée plus précise de l’état de développement de la langue. C’est en effet à cette époque que les croisés allemands et scandinaves atteignent l’Estonie, qui était alors l’une des dernières terres païennes d’Europe. Les croisades contre les Estoniens ont été décrites au cours de la première moitié du dans la chronique latine Heinrici Chronicon Livoniae (chronique d'Henri le Letton), qui contient des mots et des fragments de phrase en estonien. De nombreux noms propres et toponymes estoniens sont également attestés dès le . Un rôle d’impôt danois (), établi entre 1219 et 1220, comprend environ 500 toponymes du nord de l’Estonie. À la suite des croisades, une noblesse et une bourgeoisie allemandes s’établirent sur le territoire de l’ancienne Livonie, qui couvrait l’Estonie et la Lettonie actuelles. Bien que l’Estonie ait changé plusieurs fois de maître au cours de sept siècles d’occupation étrangère (Danemark, Pologne, Suède, Russie), l’estonien fut surtout influencé par le bas-allemand et le haut-allemand, ainsi que par le dialecte allemand de la Baltique qui se développa à partir d’eux. En particulier, le vocabulaire lié à la ville et la modernité s'inspire largement de l'allemand. Le premier texte estonien conservé est celui du manuscrit de Kullamaa, qui date des années 1524-1528. Il s’agit d’une traduction des principales prières catholiques (« Notre Père », « Je vous salue Marie » et « Je crois en Dieu »). Lorsque la Réforme parvint en Estonie, la prédication en langue vernaculaire rendit nécessaire la traduction des textes religieux en estonien du nord et en estonien du sud. Période moderne Les premières grammaires et les premiers dictionnaires furent rédigés au . On dispose depuis cette époque d’un nombre important de textes conservés. Au cours du Réveil national qui se produisit au milieu du , l’estonien, qui n’était auparavant que la langue des paysans, devint rapidement une langue de culture, notamment grâce à l’Université de Tartu, un des principaux foyers intellectuels. Il commença à être utilisé en littérature et dans les sciences. À la même époque furent publiées les premières études linguistiques en estonien. En 1884, Karl August Hermann fit paraître la première grammaire estonienne en estonien, qui contribua de façon importante à la standardisation de la langue. Dans la deuxième moitié du , la population autochtone commença à se désigner sous le nom d’eesti, probablement emprunté deux siècles plus tôt au suédois ou à l’allemand. Auparavant, la majorité des Estoniens se désignaient sous le nom de maarahvas « les gens du pays » et appelaient leur langue maakeel « la langue du pays ». Durant les premières décennies du , les intellectuels estoniens se donnèrent pour mission de développer leur langue pour l’adapter à la culture européenne moderne. Un rôle important dans ce processus fut joué par le linguiste (et professeur de français) Johannes Aavik, qui s’efforça d’enrichir et d’embellir la langue littéraire. Il utilisa abondamment les ressources fournies par le finnois et les dialectes, mais créa également des mots et des morphèmes grammaticaux artificiels. Le français inspira nombre de ses propositions. Parallèlement à cette « rénovation linguistique » (keeleuuendus) lancée par Aavik, un autre courant, dirigé par Johannes Voldemar Veski, se concentra sur l’élaboration des normes et le développement de la terminologie. Plusieurs milliers de termes, dans tous les domaines du savoir et de la vie, furent créés pendant cette période. Au cours du , un rôle essentiel dans la fixation de la langue standard fut joué par les dictionnaires normatifs. Le premier d’entre eux parut en 1918. Pendant la période soviétique (1940-1991), la standardisation de la langue et le strict respect des normes devinrent une forme de résistance nationale. C’était une façon de s’opposer à l’idéologie soviétique, symbolisée par la langue russe. La langue était l’un des constituants fondamentaux de l’identité estonienne. Les autorités n’avaient d’ailleurs interdit ni l’étude scientifique de l’estonien ni son emploi dans aucun domaine de la vie publique (y compris l’éducation), ce qui permit aux Estoniens et à leur langue de résister à la russification et à la colonisation. Dans les années 1990, les attitudes à l’égard de la norme linguistique se sont assouplies. Les sociolectes et autres variétés linguistiques non standard sont revenus à l’honneur. Le 2004, l’estonien est devenu l’une des langues officielles de l’Union européenne. Lexique Quelques mots courants Nombres 0 : null 1 : üks 2 : kaks 3 : kolm 4 : neli 5 : viis 6 : kuus 7 : seitse 8 : kaheksa 9 : üheksa 10 : kümme 11 : üksteist 12 : kaksteist 13 : kolmteist 20 : kakskümmend 21 : kakskümmend üks 22 : kakskümmend kaks 29 : kakskümmend üheksa 30 : kolmkümmend 90 : üheksakümmend 100 : (üks)sada 101 : sada üks 110 : sada kümme 112 : sada kaksteist 120 sada kakskümmend 190 : sada üheksakümmend 200 : kakssada 900 : üheksasada tuhat : miljon : miljard Notes et références Notes Références Voir aussi Bibliographie Antoine Chalvin, Malle Rüütli, Katre Talviste, Manuel d'estonien, Paris, L'Asiathèque, 2011, 254 p. Antoine Chalvin, Johannes Aavik et la rénovation de la langue estonienne, Paris, ADEFO/L'Harmattan, 2010, 334 p. Mati Erelt(ed.), Estonian language, Tallinn : Estonian Academy Publishers, 2003, (Linguistica Uralica Supplementary Series ; 1), 412 p. . Urmas Sutrop, La langue estonienne, Tallinn, Institut estonien, 2002, 27 p. Articles connexes Langues dans les pays baltes Liste Swadesh de l'estonien Võro Liens externes . Langue officielle de l'Union européenne Inventaire de langues Langue officielle Langue en Estonie
1050
https://fr.wikipedia.org/wiki/Essif
Essif
En linguistique, l’essif est un cas grammatical exprimant un état ou une qualité. Il peut s'exprimer en français au moyen des locutions comme en tant que, en qualité de ou comme. Dans d’autres langues - en particulier le finnois et l’estonien -, il s’exprime au moyen d'un suffixe spécifique qui est ajouté au mot de base en finnois, et à la forme du génitif en estonien : En finnois, l’essif peut aussi exprimer le temps: maanantaina → "au lundi", kuudentena tammikuuta → "au ". Dans certaines expressions, il est utilisé avec son sens ancien de locatif : Luen lehtiä kotona → "Je lis les journaux à la maison" (i.e.: "dans le contexte de la maison") . Cette signification s’oppose à celle de l’inessif, qui veut dire "à l’intérieur de". Le basque présente un tel cas grammatical, utilisant le suffixe -tzat directement accolé à la racine. Cette même combinaison peut également exprimer le cas translatif. Les grammaires basques cependant l'appellent et l'ont toujours appelé "prolatif", bien que ne correspondant pas à l'acception de ce terme pour les linguistes. Cas grammatical
1051
https://fr.wikipedia.org/wiki/Espace%20vectoriel
Espace vectoriel
En mathématiques, plus précisément en algèbre linéaire, un espace vectoriel est un ensemble d'objets, appelés vecteurs, que l'on peut additionner entre eux, et que l'on peut multiplier par un scalaire (pour les étirer ou les rétrécir, les tourner, etc.). En d'autres termes, c'est un ensemble muni d'une structure permettant d'effectuer des combinaisons linéaires. Les scalaires sont généralement des nombres réels ou des nombres complexes, ou alors pris dans n'importe quel corps. Étant donné un corps K, un espace vectoriel E sur K est un groupe commutatif (dont la loi est notée +) muni d'une action « compatible » de K (au sens de la définition ci-dessous). Espace vectoriel Définitions Soit K un corps commutatif, comme le corps commutatif ℚ des rationnels, celui, ℝ, des réels ou celui, ℂ, des complexes (on parlera dans ces cas d'espace vectoriel rationnel, réel ou complexe). Un espace vectoriel sur K, ou K-espace vectoriel, est un ensemble E, dont les éléments sont appelés vecteurs (ou — plus rarement — points) muni de deux lois : une loi de composition interne « + » : E → E, appelée addition ou somme vectorielle, une loi de composition externe à gauche « • » : K × E → E, appelée multiplication par un scalaire, telles que les propriétés suivantes soient vérifiées. 1. (E,+) est un groupe abélien, autrement dit : la loi « + » est commutative, elle est associative, elle admet un élément neutre, pouvant être noté 0 ou 0E, appelé vecteur nul et, tout vecteur v a un opposé, noté –v. C'est-à-dire que pour tous vecteurs u, v et w de E : 2. La loi « • » vérifie les propriétés suivantes : elle est distributive à gauche par rapport à la loi « + » de E et à droite par rapport à l'addition du corps K, elle vérifie une associativité mixte (par rapport à la multiplication dans K), l'élément neutre multiplicatif du corps K, noté 1, est neutre à gauche pour •. C'est-à-dire que pour tous vecteurs u, v de E et tous scalaires λ, μ : Ces axiomes impliquent que E est non vide et pour tout vecteur u de E et tout scalaire λ : Les vecteurs (éléments de E) ont été ici écrits avec des lettres latines italiques, mais certains auteurs les notent par des lettres en gras, ou les surmontent d'une flèche. Exemples Voici quelques exemples d'espaces vectoriels qui servent entre autres en analyse ou en géométrie : L'espace nul est l'espace vectoriel sur un corps K comportant un unique élément, qui est nécessairement le vecteur nul. L'espace nul est l'objet initial et l'objet final de la sur K. Tout corps K se présente comme un K-espace vectoriel. L'addition et la multiplication de K fournissent respectivement l'addition vectorielle et la multiplication par un scalaire. Plus généralement, l'ensemble des n-uplets d'éléments de K, muni des lois usuelles, forme l'espace vectoriel Kn. Les matrices à n lignes et p colonnes à coefficients dans K forment l'espace M(K). Si K est commutatif, toute extension de corps de K, c'est-à-dire tout plongement de K dans un corps L, munit L d'une structure d'espace vectoriel sur K. L'ensemble C(X) des fonctions continues réelles ou complexes définies sur espace topologique X est un espace vectoriel (réel ou complexe). L'ensemble des (germes de) solutions d'une équation différentielle linéaire homogène est un espace vectoriel (réel ou complexe). L'ensemble des suites numériques satisfaisant une relation de récurrence linéaire est un espace vectoriel réel. Espaces vectoriels sur un corps non commutatif La définition ci-dessus est celle des espaces vectoriels à gauche sur K. Les espaces vectoriels à droite sur K sont les espaces vectoriels à gauche sur le corps opposé à K. Si le corps K est commutatif, les notions d'espaces vectoriels à gauche et à droite coïncident, et l'on peut alors noter à gauche ou à droite (au choix) la multiplication par un scalaire. Les notions de la théorie des espaces vectoriels qui ne sont valables, avec les définitions usuelles, que lorsque le corps est commutatif sont notamment celles liées à la multilinéarité (déterminant, trace, produits tensoriels, algèbre extérieure, algèbre sur un corps commutatif) ou aux fonctions polynomiales. Même si l'on ne se sert pas de ces notions, il faut faire attention à divers détails lorsque le corps de base n'est pas supposé commutatif. Par exemple, les homothéties n'existent (en tant qu'applications linéaires) que si le facteur scalaire est central dans le corps, et la multiplication scalaire doit être écrite du côté opposé des applications linéaires (donc avec le scalaire à droite si les applications linéaires sont notées à gauche de leurs arguments). Combinaison linéaire Les deux opérations sur un espace vectoriel permettent de définir les combinaisons linéaires, c'est-à-dire les sommes finies de vecteurs affectés de coefficients (scalaires). La combinaison linéaire d'une famille (v) de vecteurs ayant pour coefficients () est le vecteur ∑ v. Lorsque l'ensemble d'indexation I est infini, il est nécessaire de supposer que la famille () est à support fini, c'est-à-dire qu'il n'y a qu'un ensemble fini d'indices i pour lesquels est non nul. Sous-espace vectoriel Un sous-espace vectoriel de E est une partie non vide F de E stable par combinaisons linéaires. Muni des lois induites, F est alors un espace vectoriel. L'intersection d'une famille non vide (finie ou infinie) de sous-espaces vectoriels est un sous-espace vectoriel mais l'union, même finie, n'en est pas un en général. Famille de vecteurs et dimension Indépendance linéaire Une famille (v) de vecteurs de E est dite libre (sur K) ou encore les vecteurs de cette famille sont dits linéairement indépendants, si la seule combinaison linéaire des v égale au vecteur nul est celle dont tous les coefficients sont nuls. Dans le cas contraire, la famille est dite liée et les v sont dits linéairement dépendants. Une famille constituée d'un seul vecteur est libre si et seulement si ce vecteur est non nul. Un couple de vecteurs est lié si et seulement si les deux vecteurs sont colinéaires. Si (u, v) est un couple de vecteurs linéairement indépendants, alors (u, v), (u + v, v) et (u, u + v) sont eux aussi des couples de vecteurs non colinéaires, mais la famille (u, v, u + v) est toujours liée. Sous-espace vectoriel engendré Le sous-espace vectoriel engendré par une famille (v) de vecteurs, noté ((v)), est le plus petit sous-espace (au sens de l'inclusion) contenant tous les vecteurs de cette famille. De manière équivalente, c'est l'ensemble des combinaisons linéaires des vecteurs v. La famille engendre E, ou encore est génératrice, si le sous-espace qu'elle engendre est E tout entier. Une famille B de vecteurs de E est une base de E si elle est libre et génératrice ou, ce qui est équivalent, si tout vecteur de E s'exprime de manière unique comme combinaison linéaire des éléments de B. L'existence d'une base pour tout K-espace vectoriel E se déduit du théorème de la base incomplète. Définition de la dimension Étant donné un espace vectoriel E sur un corps K, toutes les bases de E ont le même cardinal, appelé dimension de E. La dimension de l'espace Kn est n. Tout espace vectoriel de dimension 1 est appelé droite vectorielle. Tout espace de dimension 2 est appelé plan vectoriel. Deux espaces vectoriels sur K sont isomorphes (c'est-à-dire reliés par un isomorphisme) si et seulement s'ils sont de même dimension. Application linéaire Soient E et F deux espaces vectoriels sur un même corps K. Une application de E vers F est dite linéaire si elle est additive et commute à la multiplication par les scalaires : Autrement dit, préserve les combinaisons linéaires. L'ensemble des applications linéaires de E dans F est souvent noté L(E, F). Si K est commutatif, L(E, F) est un sous-espace vectoriel de l'espace des fonctions de E dans F. Toute composée d'applications linéaires est linéaire. L'ensemble L(E, E) des endomorphismes de E se note L(E). Un isomorphisme d'espaces vectoriels est une application linéaire bijective. Un automorphisme est un endomorphisme bijectif. L'ensemble des automorphismes de E est le groupe linéaire GL(E). Noyau et image Pour toute application linéaire f de E dans F, les vecteurs x de E tels que f(x) = 0 forment un sous-espace vectoriel de E, appelé le noyau de f et noté Ker(f) ; les vecteurs f(x) pour x dans E forment un sous-espace vectoriel de F, appelé l'image de f et noté Im(f) ; f est injective si et seulement si Ker(f) = {0}, surjective si et seulement si Im(f) = F ; la dimension de Im(f), appelée le rang de f, est inférieure ou égale à celles de E et F. Elle est reliée à celles de E et Ker(f) par le théorème du rang : + Le graphe de f est un sous-espace vectoriel de E × F, dont l'intersection avec E × {0} est Ker(f) × {0}. Forme linéaire Une forme linéaire sur un K-espace vectoriel E est une application linéaire de E dans K. Si K est commutatif, les formes linéaires sur E forment un K-espace vectoriel appelé l'espace dual de E et noté E*. Les noyaux des formes linéaires non nulles sur E sont les hyperplans de E. Produits et sommes directes La somme F + G de deux sous-espaces vectoriels F et G, définie par coïncide avec le sous-espace vectoriel engendré par F⋃G. Cette construction se généralise à une famille quelconque (non vide) de sous-espaces vectoriels. La formule de Grassmann relie les dimensions de F et G à celles de leur somme et de leur intersection : Les deux sous-espaces F et G de E sont dits « en somme directe » lorsque la décomposition de tout vecteur de leur somme F + G en une somme de deux vecteurs, l'un appartenant à F et l'autre à G, est unique (il suffit pour cela que la décomposition de 0 soit unique, c'est-à-dire que F∩G = {0}). Cette définition se généralise à la somme d'une famille quelconque (non vide) (F) de sous-espaces. Si cette somme est directe alors les F sont d'intersection nulle deux à deux mais la réciproque est fausse. Une somme F + G, lorsqu'elle est directe, est notée F⊕G. Les sous-espaces F et G sont dits supplémentaires (l'un de l'autre) dans E s'ils sont en somme directe et si de plus, cette somme est égale à E. Le théorème de la base incomplète garantit que tout sous-espace vectoriel possède au moins un supplémentaire. Soit une famille (E) de K-espaces vectoriels. Le produit cartésien ∏ E hérite naturellement d'une structure de K-espace vectoriel, appelé espace vectoriel produit. Les familles à support fini forment un sous-espace vectoriel de ∏ E, appelé la somme directe des espaces E et noté ⊕ E. Lorsque tous les E sont égaux à K, ce produit et cette somme sont respectivement notés KI (l'espace des fonctions de I dans K) et K(I) (le sous-espace des fonctions à support fini, dont la dimension est égale au cardinal de I). Pour I = N, on construit ainsi l'espace KN des suites dans K et le sous-espace K(N) des suites à support fini. Espace vectoriel quotient Soit F un sous-espace vectoriel de E. L'espace quotient E/F (c'est-à-dire l'ensemble des classes d'équivalence de E pour la relation « u ~ v si et seulement si u – v appartient à F », muni des opérations définies naturellement sur les classes) est un espace vectoriel tel que la projection E → E/F (qui associe à u sa classe d'équivalence) soit linéaire de noyau F. Tous les sous-espaces supplémentaires de F dans E sont isomorphes à E/F. Leur dimension commune, lorsqu'elle est finie, s'appelle la codimension de F dans E. Propriétés des espaces vectoriels de dimension finie Soit E un espace vectoriel engendré par un nombre fini m d'éléments. La dimension n de E est finie, inférieure ou égale à m. Toute famille libre de E a au plus n vecteurs et toute famille génératrice en a au moins n. Pour qu'une famille d'exactement n vecteurs soit une base, il suffit qu'elle soit libre ou génératrice : elle est alors les deux. Le seul sous-espace de E de dimension n est E. Si K est commutatif, l'espace dual E* de E est également de dimension n, d'après le théorème de la base duale. Si K est commutatif et si n ≠ 0, l'ensemble des formes n-linéaires alternées sur E est un espace vectoriel de dimension 1. Ce résultat est à la base de la théorie du déterminant. On déduit du théorème du rang que pour toute application linéaire f de E dans un espace de même dimension n, Si K est commutatif, alors l'application de M(K) dans L(K, K) qui, à toute matrice A, associe l'application linéaire X ↦ AX, est un isomorphisme d'espaces vectoriels. Plus généralement, toute application linéaire entre deux espaces munis chacun d'une base finie est représentable par une matrice. Structures connexes Structures relatives Une paire d'espaces vectoriels est la donnée d'un espace vectoriel et d'un sous-espace de celui-ci. Plus généralement, un espace vectoriel peut être filtré par la donnée d'une suite croissante ou décroissante de sous-espaces. Un drapeau sur un espace vectoriel E de dimension finie est une suite strictement croissante de sous-espaces, de l'espace nul à E. Un espace vectoriel réel de dimension finie peut être orienté par le choix d'une orientation sur ses bases. Un espace vectoriel gradué est une famille d'espaces vectoriels, généralement indexée par ℕ, ℤ ou ℤ/2ℤ. Un morphisme entre deux tels espaces vectoriels gradués est alors une famille d'applications linéaires qui respecte la graduation. Structures algébriques Un module M sur un anneau A est un groupe additif muni d'une loi externe sur M à coefficients dans A, compatible avec l'addition sur M et avec les opérations sur A. Il ne dispose en général ni de base ni de supplémentaires. Un espace vectoriel est simplement un module sur un corps. Une algèbre est un espace vectoriel muni d'une multiplication distributive par rapport à l'addition et compatible avec la loi de composition externe. Une algèbre de Lie est un espace vectoriel muni d'un crochet de Lie compatible avec la loi de composition externe. Structures topologiques et géométriques Un espace affine est un ensemble muni d'une action libre et transitive d'un espace vectoriel. Un espace vectoriel euclidien est un espace vectoriel réel de dimension finie muni d'un produit scalaire. Un espace vectoriel réel ou complexe est dit normé lorsqu'il est muni d'une norme. Par exemple, les espaces de Banach, dont les espaces de Hilbert qui généralisent la notion d'espace vectoriel euclidien, sont des espaces vectoriels normés. Si K est un corps muni d'une topologie, un espace vectoriel topologique sur K est un K-espace vectoriel muni d'une topologie compatible, c'est-à-dire que l'addition et la multiplication par un scalaire doivent être continues. C'est le cas entre autres des espaces vectoriels normés et des espaces de Fréchet. Un fibré vectoriel est une surjection d'un espace topologique sur un autre, telle que la préimage de chaque point soit munie d'une structure d'espace vectoriel compatible continûment avec les structures des préimages des points voisins. Historique La notion d'espace vectoriel naît conceptuellement de la géométrie affine avec l'introduction des coordonnées dans un repère du plan ou de l'espace usuel. Vers 1636, Descartes et Fermat donnèrent les bases de la géométrie analytique en associant la résolution d'une équation à deux inconnues à la détermination graphique d'une courbe du plan. Afin de parvenir à une résolution géométrique sans utiliser la notion de coordonnées, Bolzano introduisit en 1804 des opérations sur les points, droites et plans, lesquelles sont les précurseurs des vecteurs. Ce travail trouve un écho dans la conception des coordonnées barycentriques par Möbius en 1827. L'étape fondatrice de la définition des vecteurs fut la définition par Bellavitis du bipoint, qui est un segment orienté (une extrémité est une origine et l'autre un but). La relation d'équipollence, qui rend équivalents deux bipoints lorsqu'ils déterminent un parallélogramme, achève ainsi de définir les vecteurs. La notion de vecteur est reprise avec la présentation des nombres complexes par Argand et Hamilton, puis celle des quaternions par ce dernier, comme des éléments des espaces respectifs ℝ et ℝ. Le traitement par combinaison linéaire se retrouve dans les systèmes d'équations linéaires, définis par Laguerre dès 1867. En 1857, Cayley introduisit la notation matricielle, qui permit d'harmoniser les notations et de simplifier l'écriture des applications linéaires entre espaces vectoriels. Il ébaucha également les opérations sur ces objets. Vers la même époque, Grassmann reprit le calcul barycentrique initié par Möbius en envisageant des ensembles d'objets abstraits munis d'opérations. Son travail dépassait le cadre des espaces vectoriels car, en définissant aussi la multiplication, il aboutissait à la notion d'algèbre. On y retrouve néanmoins les concepts de dimension et d'indépendance linéaire, ainsi que le produit scalaire apparu en 1844. La primauté de ces découvertes est disputée à Cauchy avec la publication de Sur les clefs algébriques dans les Comptes Rendus. Peano, dont une contribution importante a été l'axiomatisation rigoureuse des concepts existants — notamment la construction des ensembles usuels — a été un des premiers à donner une définition contemporaine du concept d'espace vectoriel vers la fin du . Un développement important de ce concept est dû à la construction des espaces de fonctions par Lebesgue, construction qui a été formalisée au cours du par Hilbert et Banach, lors de sa thèse de doctorat en 1920. C'est à cette époque que l'interaction entre l'analyse fonctionnelle naissante et l'algèbre se fait sentir, notamment avec l'introduction de concepts clés tels que les espaces de fonctions p-intégrables ou encore les espaces de Hilbert. C'est à cette époque qu'apparaissent les premières études sur les espaces vectoriels de dimension infinie. Translations Sans disposer d'une définition des espaces vectoriels, une approche possible de la géométrie plane se fonde sur l'étude d'un plan affine de Desargues P. Il comporte des points et des droites, avec une relation d'appartenance appelée incidence, dont les propriétés donnent un sens à l'alignement des points et au parallélisme des droites. On appelle homothétie-translation toute transformation de P préservant l'alignement et envoyant toute droite sur une droite parallèle. Hormis l'identité (considérée à la fois comme une homothétie et une translation), une telle transformation fixe au plus un point ; elle est appelée homothétie si elle fixe un point O, qui est alors son centre ; elle est appelée une translation sinon. L'ensemble des homothéties de centre fixé O forment un groupe commutatif pour la loi de composition, indépendant de O à isomorphisme près, noté K*. Il est possible d'adjoindre un élément 0 pour former un corps K, dont la loi d'addition est encore définie à partir de P. Tout scalaire non nul correspond à une unique homothétie de centre O, et on dit que est son rapport. L'ensemble des translations de P forme un K-espace vectoriel, ses lois étant les suivantes : La somme vectorielle de deux translations t et t''' est leur composée qui est une translation ; La multiplication d'une translation t par un scalaire non nul de K est la conjugaison de t par une homothétie h de centre quelconque et de rapport , autrement dit la transformation , qui est une translation. Le vecteur nul est l'identité. L'opposé d'un vecteur représenté par une translation t est le vecteur défini par t. Tout ceci se généralise aux espaces affines d'incidence (ou synthétiques) de dimensions (finies ou infinies) supérieures ou égales à 3 (ils sont alors de Desargues). Mais dans ce cas, si le nombre d'éléments des droite est égal à 2, la relation de parallélisme entre droites doit être incluse dans la définition des espaces affines. Donc, il y a intrinsèquement un espace vectoriel « sous-jacent » à tout plan affine de Desargues et à tout espace affine d'incidence. Ces considérations permettent de faire le lien entre une approche moderne de la géométrie fondée sur l'algèbre linéaire, et une approche axiomatique. Notes et références Notes Références Voir aussi Bibliographie Helmut Boseck, , 1967 , '', 1955, rééd. 1990 Lien externe Articles connexes Réduction d'endomorphisme et Diagonalisation (méthodologie pour déterminer des formes normales des opérateurs) Tenseur (objet utile en géométrie et en physique) Espace vectoriel Algèbre linéaire Algèbre générale Structure algébrique Module
1053
https://fr.wikipedia.org/wiki/Ergol
Ergol
Un ergol, dans le domaine de l'astronautique, est une substance homogène employée seule ou en association avec d'autres substances et destinée à fournir de l'énergie. Les ergols sont les produits initiaux, séparés, utilisés dans un système propulsif à réaction. Ils sont constitués d'éléments oxydants (comburant) et réducteurs (carburant ou combustible). Les termes correspondants en anglais sont propellant et fuel. Le terme d’ergols résiduels est employé pour désigner les ergols imbrûlés. On assimile parfois ergols et propergols. Classement Les ergols sont classés selon : leur état : solide, liquide, gazeux ou hybrides (liquide-solide) ; le nombre des constituants : monergol, diergol (ou biergol), triergol ; leur température de conditionnement : cryotechniques, stockables, haute température (plus rares). Propriétés recherchées Les propriétés recherchées des ergols sont : une densité élevée pour réduire le volume des réservoirs (plus d'énergie par mètre cube emporté) ; une température d'ébullition la plus élevée possible (en lien avec la faible pression en altitude) ; une énergie de combustion (ou de décomposition) élevée ; des produits de combustion stables (faible dissociation) ; des produits de combustion à faible masse molaire. Principaux ergols Liquides Liste des principaux ergols liquides : Réducteurs (carburants) hydrogène liquide (LH2) ; hydrazine (formule ) ; hydrate d'hydrazine ; monométhylhydrazine (MMH) ; diméthylhydrazine asymétrique (UDMH) ; RP-1 (kérosène ultra-raffiné) ; syntin (kérosène de synthèse qui fut utilisé par Soyouz-U2) ; éthanol ; éther éthylique ; essence de térébenthine. Oxydants (comburants) oxygène liquide (LOX) ; peroxyde d'azote (NTO) (formule ) ; peroxyde d'hydrogène (formule ) ; acide nitrique fumant rouge inhibé (IRFNA) ; acide perchlorique ; tétrafluorohydrazine ; fluor liquide ; . Solides Liste des principaux ergols solides : perchlorate d'ammonium ; nitrate de potassium. Vers des réservoirs de combustible « autophage » ? C'est un principe proposé par des chercheurs anglais et ukrainiens : Plutôt qu'une chambre solide contenant un carburant liquide, ils proposent d'utiliser une chambre solide elle-même constituée de carburant. Cette chambre « se mangerait elle-même » et la fusée s'allégerait un peu plus au fur et à mesure de la montée dans l'atmosphère. De premiers tests laissent penser que cette approche n'empêcherait pas un bon contrôle de la poussée (throttleability). Gazeux Liste des principaux ergols gazeux (Ou utilisé sous cette forme lors de la propulsion) : Xénon Mercure Bismuth Iode Argon Krypton Bibliographie Droit français : arrêté du relatif à la terminologie des sciences et techniques spatiales. Notes et références Articles connexes Hypergolique Propulsion spatiale Propergol liquide
1054
https://fr.wikipedia.org/wiki/%C3%89mile%20Benveniste
Émile Benveniste
Émile Benveniste (prononciation : /bɛnvenist/), né à Alep (Syrie) le et mort à Versailles le , est un linguiste français. Né Ezra Benveniste, il a été naturalisé français en 1924. Il s'est illustré par ses travaux tant dans le domaine de la grammaire comparée des langues indo-européennes que dans celui de la linguistique générale. Biographie Ses deux parents sont instituteurs de l'Alliance israélite universelle dans l'Empire ottoman, en Tunisie, puis en Bulgarie. Titulaire d'une bourse de l'Alliance israélite universelle, il fait ses études à Paris au Petit séminaire israélite à partir de 1913. Après le baccalauréat, il abandonne les études religieuses. Il est licencié ès lettres en 1920, à 18 ans, et agrégé de grammaire en 1922. Il fait son service militaire au Maroc pendant la guerre du Rif. Élève d'Antoine Meillet à l'École pratique des hautes études, il enseigne lui-même dans cet établissement de 1927 à 1969, et au Collège de France, où il occupe la chaire de grammaire comparée de 1937 à 1969. Fait prisonnier en 1940, il parvient à s'évader en et se réfugie en Suisse, où il restera jusqu'en 1945, alors qu'il avait été exclu du Collège de France par le régime de Vichy. Il exerce les fonctions de secrétaire adjoint de la Société de linguistique de Paris de 1945 à 1959, puis celle de secrétaire de 1959 à 1970. En 1960, il est élu membre de l'Académie des inscriptions et belles-lettres et, en 1965, membre de l'Accademia dei Lincei. En 1961, il fonde, avec Claude Lévi-Strauss et Pierre Gourou, L'Homme, revue française d'anthropologie. De 1964 à 1975, il dirige la Revue des études arméniennes (REA). En , il est victime d'une attaque cérébrale qui le laisse aphasique. Il meurt sept ans plus tard, en 1976, à l'âge de 74 ans. Apport scientifique Sa production scientifique s'est étalée sur une cinquantaine d'années, à partir de 1922. Les dix premières années sont principalement consacrées à sa discipline d'origine, l'iranien, avec quatre ouvrages et de très nombreux articles. À partir de 1932, il se tourne véritablement vers la linguistique comparée des langues indo-européennes ; c'est dans cette période qu'il acquiert une dimension internationale, notamment avec la publication de sa thèse principale, Les Origines de la formation des noms en indo-européen (1935), où il propose une théorie de la racine indo-européenne qui a fortement marqué l'évolution ultérieure de la linguistique indo-européenne. Après la période difficile de la guerre, il fait paraître en 1948 Noms d'agent et noms d'action en indo-européen, qui est, selon , « le plus beau livre de grammaire comparée qu'on ait écrit au vingtième siècle... le chef-d'œuvre, la cime du structuralisme classique européen ». Watkins cite comme « l'apport le plus durable de Benveniste à la grammaire comparée » l'idée résumée dans cette phrase (extraite de la conclusion de son article sur « Actif et moyen dans le verbe ») : « Il est dans la nature des faits linguistiques, puisqu'ils sont des signes, de se réaliser en oppositions et de ne signifier que par là. » Dans la dernière période, l'intérêt pour la linguistique générale, aussi bien d'un point de vue formel que dans ses rapports avec l'organisation sociale, passe au premier plan mais toujours en lien direct avec la linguistique indo-européenne. Cet intérêt s'exprime pleinement dans ses Problèmes de linguistique générale (parus en 1966 et 1974), qui introduisent en France la linguistique de l'énonciation et dans sa dernière œuvre, le Vocabulaire des institutions indo-européennes (parue en 1969, quelques semaines avant que la maladie ne le frappe), fruit d'une démarche très novatrice par laquelle il cherche des significations sociales profondes, des « structures enfouies » sous les systèmes de distinctions sémantiques. Il s'intéresse ainsi au problème fondamental de la signification du vocabulaire qu'il traite en plusieurs thèmes : économie, parenté, statuts sociaux dans le premier volume, royauté, droit, religion dans le second. L'originalité de l'ouvrage est d'aboutir à des résultats intéressant l'histoire et l'anthropologie à partir de faits purement linguistiques. Principaux ouvrages Essai de grammaire sogdienne, t. II : Morphologie, syntaxe et glossaire, Paris, P. Geuthner, 1929. Les infinitifs avestiques, Paris, Adrien Maisonneuve, 1935. Origines de la formation des noms en indo-européen, Paris, Adrien Maisonneuve, 1936. Noms d'agent et noms d'action en indo-européen, Paris, Adrien Maisonneuve, 1948. « Inscriptions de Bactriane », Journal asiatique, 1961, p. 113-152. « Nouvelles inscriptions de Bactriane », Comptes-rendus des séances de l'année 1961 avril-juin, 1961, 105e année, n° 2. Hittite et indo-européen : études comparatives, Paris, Adrien Maisonneuve, 1962. Problèmes de linguistique générale, t. 1, Paris, Gallimard, 1966. Problèmes de linguistique générale, t. 2, Paris, Gallimard, 1974. Le Vocabulaire des institutions indo-européennes, 2 tomes, Paris, Minuit, 1969. The Persian religion, according with the chief Greek texts, Paris, Geuthner, 1974. Baudelaire, présentation et transcription de Chloé Laplantine, Limoges, Lambert-Lucas, 2011. Dernières Leçons : Collège de France 1968 et 1969, présentées et éditées par Jean-Claude Coquet et Irène Fenoglio, Paris, Gallimard/Seuil/EHESS, 2012. Notes et références Voir aussi Bibliographie Emilie Brunet et Rudolf Mahrer, Relire Benveniste. Réceptions actuelles des problèmes de linguistique générale, Louvain la neuve, éd. Academia (coll. Sciences du langage. Carrefours et points de vue), 2011 Gérard Dessons, Émile Benveniste, l'invention du discours, éditions In Press, 2006 (réédition d'un essai paru en 1993 aux éditions Bertrand-Lacoste : le texte a été remanié, réactualisé et augmenté). Irène Fenoglio, « Les notes de travail d'Émile Benveniste » in Langage & Société 127, Paris, MSH, 2009, . Irène Fenoglio, « Conceptualisation et textualisation chez Émile Benveniste », in Modèles Linguistiques tome XXX-1, vol. 59, 2009, . Irène Fenoglio, « Déplier l'écriture pensante pour re-lire l'article publié. les manuscrits de "l'appareil formel de l'énonciation" d'Emile Benveniste" in Relire Benveniste. Réceptions actuelles des problèmes de linguistique générale, Louvain la neuve, éd. Academia (coll. Sciences du langage. Carrefours et points de vue), 2011, . Irène Fenoglio, Jean-Claude Coquet, Julia Kristeva, Charles Malamoud, Pascal Quignard, Autour d'Emile Benveniste, Seuil, 2016. Eva Krásová, Z hlediska smyslu... Émile Benveniste a zrod strukturalismu. Prague: Univerzita Karlova, Filozofická fakulta, 2018. (Tchèque) Chloé Laplantine, Émile Benveniste, l'inconscient et le poème (thèse de doctorat de Paris 8 - Saint-Denis), Limoges, Éditions Lambert-Lucas, 2011. Serge Martin (dir.), Émile Benveniste pour vivre langage, éditions L'Atelier du grand tétras, 2009 (comprend des textes inédits manuscrits retranscrits de Benveniste). Claudine Normand et Michel Arrivé (dir.), Émile Benveniste, vingt ans après, colloque de Cerisy, 12-, numéro spécial de Linx, 1997. Guy Serbat (éd.), E. Benveniste aujourd'hui (Actes du colloque international du CNRS, Université François-Rabelais, Tours, ), Paris, Société pour l'information grammaticale, 1984. Jean-Claude Milner, Le périple structural, Le Seuil, 2002. Aya Ono, La Notion d'énonciation chez Émile Benveniste, préface de Michel Arrivé et postface de Claudine Normand, Limoges, Éditions Lambert-Lucas, 2007. Daniel Delas, Saussure, Benveniste et la littérature In: Langages, 39e année, n°159. 2005. Linguistique et poétique du discours. À partir de Saussure. La composition de ce numéro a été confiée à Jean-Louis Chiss et Gérard Dessons. pp. 56–73. , mémoire dirigé par Bernard Colombat, Laboratoire d'Histoire des Théories Linguistiques. Giuseppe D'Ottavi, Irène Fenoglio (dir.), Émile Benveniste. 50 ans après les Problèmes de linguistique générale, Paris, Éditions Rue d'Ulm, 2019. Articles connexes Linguistes célèbres (1866-1955) Liens externes Agrégé de grammaire Linguiste français Indo-européaniste Indianiste français Iranologue Professeur au Collège de France École pratique des hautes études Structuralisme Iranologue français Membre de l'Académie des inscriptions et belles-lettres Membre de l'Académie des Lyncéens Membre de la Société de linguistique de Paris Naissance en mai 1902 Naissance en Syrie Naissance à Alep Décès en octobre 1976 Décès à 74 ans Décès à Versailles
1055
https://fr.wikipedia.org/wiki/Esp%C3%A8ce%20disparue
Espèce disparue
En biologie et en écologie, une espèce disparue est une population réputée n’avoir plus aucun représentant vivant, ni dans la nature, ni en captivité. Avant l’apparition du clonage, on considérait que le moment de l’extinction correspondait à la mort du dernier individu de l’espèce. Si les techniques de conservation de tissus ou de gamètes se perfectionnent, le clonage permettra peut-être de dupliquer le dernier individu connu d’une espèce végétale (ou quelques individus), mais non de retrouver la diversité génétique de l’espèce, et sans garantie que l’espèce puisse survivre dans la nature (par exemple si son pollinisateur spécialisé et/ou son habitat ont également disparu). Depuis 1963, la liste rouge de l'UICN dresse la liste des espèces menacées ou disparues. En 1988, toutes les espèces connues d'oiseaux avaient été évaluées par l’UICN ainsi qu'en 1996, l’état de conservation de toutes les espèces de mammifères. Parmi les espèces décrites dans l'édition de 1996, 25 % des mammifères et 11 % des oiseaux étaient classées comme étant menacées. En 2006, l'UICN considère qu’une espèce de mammifères sur quatre, une espèce d’oiseaux sur huit, et un tiers des amphibiens sont menacés. Actuellement, une espèce animale ou végétale disparaît toutes les dix-sept minutes. Situation actuelle Les paléontologues estiment qu’en temps normal, et à échelle géologique, la grande majorité des espèces « durent » de 1 à 10 millions d’années (5 millions en moyenne), avant soit de disparaître, soit de se modifier au point que l’on doive parler de nouvelles espèces. La Terre a connu cinq extinctions majeures induites par des catastrophes géoclimatiques, la dernière étant celle qui a connu la disparition des grands dinosaures (une seule famille de ce groupe a survécu : les oiseaux). Un nombre croissant de scientifiques et d’ONG craignent que l’humanité soit en train de provoquer une sixième extinction de masse, avec un rythme d’extinction qui semble encore plus rapide que lors des grandes crises naturelles précédentes. À titre d’exemple en « rythme normal », une espèce d’oiseau devrait disparaître par siècle, or c’est presque une espèce d’oiseau par an, cent fois plus, qui disparaît depuis le . Au début du , cinq espèces de plantes vasculaires disparaissent chaque jour (une tous les deux ans, rien que pour la Picardie dans le nord de la France (source : Conservatoire botanique de Bailleul), contre une tous les 25 ans dans le monde en temps normal. Plus de 260 vertébrés auraient récemment disparu (au ), alors que pour un nombre estimé à espèces de vertébrés, c’est une disparition par siècle qui devrait se produire. L’estimation des disparitions actuelles est probablement sous-estimée, en raison d’un grand nombre de petits invertébrés inconnus ou non suivis. Données relatives Pour les espèces récemment disparues (totalement, ou seulement dans leur milieu d’origine en cas de survie en captivité), et notamment dans les régions reculées ou peu prospectées par les biologistes, la notion de « disparu » est à considérer comme une probabilité élevée. Cela est rare, mais il arrive parfois que l’on retrouve un ou quelques individus d’une espèce que l’on croyait disparue : ainsi une tortue aquatique, Rafetus swinhoei pouvant atteindre de long pour , que l’on considérait comme éteinte dans la nature (seuls trois individus étaient connus en captivité) a récemment été observée à l’état sauvage sur les rives d’un lac du nord du Vietnam. Cette espèce reste bien sûr classée comme la plus menacée au monde parmi les tortues d’eau douce. Peut-on et doit-on remplacer certaines espèces disparues ? C’est une question scientifique à la fois éthique et pratique, qui ne fait pas l’objet de consensus, mais qui est étudiée. Sur le plan éthique, laisser faire des pratiques prédatrices et des gouvernances à courte vue, c'est nier non seulement le droit des autres espèces à exister, mais aussi le droit des générations humaines futures à bénéficier des mêmes ressources et « services-rendus par la biosphère » que les générations actuelles. Sur le plan pratique, certaines espèces « récemment » disparues (grands herbivores, grands carnivores) jouaient en effet des rôles fonctionnels et écopaysagers qui ne peuvent être remplacés par l’homme ou d’autres animaux plus petits. Certaines, comme le Sophora toromiro de l’île de Pâques, y ont été réintroduits à partir de graines et plants conservés dans les carpothèques et jardins botaniques du monde. Des scientifiques étudient si d’autres espèces proches et adaptées aux mêmes milieux et climats pourraient les « remplacer ». Ils envisagent des expérimentations (en milieu confiné) par exemple d’introduction du lion ou de l’éléphant africain en Amérique du Nord pour respectivement « remplacer » le lion des cavernes et les espèces de mammouths qui n’ont pas survécu à l’occupation préhistorique. Notes et références Voir aussi Extinction des espèces Liste rouge de l'UICN Liste des espèces végétales disparues Liste des espèces animales disparues dont Liste des espèces d'oiseaux disparues Conservation de la nature Équilibre écologique, prédateur, proie Paléontologie de:Ausgestorbene Art en:Extinct species
1056
https://fr.wikipedia.org/wiki/Esp%C3%A8ce%20extirp%C3%A9e
Espèce extirpée
En biologie et écologie, une espèce extirpée est une espèce qui n'existe plus à un endroit ou dans un pays, mais que l'on peut retrouver dans d'autres régions du monde. On parle d'extinction locale. Voir aussi Extinction des espèces Statut de conservation
1057
https://fr.wikipedia.org/wiki/Esp%C3%A8ce%20en%20danger%20critique
Espèce en danger critique
Une espèce en danger critique (ou en danger critique d'extinction) est un statut de conservation qui désigne toute espèce en péril exposée à une disparition ou à une extinction imminente. C'est le dernier niveau de risque avant l'extinction de l'espèce à l'état sauvage. Plusieurs organismes se proposent d'évaluer le niveau de menace sur les différentes espèces (UICN, COSEPAC) et une espèce peut donc être considérée comme en danger critique par l'un mais pas par les autres. 878 espèces auraient totalement disparu. Des études portent sur les traits propres aux espèces qui disparaissent et sur les facteurs de vulnérabilités (causes de disparition qui peuvent varier selon l'espèces) Définition de l'Union internationale pour la conservation de la nature Pour être ajoutée à la Liste Rouge des Espèces en Danger Critique d'Extinction, une espèce doit remplir n'importe lequel des critères suivants (A-E) ("3G/10A" signifie trois générations ou 10 ans , avec un maximum de 100 ans ; "IM" signifie Individus Matures) : A Réduction de la taille de population : 1. Si les causes de la réduction de population ne sont plus d'actualité et peuvent être inversées, il faut que la population ait connu une réduction d'au moins 90% ; 2. 3. et 4. Sinon, la population doit avoir connu une réduction d'au moins 80%. B Le phénomène se produit sur une surface inférieure à 100 km² ou l'aire d'occupation est inférieure à 10 km² : 1. Une brutale fragmentation de l’habitat ou un habitat réduit à un seul lieu ; 2. Un déclin en termes de nombre d’individus, aire d’occupation, aire / ampleur / qualité de l’habitat, nombre de lieux / sous-populations, ou nombre d’IM ; 3. D'extrêmes fluctuations en termes de nombre d’individus, aire d’occupation, nombre de lieux / sous-populations, ou nombre d'IM. C Déclin d'une population de moins de 250 IM et soit : 1. Un déclin de 25% sur 3G/10A ; 2. D'extrêmes fluctuations, ou plus de 90% des IM appartenant à une seule sous-population, ou moins de 50 IM dans n’importe laquelle des sous-populations. D Déclin d'une population de moins de 50 IM E Au moins 50% de risque de devenir une espèce éteinte, à l'état sauvage, sur les prochaines 3G/10A. Début 2019, la liste de l'UICN comptait espèces en danger critique d'extinction. Parmi celles-ci, on compte espèces de végétaux et espèces d'animaux. Une liste des cent espèces les plus menacées a également été établie en 2012. Statistiques par groupes de l'UICN Les chiffres suivants ne tiennent pas compte des espèces classées dans la catégorie « données insuffisantes ». Mammifères En ce qui concerne les mammifères, 188 espèces sur étaient considérées en danger critique d'extinction dans le monde en 2008, mais ce chiffre pourrait être supérieur en raison du fait que 836 mammifères étaient classés dans la catégorie « données insuffisantes ». Sur 188 espèces de primates, 64 sont en danger critiques d'extinction. Oiseaux En ce qui concerne les oiseaux, 225 espèces sur recensées étaient considérées en danger critique d'extinction dans le monde en 2016. Amphibiens Les amphibiens sont le groupe le plus menacé : sur que comptait la planète en 2009, 484 étaient en danger critique d'extinction. Dix ans plus tard, ce nombre s'élevait déjà à 550. Quelques exemples Quelques espèces classées comme « en danger critique d'extinction » par l'UICN : Primates Gibbon de Hainan de 25 à 28 individus Grand Hapalémur 526 individus Gorille de l'Est Gorille de l'Ouest de 80 000 à 100 000 individus Orang-outan de Sumatra 14 064 Rhinopithèque du Tonkin Autres mammifères Addax Âne sauvage d'Afrique et àne sauvage de Somalie Chameau sauvage de Tartarie Chat d'Iriomote Dorcopsis noir Marsouin du golfe de Californie, moins de 50 individus Rhinocéros de Java, environ 40 individus Rhinocéros de Sumatra, moins de 250 individus Roussette de Nouvelle-Guinée Oiseaux Albatros de Tristan Albatros des Galapagos Albatros d'Amsterdam Bécasseau spatule, une centaine de couples Canard de Laysan Condor de Californie Ibis chauve, environ 200 à 250 individus adultes Kakapo Pic d'Okinawa Pithécophage des Philippines Sterne d'Orient Reptiles Crocodile du Siam Crocodile des Philippines Iguane terrestre de la Jamaïque Amphibiens 71 espèces du genre Atelopus Lithobates sevosus, 60 à 100 individus Neurergus kaiseri Poissons Ange de mer commun Anguille d'Europe Apron du Rhône Mollusques Margaritifera marocana Insectes Risiocnemis seidenschwarzi Végétaux Aporosa fusiformis Bois d'éponge Dipterocarpus lamellatus, 12 individus Elaeocarpus bojeri, moins de 10 individus Euphorbia tanaensis, 4 individus adultes Ficus katendei, une cinquantaine d'individus adultes Gigasiphon macrosiphon, 33 individus Magnolia wolfii, moins de 5 individus Pinus squamata, moins de 25 individus Espèces en danger critique d'extinction décrites dans la Wikipédia francophone Consulter :Catégorie:Statut UICN En danger critique d'extinction Voir aussi Bibliographie Keith P., Allardi J., Moutou B., 1992 : Livre rouge des espèces menacées de poissons d’eau douce de France. Collection « Patrimoines naturels », 10, MNHN, CSP, CEMAGREF, Ministère de l’Environnement, Paris – 111 p. Articles connexes Espèce en danger | Espèce en péril | Espèce vulnérable | Liste des espèces menacées CITES Écologie Convention sur la diversité biologique Convention sur le commerce international des espèces de faune et de flore sauvages menacées d'extinction Arbres menacés Extinction | Conservation de la nature Écologie | Écosystème | Biologie | Faune | Flore | Botanique Braconnage | Chasse | Réglementation :Catégorie:Statut UICN En danger et la Liste rouge de l'UICN Liens externes www.especes-menacees.fr La grande galerie de l'évolution, acte III : les espèces en danger Les animaux en voie d'extinction, le dossier vidéo de francetv éducation. The Guardian, ,The 100 most endangered species on the planet – the list in full Notes et références Statut de conservation
1058
https://fr.wikipedia.org/wiki/Esp%C3%A8ce%20en%20danger
Espèce en danger
En biologie et écologie, l'expression « espèce en danger » s'applique à toute espèce risquant de disparaître à court ou moyen terme. Selon le congrès mondial de l'UICN de septembre 2016, , ce qu'un article du 10 août, dans la revue Nature traduit sous le titre « Les ravages des fusils, des filets et des bulldozers » aussi qualifiés de grands tueurs parmi les facteurs de régression de animales et végétales évaluées et classées en 2016 comme menacées ou quasi menacées de disparition sur la liste rouge de l'UICN. Définition Une espèce est déclarée menacée si elle répond à au moins un des critères précis (disparition de l'habitat, déclin important de sa population, érosion génétique, chasse excessive ou surpêche ) définis par l'UICN : Réduction des effectifs d'au moins 70% sur 10 ans ou 3 générations si les causes de cette diminution sont connues, réversibles et ont cessé, ou d'au moins 50% si les causes ne sont pas certaines, non réversibles ou encore présentes. Zone d'occupation de moins de 500km², avec une population en déclin, très fluctuante ou fragmentée Population de moins de 2500 individus matures et en déclin continu Population de moins de 250 individus matures Probabilité d'extinction de l'espèce d'au moins 20% dans les 20 ans ou 5 générations à venir Utilité Ces critères, généralement établis ou validés par l'Union internationale pour la conservation de la nature (UICN), permettent d'affiner le risque d'extinction de l'espèce (actuel, à court et moyen terme) et de lui attribuer un statut de conservation et parfois de protection (espèce protégée). Dans le cas des races locales domestiquées, il s'agit du patrimoine agricole et souvent d'espèces moins productives, mais rustiques et demandant moins de frais d'entretien. La préservation de certaines de ces espèces pourrait notamment faire partie des solutions d'adaptation au dérèglement climatique ou à la diffusion de certaines maladies (maladies animales ou zoonoses transmissibles à l'homme). Classements internationaux La liste rouge de l'UICN classe les espèces menacées en trois catégories, selon l'importance du risque de leur extinction : « vulnérable », « en danger » et « en danger critique d'extinction ». En 2019, l'UICN compte 9754 espèces dans la catégorie "espèce en danger". Une classification un peu similaire existe pour les races locales domestiquées d'intérêt agricole. La convention de Washington (CITES) établissait une liste des espèces protégées selon trois catégories organisées en annexes : de la CITES de la CITES de la CITES Espèces menacées par pays (exemples ; source : UICN, 2004) : Colombie : 208 ; Mexique : 191 ; Équateur : 163 ; Brésil : 110 ; Chine : 86. Elles sont classées par groupes taxonomiques : Poissons ; Amphibiens ; Reptiles ; Oiseaux (Liste des oiseaux menacés) ; Mammifères. Canada Le Comité sur la situation des espèces en péril au Canada (COSEPAC) utilise le terme espèce en péril plutôt qu'espèce menacée, l'expression « espèce menacée » ne s'appliquant alors qu'à une partie des espèces pouvant disparaître. Selon la classification COSEPAC des espèces, une espèce menacée est une espèce en péril susceptible de devenir une espèce en danger de disparition dans un avenir plus ou moins proche si les pressions s'exerçant sur elle (facteurs limitants), comme la disparition de l'habitat, ne sont pas supprimées. Ce terme désigne le statut donné à l'espèce quand le deuxième niveau de risque d'extinction est atteint. Au Québec Avec la Loi sur les espèces menacées ou vulnérables, le gouvernement québécois s'est engagé à garantir la sauvegarde de l'ensemble de la diversité génétique du Québec. En 2018, de la flore et de la faune sont légalement désignées menacées ou vulnérables au Québec. Pour chaque espèce floristique légalement protégée au Québec, des plans de conservation seront élaborés afin d’identifier les actions à mettre en œuvre pour assurer leur survie à long terme. Les plans de conservation pour le Carex faux-lupulina et la Sagittaire à sépales dressés sous-espèce des estuaires sont maintenant disponibles. Monde Bien que la communication sur les espèces menacées porte surtout sur les animaux, et notamment les mammifères et les oiseaux, en nombre absolu, deux fois plus d'espèces de plantes ont disparu que d'espèces d'oiseaux, de mammifères et d'amphibiens réunies. Selon une étude récente (juin 2019) publiée dans Nature Ecology & Evolution, rien que dans les herbiers des musées on trouve 571 espèces de plantes éteintes au cours des 250 dernières années, ce qui est beaucoup plus (4 fois plus) que la liste officielle de l’UICN des plantes disparues. Néanmoins 5% des mammifères et oiseaux ont disparu, ce qui est énorme comparé aux plantes (seules 0,2% des plantes connues ont disparu). Ainsi : Le bois de santal du Chili dans le Pacifique sud, exploité pour son bois odorant, n’a jamais été revu depuis 1908. La trinity (Thismia americana), une plante sans feuilles vivant sous terre sauf pour épanouir ses fleurs a été décrite pour la première fois en 1912 dans une zone humide sablonneuse de Chicago, dans l'Illinois, elle a ensuite été détruite par le développement. Le nombre de plantes disparues est sous-estimé, par manque de suivi de la flore tropicale d’Afrique et d’Amérique du Sud et beaucoup d'espèces risquent bientôt d’aussi disparaître; Selon l’IPBES, plus d'un million d'espèces (dont 14% de la diversité végétale et animale) sont menacées d’extinction . Europe L'UICN qu'en Europe, rien que pour les mammifères ; 14 % des mammifères terrestres et 22 % des mammifères marins pourraient disparaître du territoire de l’, dont le vison d'Europe, le lynx pardelle et le Phoque moine de Méditerranée qui comptent parmi les plus menacées. La baleine grise n'a pas disparu mais ne semble plus fréquenter le littoral européen depuis plusieurs siècles. 27 % au moins des populations de mammifères sont en baisse (et on manque de données pour 30 % environ des espèces de mammifères). Les causes principales sont la perte, la dégradation et la fragmentation des habitats, les changements climatiques, la mortalité accidentelle (), la pollution et l’homme (chasse, poison, pièges, introduction volontaire ou non d'espèces invasives et concurrentielles des espèces autochtones). L'UICN note que certains plans de conservation ont efficacement sauvé quelques espèces (mais ils ne concernent que 8 % des mammifères européens, et pas dans tous les pays). Une évaluation de l'état des populations de mammifères est en cours. La commission a plusieurs fois alerté aussi sur l'importance de restaurer un réseau écologique européen, et de ne pas oublier les invertébrés et en particulier les invertébrés xylophages, souvent menacés par le manque de ressources en bois-morts ou sénescents dans les forêts européennes trop exploitées. De nombreuses espèces d'eau douce autrefois communes sont également en très forte régression ( reptiles ou amphibiens) ou menacées, dont l'anguille européenne (Anguilla anguilla). Plusieurs études observent également un déclin important chez les lichens et les champignons. France Il existe des listes rouges (nationales et régionales) d'espèces menacées. La France se classe parmi les dix pays hébergeant le plus d'espèces menacées sur la planète. Elle jouit d'une position unique au monde en termes de richesses naturelles. Via ses départements (La Réunion, Guyane, Martinique, Guadeloupe, Mayotte) et ses territoires et collectivités d'Outre-Mer, elle est présente dans cinq des trente-quatre points chauds du globe, ces zones où la diversité biologique s'avère la plus grande mais la plus en danger et où les espèces endémiques sont très nombreuses. La loi du 10 juillet 1976 protège déjà certaines espèces menacées en France. Elle en interdit la capture, la vente et l'achat et même la perturbation intentionnelle. En 2005, la loi concernait en métropole plus de animales sauvages (soit 52 % des vertébrés, 4 % des mollusques et 0,5 % des insectes, crustacés et échinodermes) et végétales (plus de 7 % des plantes, sans compter les mousses). Mais l'Outre-Mer concentre 80 % de la biodiversité or, la loi française ne s'exerce que sur ses départements, la Polynésie française, la Nouvelle-Calédonie et Wallis-et-Futuna possédant leur propre réglementation. Russie Costa Rica Le Costa Rica a mis en œuvre une politique de protection de la biodiversité : 25 % de son territoire est classé en parc national, réserve ou zone protégée. Afrique Espèces les plus menacées d'Afrique. Okapi L’okapi (Okapia johnstoni) est un mammifère originaire des forêts équatoriales d'Afrique centrale appartenant à la même famille que la girafe, les Giraffidae. Il est l'unique représentant du genre Okapia. Découvert en 1901 par Sir Harry Johnston, à qui il doit son nom, l'okapi est l'un des derniers grands mammifères à être observé scientifiquement sur la planète. Les principales raisons du déclin des populations d'okapis sont le braconnage, la perte des habitats naturels, ainsi que la présence de rebelles et de mineurs illégaux. D'après l'UICN, l'espèce est "proche de la catégorie la plus élevée de risque d'extinction". Gorille des montagnes Le gorille des montagnes vit dans la forêt tropicale humide qui couvre les monts Virunga, à la frontière de l'Ougande et du Rwanda. Il est actuellement dans la liste des espèces les plus menacées. Les braconniers chassent le gorille, pour sa viande, ses mains et son crâne qui rapportent énormément d’argent. Enfin, la déforestation, pratiquée pour faire des terres agricoles détruit son habitat. Le gorille est également victime de maladies telles que la pneumonie, la grippe ou d’autres maladies de l’homme qui lui sont mortelles. Malgré ces nombreuses menaces et le classement de l’espèce « en danger d’extinction » par l’UICN, les effectifs de Gorilla beringei beringei sont aujourd’hui en nette augmentation. Ils sont en effet passés d’environ 620 en 1989 à près de 1004 en 2018. Si la sous-espèce n’est pas encore tirée d’affaire, il s’agit du seul grand primate à avoir vu ses effectifs augmenter au cours des dernières décennies. Éléphants d'Afrique L’éléphant d’Afrique est le plus grand animal terrestre. Ses oreilles sont plus grandes que celles de l’éléphant d’Asie. De plus, tous les éléphants d’Afrique, mâles et femelles, possèdent des défenses, ce qui n’est pas le cas chez leurs cousins asiatiques. On distingue deux sous-espèces : l’éléphant de savane et l’éléphant de forêt. L’éléphant de savane est sensiblement plus grand que l’éléphant de forêt et ses défenses sont plus recourbées. De plus, l’éléphant de forêt a des oreilles plus arrondies. Les éléphants peuplent encore de nombreuses régions d’Afrique, mais cet animal aux dimensions impressionnantes continue de souffrir des graves menaces que sont le braconnage, la perte de son habitat et les conflits avec les hommes. L’éléphant d’Afrique est le plus touché par le braconnage pour l’ivoire. L’ivoire des défenses a toujours présenté une valeur marchande élevée. Souvent exporté en Asie, il sert à fabriquer des bijoux, des baguettes et des statuettes. Dans les années 1980, près de éléphants étaient abattus chaque année pour leurs défenses. Après l’interdiction du commerce de l’ivoire en 1989, la situation s’est sensiblement améliorée mais malgré cela, l’animal continue d’être chassé. Ces dernières années, la chasse aux éléphants et le commerce de l’ivoire ont même connu une forte hausse. Chaque année, éléphants sont tués pour leur précieux ivoire, principalement en Afrique. Au Fonds international pour la protection des animaux (IFAW), les organisations interviennent sur chaque maillon de la chaîne du trafic, en luttant contre le braconnage et les trafiquants, mais aussi en œuvrant à la réduction de la demande en produits dérivés d’animaux sauvages. Notes et références Annexes Bibliographie Aelys M. Humphreys, Rafaël Govaerts, Sarah Z. Ficinski, Eimear Nic Lughadha & Maria S. Vorontsova (2019 Global dataset shows geography and life form predict modern plant extinction and rediscovery ; Nature Ecology & Evolution (2019), 10 juin 2019. Brummitt, N. A., Bachman, S. P., Griffiths-Lee, J., Lutz, M., Moat, J. F., Farjon, A., ... & Aletrari, E. (2015). Green plants in the red: A baseline global assessment for the IUCN sampled Red List Index for plants. PloS one, 10(8), e0135152. Philippe Keith, Jean Allardi et Bernard Moutou, Livre rouge des espèces menacées de poissons d'eau douce de France et bilan des introductions, Collection Patrimoines Naturels 10, Muséum National d'Histoire Naturelle, 1992 , A. Purvis, J. L. Gittleman, G. Cowlishaw, & G. M. Mace (2000) Predicting extinction risk in declining species. Proc. R. Soc. Lond. B 267, 1947–1952 |résumé Articles connexes Espèce en péril | Espèce vulnérable, Liste d'espèces menacées d'après l' de la Convention de Washington Arbres menacés Extinction | | Conservation de la Nature | Biodiversité Écologie | Écosystème | Biologie | Faune | Flore | Botanique | Vie sauvage Braconnage | Chasse | Réglementation Convention sur le commerce international des espèces de faune et de flore sauvages menacées d'extinction (CITES) Point chaud de biodiversité Programme européen pour les espèces menacées Sauvegarde de la Création Liens externes Portail sur les espèces menacées et les animaux en voie de disparition Comité français de l'UICN (CITES) (évaluation européenne de l'état des populations de mammifères) Statut de conservation
1059
https://fr.wikipedia.org/wiki/Esp%C3%A8ce%20vuln%C3%A9rable
Espèce vulnérable
En biologie et en écologie, une espèce vulnérable (ou préoccupante) est une espèce en péril car ses caractéristiques biologiques la rendent particulièrement sensible aux menaces liées aux activités humaines ou à certains phénomènes naturels. Ce terme désigne le statut donné à l'espèce quand le premier niveau de risque d'extinction est atteint. Si la menace d'extinction de cette espèce augmente, elle est alors qualifiée d'espèce en danger. En Australie, la liste des espèces vulnérables est établie sur la base légale de l'Environment Protection and Biodiversity Conservation Act 1999 (EBPC act). L'Union internationale pour la conservation de la nature (UICN) maintient également une liste mondiale des espèces menacées, indiquant le degré de risque. En 2019, 12 457 espèces sont classées dans la catégorie « espèce vulnérable ». Définition Une espèce est vulnérable selon l'UICN si elle répond à au moins un des critères suivants : Réduction des effectifs d'au moins 50% sur 10 ans ou 3 générations si les causes de cette diminution sont connues, réversibles et ont cessé, ou d'au moins 30% si les causes ne sont pas certaines, non réversibles ou encore présentes. Zone d'occupation de moins de 2000km², avec une population en déclin, très fluctuante ou fragmentée Population de moins de 10 000 individus matures et en déclin continu Population de moins de 1 000 individus matures Probabilité d'extinction de l'espèce d'au moins 10% dans les 100 ans à venir Article connexe Convention sur le commerce international des espèces de faune et de flore sauvages menacées d'extinction Notes et références Statut de conservation
1060
https://fr.wikipedia.org/wiki/Domestication
Domestication
La domestication d'une espèce, animale ou végétale, est l'acquisition, la perte ou le développement de caractères morphologiques, physiologiques ou comportementaux nouveaux et héréditaires, résultant d’une interaction prolongée, d'un contrôle voire d'une sélection délibérée de la part des communautés humaines. Elle se traduit par une modification plus ou moins profonde du patrimoine génétique de l'espèce, voire la formation d'une espèce génétiquement disjointe (non interféconde avec l'espèce originelle). Les modifications vont de l’isolement de populations (simple isolat de génotypes sauvages reproduits) au changement du génome et jusqu’à la création d’espèces nouvelles. On parle d'espèces domestiquées, de plantes ou d'animaux domestiqués. La domestication est une activité humaine très ancienne, elle précède la sédentarisation et l’agriculture (domestication du chien ou du figuier par les chasseurs paléolithiques). Le terme « domestication » est utilisé par extension aux techniques et aux objets mis au service des besoins humains (domestication d'un fleuve, d'une énergie, etc.). Chez l'animal « domestiquer » s'utilise comme synonyme d'apprivoiser. La notion de besoin humain s'entend extensivement à toutes les activités humaines, utilitaires ou culturelles, et la domestication porte sur toutes les classes du vivant. Son étude relève de sciences multiples, sachant que la génétique permet depuis le de mieux connaitre ses étapes et ses processus. On parle aussi de domestication pour des choses, telles la « domestication secondaire » ou « domestication des produits » (élevage d'animaux en vue d'usages autres que la production de viande : lait, laine, exploitation de leur énergie par la traction et le portage, bât et monte), ou la domestication de paysages, pour exprimer les modifications que les humains leur apportent pour qu'elles correspondent à leurs conceptions utilitaires, morales et philosophiques. Le processus de domestication Dates et lieux de domestication Se reporter au tableau des dates et foyers par espèce, plus bas. Les domestications s'étalent du néolithique à nos jours, à l'exception de celle du chien, qui a précédé de plusieurs millénaires l'élevage d'autres espèces et la sédentarisation. Notre époque, à partir du , est par contre riche en nouvelles espèces élevées, et on peut parler pour plusieurs d'entre elles de domestication. Les dates et foyers des domestications anciennes ont été estimés par des méthodes essentiellement archéologiques ; il s'agit plus spécialement d'archéozoologie. Ces méthodes consistent à fouiller ou exploiter les résultats de fouilles de sites d'occupation humaine préhistorique. Les restes animaux sont datés selon les méthodes archéologiques : on détermine l'espèce à laquelle ils appartiennent, on estime également l'âge auquel ils sont morts, voire le type d'animaux (d'une forme éventuellement domestique) qu'ils représentent, et on s'appuie sur d'autres indices comme les traces observables d'abattage ou de découpe. L'enjeu est de déterminer si on est en présence d'animaux sauvages ou d'élevage, et plus globalement la nature de leurs relations avec les humains. Ainsi le squelette d'un chat retrouvé auprès d'un tombeau humain indique qu'il s'agissait probablement d'un animal de compagnie. Une certaine homogénéité d'âge des animaux dont on retrouve les restes indique qu'il s'agissait d'un élevage, où l'on abattait les animaux à l'âge optimal. Les nouvelles techniques et en particulier l'étude de l'ADN mitochondrial permettent de réestimer les dates de domestication de même que l'arbre généalogique des espèces domestiques actuelles ; ces connaissances sont donc toujours en évolution. La lignée du chien en particulier se serait séparée de celle du loup il y a entre et . Il est possible que l'ancêtre du chien se soit à cette époque rapproché et associé aux groupes humains qu'il suivait, pour les restes qu'il pouvait obtenir, en ayant un rôle d'alerte voire d'auxiliaire de chasse. La date de domestication issue des sources archéologiques correspondrait alors à une relation devenue plus étroite et à un contrôle plus fort de l'homme. Le processus de domestication et la diffusion des espèces et techniques d'élevage s'étalent sur des périodes longues et loin d'être parfaitement déterminées. On admet pour plusieurs espèces le principe de plusieurs foyers de domestication distincts. Cela n'exclut pas les croisements qui ont suivi et il semble vain de déterminer un ancêtre sauvage pour chaque race d'une espèce domestique. Après celle du chien, le premier foyer de domestication fut le Moyen-Orient, en particulier sa partie qu'on appelle le Croissant fertile. On remarque ensuite l'Asie de l'Est, le bassin méditerranéen et l'Amérique du Sud. Certaines régions du monde n'ont connu aucune domestication d'espèces locales sinon de très récentes comme l'Australie ou l'Afrique australe. Le nombre d'espèces domestiques disponibles s'est brusquement accru au de part et d'autre de l'Atlantique, avec ce qu'on nomme l'échange colombien. Le continent américain abritait alors cinq espèces animales domestiquées, dont seul le chien était connu dans l'Ancien Monde. Les chevaux et bœufs par exemple y sont alors apparus tandis qu'un grand nombre de plantes domestiques américaines, nouvelles en Europe, en Asie et en Afrique y ont été adoptées. Scénarios de domestication Plusieurs scénarios ont été proposés comme ayant mené à la domestication des espèces animales. La tradition d'adoption de bébés animaux, voire leur allaitement au sein est souvent donnée pour origine de la domestication, étant donné que par le phénomène d'empreinte, il est facile d'obtenir de cette façon des animaux familiarisés par leur contact précoce avec les humains. Pourtant, le processus de domestication implique l'élevage de lignées d'animaux sur de nombreuses générations, ce qui n'est pas le cas si le recrutement se fait en permanence par prélèvement d'animaux sauvages. Par ailleurs cette pratique, toujours observée actuellement, est caractéristique des peuples de chasseurs-cueilleurs qui, précisément, n'ont pas d'animaux domestiques. Ces apprivoisements seraient donc intégrés à une culture basée sur la chasse et non l'élevage, et il y aurait une opposition entre sociétés « apprivoisatrices » et « domesticatrices ». Ce schéma ne paraît donc pas pouvoir être retenu directement comme moyen de domestication. Pourtant si le facteur culturel est sans doute essentiel pour expliquer la domestication voire la non-domestication d'une espèce, le système économique et culturel d'une société n'est pas figé. La plupart des sociétés fondées sur la chasse élève des chiens, pour lequel ce schéma a pu être un élément important de la domestication. Il est possible que la domestication soit passée par une phase de mutualisme entre ces animaux et l'homme, c'est-à-dire un rapprochement et une aide dans l'intérêt mutuel. En effet, cette relation s'observe toujours chez le chien paria, et on présume qu'elle a été une étape de la domestication du porc. Plusieurs espèces étaient les objets d'une tradition de chasse qui a évolué vers un contrôle des populations, et une gestion de population sauvage devenue raisonnée. Cette chasse a pu devenir sélective, visant par exemple les animaux les plus âgés et les mâles en surnombre, et conduire à un mode d'élevage extensif, puis intensifié. Tous ces stades sont actuellement pratiqués dans le cas du renne, dans des régions différentes. Ce processus semble avoir concerné plusieurs espèces, dont les chèvres et moutons, ainsi que les petits camélidés (lamas). Enfin l'élevage a pu simplement commencer avec des animaux capturés puis élevés en stricte captivité. C'est le cas de la plupart des domestications récentes ou contemporaines. C'est dans cette situation que le contrôle et la sélection peuvent être les plus forts, permettant une transformation plus rapide des espèces élevées. Le scénario de domestication d'une espèce peut avoir correspondu à l'un de ces schémas ou en avoir été une combinaison simultanée ou successive. Dans le cas du lapin, les étapes de la domestication à partir de la simple chasse ont été l'établissement de garennes fermées au Moyen Âge, qui constituaient des sortes de réserves de chasse. Dans certaines de ces garennes a été pratiquée une sélection, permise par la capture des animaux vivants grâce aux furets. Cette sélection a abouti à l'apparition des premières variétés de lapin au cours du , qui se distinguaient par leur coloris et leur taille. L'élevage a ensuite été intensifié et la forte sélection a abouti à une grande variabilité des races domestiques. Le comportement du lapin d'élevage a probablement évolué conjointement, du fait d'une sélection d'animaux moins farouches, celle-ci ayant pu être aussi bien intentionnelle qu'indirecte : les animaux plus difficiles à recapturer ne pouvant pas être donnés à de nouveaux éleveurs. Les pratiques d'élevage et de sélection qu'on peut observer sur la période historique peuvent donner une idée de celles qui ont produit la domestication. Celles-là sont très variées, ainsi que les connaissances et représentations qu'ont les éleveurs de l'hérédité et de l'influence qu'ils peuvent avoir sur une population animale. Certains d'entre eux opèrent une sélection méthodique au sein d'un cheptel, d'autres ne conçoivent pas l'influence que peut avoir le choix des reproducteurs sur leurs produits, au sein d'une espèce ou variété. Ces éleveurs peuvent croire pourtant à l'intérêt d'acquérir une nouvelle lignée ou d'opérer des croisements avec des animaux de souches différentes de la leur et participer ainsi à leur diffusion. La sélection exercée par les éleveurs est d'ailleurs loin d'avoir constamment la même direction, une pratique relevée pour plusieurs espèces et à différentes époques consistant par exemple à sacrifier les animaux ayant eu la croissance la plus forte ou la plus rapide afin de laisser les autres finir leur croissance. Cette pratique qui a vraisemblablement un effet de contre-sélection a d'ailleurs été dénoncée comme telle par des observateurs pour les moutons par exemple, ou en pisciculture d'étang où la pratique du « fond de pêche » consiste à repeupler un étang après sa pêche par vidange en y relâchant les poissons les plus petits. Ainsi, quoique la carpe ait eu une longue tradition d'élevage en France, les performances d'élevage de ce poisson étaient médiocres. Des lignées à croissance nettement plus rapide y ont été réintroduites à partir d'Europe centrale à la fin du , où un élevage sélectif était pratiqué. Parmi la diversité des pratiques, on relève aussi celle consistant à faire saillir une femelle par des congénères sauvages pour les qualités réelles ou supposées que cela procure aux produits de tels croisements (chien/loup ; porc/sanglier en Europe). Quoique ceci semble aller à l'encontre du processus de domestication, ces hybridations ont pu contribuer à conjuguer les caractères domestiques, en particulier comportementaux d'une espèce avec ceux d'une sous-espèce locale sauvage bien adaptée à son milieu. Cela a probablement été le cas des races de chiens nordiques. La domestication d'une espèce est le fruit d'une histoire multiple qu'il est difficile de reconstituer. Ses facteurs importants sont les prédispositions de cette espèce, les pratiques des éleveurs ou proto-éleveurs sur de longues périodes qui opèrent une sélection consciente ou non et les échanges d'animaux qui permettent aux lignées les plus domestiquées de se diffuser. Point de vue biologique Le processus de domestication commence lorsqu'un nombre restreint d'animaux est isolé de l'espèce sauvage. Cette population peut alors connaître un phénomène de microévolution, en s'adaptant aux conditions d'élevage et du fait de la sélection humaine. Cette évolution est marquée par l'apparition de traits domestiques, c'est-à-dire des nouveaux caractères interprétés comme des mutations génétiques conservées voire sélectionnées alors que les allèles qui les portent seraient restés rares ou auraient été éliminées par sélection naturelle à l'état sauvage. Ce sont des caractères morphologiques comme la taille plus grande ou plus petite que celle de l'espèce sauvage, des coloris nouveaux, le poil long, frisé ou encore la queue enroulée ; ce sont aussi des caractères physiologiques comme l'augmentation de la prolificité, et la précocité de la croissance. On note aussi la perte de caractères physiques comme les cornes pour une partie des races de mouton ou d'aptitudes comme une diminution de la mobilité ; de la vitesse de course ou de l'aptitude au vol, ainsi que la perte d'aptitudes comportementales. Ceci fonde une interprétation de la domestication comme altération du génotype, ce qui est indiscutable dans le cas de l'albinisme. De même et plus tôt, Buffon a décrit la domestication en termes de dégénérescence. La variabilité morphologique est importante chez certaines espèces et beaucoup moins chez d'autres comme le chameau de Bactriane. On interprète également les transformations de la domestication avec la notion de néoténie, selon laquelle des caractères morphologiques comme les oreilles pendantes ou comportementaux comme l'attachement, à l'origine propres aux stades juvéniles, se prolongent à l'état adulte. Si les premières espèces domestiquées sont élevées depuis quelques millénaires, ce temps est-il pour autant indispensable à cette évolution ? Des expériences spécifiques ainsi que les domestications contemporaines montrent qu'avec une forte sélection, les transformations caractéristiques de la domestication peuvent apparaître relativement rapidement, dans l'intervalle d'une dizaine à quelques dizaines de générations. Du point de vue écologique, certaines espèces sont élevées à l'état domestique dans un milieu identique ou proche de celui de leurs ancêtres sauvages comme le chameau ou le renne. À l'inverse, on remarque que le nombre relativement faible d'espèces domestiques est compensé par leur distribution souvent très large, dans des milieux et sous des climats variés et très différents de ceux d'où l'espèce est originaire. La poule, originaire de régions tropicales est élevée jusqu'au cercle polaire arctique, et le porc, originaire de régions tempérées, est élevé jusqu'en climat équatorial plutôt que d'autres espèces de suidés, originaires de ces climats mais non domestiquées. Le régime alimentaire des espèces domestiques peut varier très fortement du fait de l'accès aux ressources naturelles d'un nouveau milieu, et bien sûr avec l'alimentation artificielle parmi laquelle les céréales cultivées sont primordiales, y compris pour le chien. Il est difficile de déterminer à quel point ces changements de climat et de régime alimentaire se sont accompagnés d'une adaptation physiologique héréditaire vers une éventuelle tolérance des animaux domestiques à ces variations. Certains auteurs ont estimé dans le sens inverse que les espèces domestiques avaient été choisies parmi celles qui sont les moins spécialisées du point de vue alimentaire et écologique (espèces dites Euryèces). Les déplacements et introductions par l'être humain d'espèces domestiques dans des espaces où elles étaient absentes a eu des conséquences importantes sur les équilibres écologiques dès le néolithique, puisqu'ils pouvaient constituer des invasions biologiques et entraîner la disparition d'espèces locales. Les grandes étapes de la domestication du Paléolithique inférieur au Néolithique Au Paléolithique inférieur, il y a 2 millions d'années, des restes de loup gris l’ancêtre du chien, ont été retrouvés en association avec des restes d'hominidés. On peut donc en déduire que les loups se sont associés aux humains pour chasser des grandes proies. Cette association a fait évoluer le loup en chien et a conduit à la domestication actuelle du chien. Elle a eu lieu dans plusieurs endroits du globe. Au paléolithique moyen, il y a , des cranes de loup associés aux restes humains ont été retrouvés dans la Grotte du Lazaret à Nice en France. Au Paléolithique supérieur, il y a , des premières traces de chiens ont été découvertes sur des sites magdaléniens comme dans l'abri du Morin en Gironde. Au Mésolithique, sur certains sites du Moyen-Orient il y a , des restes archéozoologiques témoignent de la domestication: les aurochs sont devenus des bœufs, les mouflons sont devenus des moutons, et les chèvres sauvages sont devenues des chèvres domestiques. Au Néolithique, en arrière, on a trouvé une tombe qui renfermait les restes d'un homme et d'un chaton. On en a déduit que l'homme a domestiqué le chat pour chasser les souris qui profitaient des stocks de blé à cette époque. Point de vue comportemental La domestication est non seulement une modification des caractères physiques d'une espèce, mais aussi de son comportement. Cette évolution consiste en premier lieu en un caractère moins farouche, à une tolérance voire une familiarité plus facile à l'égard des humains et à l'atténuation des comportements potentiellement dangereux à leur égard. C'est aussi une adaptation aux conditions d'élevages, donc aux groupes importants et à la promiscuité, qui peuvent être mal tolérés par les congénères sauvages. L'éthologue Konrad Lorenz a décrit notamment la domestication comme un appauvrissement des comportements sociaux spécialisés, au profit de l'hypertrophie des besoins de base comme la reproduction et l'alimentation. Le comportement social en général paraît en effet plus riche chez les animaux sauvages que chez leurs congénères de races domestiquées. Dans le cas du chien, l'évolution comportementale semble beaucoup plus radicale et ne peut en aucun cas être réduite à la perte du caractère farouche ou sauvage. La capacité des chiots à interpréter les signes de communication humains parait ainsi supérieure à celle des loups et des primates. L'attachement qu'un chien porte à son maître et la propension à lui obéir, bien que pouvant être l'objet d'une éducation ou dressage sont des caractères innés issus de la domestication. L'éthologie est aussi évoquée concernant la domestication pour discuter des caractères comportementaux qui permettent ou ont permis à une espèce d'être domestiquée. Le principal d'entre eux serait le caractère social d'une espèce. Le fait qu'elle vive en groupe hiérarchisé (dans l'exemple du chien) aurait permis à l'éleveur d'exercer un contrôle sur ces animaux en prenant la position de l’élément dominant du groupe. La territorialité a pu être déterminante pour certaines espèces (dans l'exemple du chat) : le fait que certains individus d'espèces différentes se côtoient de manière répétée dans le temps a favorisé l'apprivoisement qui a pu déboucher sur la domestication. La communication interspécifique est une branche de l'éthologie qui en est à ses balbutiements. Le sujet est aussi vaste que le nombre d'espèces. Les cas de relation particulière interspécifique commencent à être documentés (lionne solitaire adoptant un bébé oryx, étalon solitaire cohabitant avec un chevreuil…), tendant à montrer que la domestication n'est peut-être qu'un cas particulièrement développé par la culture humaine de processus éthologiques exceptionnels existants. Point de vue zootechnique Actuellement, les objectifs intentionnels de la domestication (dans le cas de nouvelles espèces) ou de l'amélioration des races domestiques concernent essentiellement la production (rarement le travail produit par les animaux). Ce sont l'adaptation aux conditions d'élevage, la prolificité, la vitesse de croissance, et souvent la qualité de la chair ou celle d'autres produits comme le lait ou la laine. Les premiers registres découverts qui établissent des listes de lignées, montrant ainsi une formalisation de la sélection des animaux datent du en langue Hittite. La sélection moderne des espèces d'élevage fait appel à des outils notamment statistiques appliqués aux notions génétiques. Elle demande une évaluation aussi objective que possible des sujets et une organisation rigoureuse des programmes d'élevages, pour obtenir une amélioration des performances des lignées en fonction d'objectifs déterminés. Ces sélections sont souvent mises en œuvre par des organismes spécialisés. La sélection sur des critères étroits de performance est critiquée pour les inconvénients qu'elle amène en termes de fragilité des sujets par exemple, et pour la menace qu'elle fait subir à la biodiversité des races domestiques, en leur substituant un nombre réduit de lignées. Elle tend en réponse à intégrer des critères plus larges de sélection, comme la facilité de mise-bas en plus de la performance laitière ou de croissance pour les bovins par exemple. Cette sélection peut tenter également de répondre à des besoins très précis, comme dans le cas du porc une réduction des éléments les plus polluants des déjections des animaux, qui posent problème en situation d'élevage intensif. D'autre-part, les variétés peu sélectionnées ou dites rustiques sont reconnues non seulement en tant que ressources génétiques potentielles, mais aussi pour leur adaptation à certains modes ou systèmes d'élevage de type extensif. Le CNRS estimait en 2005 que 50 % des races d'oiseaux domestiqués sont en voie de disparition. La sélection des animaux paraît donc liée à des objectifs et un type d'élevage précis. En outre, la prise en charge de la sélection par des organismes spécialisés peut réduire l'autonomie des producteurs et les rendre dépendants des orientations de ces organismes, notamment en types de productions. Malgré ces limites, la sélection contemporaine montre une assez grande efficacité. Le « progrès génétique » obtenu peut être très sensible à l'échelle de quelques années, montrant que la transformation des espèces domestiques est loin d'être arrêtée. Les efforts portent également sur des nouvelles espèces d'élevage, en particulier parmi les poissons. Point de vue juridique Point de vue culturel La domestication est aussi un phénomène culturel en ce qu'elle a impliqué lors des premiers élevages un bouleversement des rapports de l'homme avec la nature et avec les espèces concernées. Les systèmes culturels humains et leur évolution semblent être en premier lieu le facteur qui a déterminé la domestication (ou la non-domestication) des espèces. Variétés animales domestiquées La liste des espèces domestiques est modulable selon les critères adoptés. On limite en général celle des espèces domestiques les plus répandues et les plus anciennes à une trentaine. Cette liste est complétée par d'autres animaux dont l'élevage est ancien, par les nouvelles espèces domestiques puisque l'ancienneté de l'élevage de plusieurs espèces n'empêche pas que la domestication soit un phénomène contemporain, et par d'autres espèces en fonction de leur lien plus ou moins étroit avec l'homme. Une partie des espèces dont il existe des variétés domestiquées ont vu leur forme sauvage disparaître à l'époque préhistorique comme pour le dromadaire ou tardivement pour l'auroch. Il existe pourtant des populations sauvages de ces deux espèces ainsi que du cheval par exemple, mais celles-là sont issues exclusivement de marronnage. Le lien de parenté entre une espèce domestique et l'espèce sauvage dont elle est issue est longtemps resté insoupçonné. Sa découverte, qui allait avec celle de la variabilité, au moins morphologique d'une espèce, a contribué à l'établissement des théories de l'évolution. Pour des espèces comme le cochon d'inde ou le mouton, l'espèce sauvage dont elles sont issues n'est toujours pas connue avec certitude, parmi plusieurs espèces proches. Liste restreinte Plusieurs animaux domestiques ont longtemps été considérés et classifiés comme des espèces distinctes de celles dont elles sont issues, lorsque celles-ci existent toujours à l'état sauvage. Actuellement et dans ce cas, la classification d'une variété domestiquée comme une sous-espèce de l'espèce dont elle est issue tend à s'imposer. Ainsi le nom scientifique du porc a été changé de Sus domesticus à Sus scrofa domesticus, ce qui le désigne comme une sous-espèce du sanglier. Dans cette liste, les cas du furet et du ver à soie ne font pas consensus : du point de vue légal pour le furet (classé dans certains pays dont la Suisse ou la Californie comme animal sauvage) et en tant qu'insecte qui ne serait pas concerné par la notion d'animal domestique pour le second. Ces deux espèces sont à d'autres points de vue parmi celles dont la domestication est la plus poussée. La carpe et le poisson rouge ne sont pas non plus toujours cités au sein d'une liste restrictive d'espèces domestiques. Certaines espèces considérées comme distinctes et qui ont été domestiquées séparément sont néanmoins interfécondes. Elles partagent alors le genre. Ce sont par exemple le genre Bos qui réunit bœuf, zébu, yak, gayal et banteng, le genre Camelus : chameau de Bactriane et dromadaire, le genre Lama : lama et alpaga ou le genre Anser (les oies). Certaines variétés domestiques peuvent alors être issues de l'hybridation de plusieurs espèces : le sanglier des Célèbes (Sus celebensis) a été domestiqué séparément de l'espèce Sus scrofa et ne subsiste probablement à l'état domestique qu'au sein de variétés issues de l'hybridation de ces deux espèces. Le cheval et l'âne (genre Equus) donnent des hybrides stériles : mulet et bardot, ainsi que le canard de Barbarie et les races de canard domestique issues du canard colvert qui produisent le canard mulard. Deuxième cercle On peut élargir la liste avec : Les deux premières espèces, malgré l'ancienneté de leur élevage, ne sont en général pas détachées comme populations de celles de leurs congénères sauvages, et leur reproduction n'est pas entièrement contrôlée. Les suivants sont des animaux d'agrément et de volière, parfois opposés à ce titre aux animaux domestiques de rente. Le daim est dans ce cas, son élevage relevé en Égypte antique n'a probablement pas été continu jusqu’à nos jours. Les critères qui font qu'une population est perçue ou non comme domestique ne correspondent pas toujours exactement à des faits biologiques ou techniques objectifs et la frontière entre animaux domestiques et sauvages est souvent floue. Nouvelles domestications Animaux de rente Plusieurs espèces de poissons sont élevées de façon intensive depuis quelques décennies voire quelques années seulement : truite arc-en-ciel, saumon atlantique, bar, daurade royale, turbot, morue, sériole, plusieurs espèces de poisson-chat et de tilapia, qui peuvent être considérées comme étant en cours de domestication, puisque le cycle de l'élevage est entièrement maîtrisé, qu'une sélection est appliquée sur ces espèces et qu'elle a déjà permis d'améliorer leurs qualités du point de vue de l'élevage. Dans le domaine de l'aquaculture, des espèces de crevettes sont également élevées à grande échelle, le cycle d'élevage étant complètement maîtrisé. La crevette à pattes blanches (Penaeus vannamei) et la Crevette géante tigrée (Penaeus monodon) représentent la plus grande part de la production de crevettes d'élevage. L'élevage de grenouilles (raniculture) a également été développé sans arriver pour autant à des productions importantes. Parmi les rongeurs, il y a quelques espèces dont l'élevage pour la chair s'est établi ces dernières décennies, avec une volonté délibérée de domestication : l'aulacode et le cricétome (ou rat de Gambie) élevés en Afrique de l'Ouest sur un mode similaire à celui du lapin, et le capybara (ou cabiai) au Brésil élevé sur un mode semi-extensif. Plusieurs grands herbivores sont élevés avec un projet de domestication justifié par le fait qu'étant adaptés à leur milieu, ils permettent de mieux l'exploiter que les espèces domestiques classiques : l'éland du Cap (Taurotragus oryx) en Afrique australe, le bœuf musqué (Amérique et Europe du Nord) et l'élan en Europe du Nord ; l'élevage de cette espèce de cervidé est relevé chroniquement : pour le lait vers le et au pour l'attelage. L'autruche a été élevée à grande échelle pour les plumes dès la première moitié du . Elle est élevée de nos jours pour la chair et ses autres produits comme le cuir et les œufs. Animaux de compagnie et d'ornement Il faut noter, parmi les nouvelles domestications, des animaux de compagnie dont la reproduction est facilement maîtrisée, en particulier parmi les rongeurs et qui satisfont en général au critère de familiarité avec l'homme : souris (Mus musculus), chinchilla, rat (Rattus norvegicus), hamster doré, gerbille de Mongolie et octodon. Les oiseaux de volière et d'agrément donnent lieu au développement en élevage de nombreuses variétés. Les services de l'État français en ont établi une liste assez exhaustive parmi environ 70 espèces. Ce sont par exemple plusieurs espèces de perruches parmi lesquelles la perruche ondulée ou encore des passereaux comme le diamant mandarin. On peut rapprocher de cette catégorie plusieurs espèces de poissons d'aquariophilie qui font l'objet d'une sélection importante ; par exemple le guppy ou le combattant. Animaux d'étude Les études et expérimentations ont utilisé fréquemment des animaux de différentes espèces domestiques. Certaines de ces espèces comme la souris et le rat semblent avoir été sélectionnées conjointement comme animaux de compagnie et de laboratoire. Une espèce au moins a été domestiquée à des fins uniquement scientifiques : la drosophile, dont la rapidité du cycle d'élevage, a fait un organisme modèle dans la recherche en génétique. Ces animaux augmentés par les biotechnologies dans les laboratoires sont appelés post-animaux. Anciennes domestications Certaines espèces ont été élevées voire réellement domestiquées, mais ne le sont plus, ayant totalement disparu ou n'existant plus qu'à l'état sauvage. Ces cas sont cependant douteux : le degré de domestication des animaux peut être difficile à déterminer, ainsi Digard relève plusieurs espèces dont l'élevage paraît attesté en Égypte antique (des antilopinés des genres gazella, oryx, addax, ainsi que l'Ouette d'Égypte et la hyène tachetée), quoique leur cas pourrait être qualifié de détention d'espèces sauvages plutôt que de domestication. D'après Buffon, la sarcelle était élevée pour sa viande par les Romains, tandis que le colvert n'a été domestiqué qu'au cours du Moyen Âge. Pour deux autres cas, c'est l'identification de l'espèce qui n'est pas certaine : l'onagre, Equus hemionus aurait été domestiqué et utilisé notamment attelé dans la civilisation sumérienne (de 5000 à ). Néanmoins, sur les représentations qui paraissent l'attester il pourrait s'agir plutôt d’Equus asinus ; l'âne domestique originaire d'Afrique. En Europe la tourterelle des bois (streptopelia turtur) aurait été couramment élevée au Moyen Âge comme animal de compagnie. Dans ce cas également, il reste à confirmer qu'il s'agissait bien de cette espèce, qui n'existe de nos jours qu'à l'état sauvage, ou bien de la tourterelle domestique, qui n'est pas originaire d'Europe. On relève l'utilisation d'éléphants de guerre dès la fin du en Perse sous le règne de Darius qui entreprit une expédition dans la vallée de l'Indus. Ils furent ensuite utilisés à la bataille de Gaugamèles (-331) puis par les troupes carthaginoises durant les Guerres puniques notamment celles d'Hannibal Barca au avant notre ère, leurs éléphants ayant traversé l'Espagne, les Pyrénées, le sud de la France et les Alpes. Pour ces derniers, il existe trois hypothèses d'identification : celle d'éléphants d'Asie, d'éléphants de forêt d'Afrique vivant dans les forêts d'Afrique du Nord, plus denses qu'actuellement selon Philippe Leveau et Jean-Pascal Jospin et enfin celle d'éléphants d'Afrique du Nord, espèce ou sous-espèce de Loxodonta, ayant supposément existé selon Gilbert Beaubatie bien qu'ils ne soient pas recensés par la taxinomie et qu'aucune étude paléontologique basée sur de potentiels ossements fossiles n'ait fait la preuve de leur existence. Par ailleurs l'éléphant était utilisé dès l'Antiquité lors d’exécutions. Espèces non domestiquées Toutes les espèces élevées ou utilisées par l'être humain n'ont pas subi une évolution vers la domestication. Plusieurs d'entre elles font l'objet d'un élevage établi de rente pour la fourrure ou la peau comme le ragondin, le rat musqué, la martre, le crocodile, ou la chair comme la grenouille, l'écrevisse, l'escargot ou le cerf élaphe. Ces espèces sont rarement considérées comme domestiquées pour autant. Pour une part d'entre elles, l'élevage durant plusieurs décennies a engendré des modifications qui peuvent être interprétées comme un début de domestication (voir par exemple les expériences de Dimitri Belyaev). C'est le cas des renards et des visons élevés pour leur fourrure, chez lesquels on a vu apparaître de nouveaux coloris au fil des décennies d'élevage. Cependant, ces espèces ont été très peu sélectionnées sur des critères d'apprivoisabilité et d'adaptation aux conditions d'élevage, ce qui pose des problèmes sérieux de stress et comportements pathologiques. En aquaculture, les espèces de poissons peuvent être élevées sans domestication, soit du fait d'un mode d'élevage extensif laissant peu de prise au contrôle de la reproduction et à la sélection, soit par la limitation de l'élevage au grossissement après capture des juvéniles dans le milieu naturel, ce qui est le cas de l'anguille. Plusieurs espèces de coquillages marins sont l'objet d'un élevage intensif (voir conchyliculture). C'est le cas en particulier de l'huître et de la moule. Il n'y a en général pas de contrôle de la reproduction mais captage du naissain sauvage, donc une perméabilité entre les populations sauvages et de production, ce qui se rapproche du cas des abeilles. La maîtrise de la reproduction et des premiers stades d'élevage, acquise ces dernières années pour l'huître par exemple, est cependant une forme de domestication de ces espèces. On recense plusieurs espèces pour lesquelles il existe ou il a existé une tradition de dressage et d'utilisation, souvent pour la chasse, sans qu'un élevage durable et une sélection aient été pratiqués. La loutre et le grand cormoran ont été employés comme auxiliaires de pêche ; les faucons et de nombreuses espèces de rapaces sont dressées à la chasse, la fauconnerie étant une tradition toujours bien vivante. D'autres animaux comme le caracal au Moyen Âge, et le guépard, de jusqu’à nos jours sont employés pour la chasse. Le cas des macaques dressés à la cueillette de noix de coco en Thaïlande ne rend pas la liste exhaustive. D'autres espèces sont élevées pour l'ornement, en particulier des oiseaux de cage et de volière, des reptiles et amphibiens de terrariophilie et des poissons d'aquariophilie, et ne sont pas les objets d'une sélection durable. Elles restent, biologiquement, légalement ou dans la perception qu'en ont leurs détenteurs, des espèces sauvages détenues ou élevées en captivité. Espèces végétales domestiques La domestication des plantes est probablement plus importante encore que celle des animaux pour l'espèce humaine. Les premières plantes ont été domestiquées autour de 9000 dans le Croissant fertile au Moyen-Orient. Il s'agissait d'annuelles à graines ou fruits comme le haricot, l'orge et bien sûr le blé. Le Moyen-Orient a particulièrement convenu à ces espèces ; le climat aux étés secs favorisant le développement des plantes à semer, et les divers étages d'altitude ont permis le développement d'une grande variété d'espèces. Avec la domestication s'est faite la transition d'une société de chasseur-cueilleurs à une société agricole et sédentaire. Ce changement aura mené par la suite, environ 4000 à plus tard, aux premières villes et à l'apparition de véritables civilisations. Dans différentes régions du monde, des espèces très variées ont été domestiquées : en Amérique du Nord, la courge, le maïs, et le haricot ont formé le cœur de l’alimentation des amérindiens alors que le riz et le soja étaient les cultures les plus importantes de l’Asie de l'Est. La domestication autour de la même période a également débuté en Chine avec le riz, au Mexique avec le maïs, en Nouvelle-Guinée avec la canne à sucre et certains légumes-racine, mais aussi dans les Andes avec le piment ou en Équateur avec des légumes de la famille des courges, aubergines et concombres, ce qui remet en cause la théorie de la naissance de l'agriculture uniquement par des nécessités économiques et productives. La domestication des plantes comme celle des animaux est un processus lent et progressif. Après les plantes annuelles, des pluriannuelles et des arbrisseaux et arbustes ont commencé à être domestiqués, parmi lesquels la vigne, le pommier et l'olivier. Quelques plantes n'ont été domestiquées que récemment comme le noyer du Queensland et le pacanier (noix de pécan). Certaines espèces n'ont pas pu être domestiquées malgré des tentatives modernes ; ainsi le colchique, qui contient une molécule d'intérêt médicinal la colchicine, n'a pu être cultivé car les exploitations expérimentales étaient ravagées par le potyvirus dont la diffusion était grandement facilitée par le regroupement des plantes. On parle de centres d'origine et de centres de diversité (Nikolai Vavilov décrivait en 1926 dix centres de diversité pour l'ensemble des plantes domestiques, dans Études sur l'origine des plantes cultivées). Le critère initial de sélection de la domestication d’une céréale est de pouvoir être moissonnée sans que le grain ne se détache de l’épi, tout en conservant son pouvoir germinatif pour servir de semence. Cette difficulté a été résolue progressivement, permettant à la sélection de porter ensuite sur d'autres caractères comme l’adaptation de la plante à son environnement de culture ou sa productivité. Au cours des millénaires, la sélection a rendu beaucoup d’espèces domestiquées très différentes des plantes d'origine. Les épis de maïs font maintenant plusieurs dizaines de fois la taille de ceux de leurs ancêtres sauvages. L'homme a aussi modifié directement les plantes par le greffage et maintenant le transgénisme. Le nombre d’espèces végétales cultivées est beaucoup plus important que celui des espèces animales élevées, et il est plus difficile encore dans le règne végétal de dresser la liste des espèces domestiquées. On trouve ici un tableau des 30 espèces les plus cultivées dans le monde. Voir aussi le Portail:Plantes utiles pour accéder à beaucoup d'autres articles concernant ces plantes. Utilisation des animaux domestiques Les raisons pour lesquelles on a domestiqué des espèces et pour lesquelles on les élève aujourd’hui sont très diverses. Il faut remarquer aussi qu’elles sont probablement distinctes : les interactions avec une espèce animale qui allaient amener à sa domestication n’avaient pas comme but immédiat ni comme projet d’en exploiter certains caractères qui le seront plus tard. L’exemple caractéristique en est la laine du mouton qui est un produit de la domestication, la toison de l’ancêtre du mouton n’ayant pas ces caractéristiques. L’exploitation de la laine s’est donc développée dans un second temps, le mouton ayant été probablement domestiqué pour sa viande. Une vision opposée au propose une thèse qui considère que les animaux ont aussi un intérêt à la domestication selon le processus naturel de l'évolution, l'homme les soustrayant aux prédateurs, leurs prodiguant des soins lorsqu'ils sont malades, favorisant leur reproduction. Produits Les animaux domestiques sont élevés pour les produits qu’ils donnent. Ce sont les produits alimentaires : viande, lait, œufs, ou non-alimentaires : laine, fourrure, cuir ainsi que d’autres produits accessoires comme les excréments pour la fertilisation voire comme combustible. La production alimentaire est à notre époque la principale raison de l’élevage. Travail Leur fonction est souvent de fournir un travail ou service. C’est en particulier le transport avec les chevaux, ânes, bœufs, chameaux et même le chien. Les animaux ont longtemps été la principale énergie du travail agricole. L’utilisation de la force des animaux pour le transport et l’agriculture s’est développée jusqu’au début du avec le transport sur les canaux, tiré par des chevaux, et les progrès du matériel agricole avant la motorisation. La fonction d’auxiliaire de chasse a certainement été le premier métier du chien domestique. Celui-ci effectue des travaux très variés, de la garde, protection, la conduite de troupeau jusqu’aux fonctions modernes de chien d’aveugle. Certaines espèces fournissent un travail ou service particulier, de communication pour le pigeon voyageur ou un mode de chasse particulier pour le furet. Utilisation non utilitaire La détention et l’élevage d’animaux domestiques sans objectifs strictement utilitaires ne sont pas récents. Les animaux de compagnie sont particulièrement développés de nos jours, ceux d’ornement ont souvent une longue tradition, quoique de nouvelles espèces soient apparues à l’époque moderne, parmi les poissons notamment. Le combat d’animaux est une activité très ancienne et toujours vivace, qui engendre un élevage spécialisé. Les espèces les plus courantes sont les coqs, le poisson combattant, les chiens, les vaches et taureaux, et même un grillon (Acheta domestica) en Chine. Les animaux peuvent être les supports d’une activité sportive, ce qui est le cas des chevaux depuis l’Antiquité (souvent en association avec la chasse). On note encore d’autres destinations des animaux domestiques comme le spectacle. Impacts des domestications L'agriculture et l'activité humaine liée aux espèces domestiques ont conduit à des modifications majeures de l'environnement, notamment par le déboisement, la dégradation des terres, et d'autres biais comme l'émission actuellement non négligeable de méthane, un gaz à effet de serre du fait de l'élevage abondant de ruminants. L'agriculture et l'élevage ont permis l'accès à des ressources alimentaires beaucoup plus importantes pour un territoire donné, et par conséquent ont contribué au développement des populations humaines. L’archéologue et généticien Greger Larson explique que . La domestication semble avoir induit chez l'espèce humaine elle-même des adaptations comme la faculté à digérer le lait plus élevée dans les populations d'Europe occidentale et d'Afrique par rapport aux populations asiatiques. La promiscuité avec des espèces animales a également favorisé l'apparition de zoonoses, maladies qui se transmettent de l'animal à l'homme, ainsi que des résistances à ces maladies. C'est également auprès des espèces sauvages que la concentration et les transports d'animaux peuvent devenir un facteur important de transmission voire d'évolution de maladies, alors que ces espèces en étaient à l'abri du fait de barrières naturelles à leur transmission. Les formes de l’état domestique La domestication en tant que relation, interaction ou contrôle humain sur une population animale existe sous différentes formes. Lorsqu’il ne s’agit plus de domestication à proprement parler, on peut employer le terme d’action domesticatoire. Si les modes d’élevage pour lesquels le contrôle humain est fort portent souvent sur des espèces anciennement domestiquées, les deux axes que sont le degré biologique de domestication et le mode d’élevage n’évoluent pas conjointement. Ils peuvent être croisés et faire apparaître autant de situations différentes : certains animaux sauvages peuvent être appropriés sur un territoire, faire l’objet d’un élevage, tandis qu’il existe des animaux domestiques sans propriétaire (pigeons des villes). D’autre part, du point de vue culturel, certains types d’interaction entre humains et animaux, quoique similaires, sont perçus de façon différente. L’élevage intensif La forme la plus poussée de domestication correspond à l’élevage intensif, où l’éleveur fournit tout ce qui est nécessaire au développement des animaux, pour maximiser leur production ou permettre leur élevage sur des surfaces réduites. Elle correspond à un contrôle maximum sur les animaux. Si l’élevage intensif est a priori celui où l’éleveur a le contact le plus proche avec ses animaux, ce qui est le cas avec l’élevage laitier par exemple, l’intensification qui accompagne la modernisation tend au contraire à amoindrir l’interaction directe entre éleveur et animal. Ce type d’élevage concerne par ailleurs des espèces anciennement domestiquées comme d’autres qui ne le sont pas ou peu, particulièrement en aquaculture. L’élevage extensif La pression domesticatoire peut être considérée comme moindre dans le cas d’élevage extensif, c’est-à-dire s’appuyant sur de plus grandes surfaces pour la même production, ce qui correspond en général à une plus grande autonomie des animaux. Un élevage de type extensif n’exclut pourtant pas un contact très proche de l’éleveur avec les animaux, notamment dans les systèmes d’élevage traditionnels, non plus qu’une sélection réfléchie et stricte. Celle-ci est cependant souvent moins forte voire inexistante et ces systèmes valorisent en premier lieu l’adaptation des animaux à leur milieu d’élevage. Les animaux de compagnie et de loisir L’interaction des animaux de compagnie avec leurs maîtres est bien sûr particulièrement importante et ils peuvent être intégrés à une cellule familiale, ce qui est habituellement le cas du chien. Ils apportent souvent un soutien affectif, psychologique, voire physique en aidant à la mobilité personnelle et au transport. Les activités pratiquées avec ces animaux relèvent souvent du sport ou des loisirs comme l’équitation ou la chasse. Ces activités exigent un apprentissage tant du côté humain qu’animal ainsi qu’un mode de communication particulière et pouvant être très élaboré. L’absence de contraintes strictement utilitaires permet l’apparition de variétés et de types d’animaux très divers, chez les animaux d’ornement en particulier. Le commensalisme Le commensalisme est une forme d’interaction entre deux espèces. Plusieurs espèces animales sont commensales de l’homme en ce qu’elles vivent en fonction de son activité, quoique sans être directement contrôlées par lui. L'impact de ces espèces pour les activités humaines va de la nuisance au bénéfice mutuel, en passant par l'absence d'effet sensibles, ce qui correspond au commensalisme au sens strict. Ces relations peuvent être considérées comme des cas limites de la domestication. Le qualificatif domestique du nom vernaculaire ou scientifique de plusieurs espèces correspond à cette acception, ce qui est le cas notamment de la mouche domestique (Musca domestica), de la souris domestique (Mus musculus) sauvage (sa forme blanche est réellement domestiquée), ou du moineau domestique (Passer domesticus), dont l'homme ne contrôle pas les populations, mais qui se sont adaptés à son voisinage. On emploie la notion de synanthropie pour décrire l'adaptation qui accompagne cette relation à l'espèce humaine, lorsqu'elle a les caractères d'une véritable microévolution. Le commensalisme concerne également des animaux plus gros, éliminant les déchets voire les charognes jusqu'en ville (vautour fauve, vautour noir en Afrique et en Amérique du Sud, chien paria en Orient) et de nouvelles espèces se sont adaptées aux villes comme la mouette rieuse ou le renard roux, notamment en Angleterre. Le lien de certaines espèces avec l'être humain peut tendre vers le mutualisme lorsque celles-ci sont non seulement tolérées mais considérées comme utiles en tant que prédateurs d'insectes ou rongeurs nuisibles. Ce sont notamment la cigogne, ou l'hirondelle. Ceux-ci peuvent vivre en véritable association avec un système agricole dans lequel ils ont un rôle et une place, et bénéficier sinon de soin, au moins d'une protection de la part de l'homme. On relève des cas de véritables collaborations entre hommes et animaux libres comme celle des dauphins qui rabattent des bancs de poissons vers les filets de pêcheurs côtiers en Mauritanie par exemple, les hommes comme les dauphins ayant ainsi de meilleurs chances de capture. Les dingos australiens, quoique beaucoup plus indépendants des hommes que leurs congénères domestiques, chassaient également en association avec l’homme. Le caractère obligatoire d'une telle relation n'est pas toujours avéré, néanmoins l'extension de l'aire de répartition d'une espèce commensale de l'homme paraît le plus souvent conditionnée à cette relation et donc aux activités humaines. Ainsi la souris domestique de Saint-Kilda a disparu après l'évacuation des habitants de cet archipel. L’élevage d’animaux sauvages Celui-ci représente un paradoxe dans la dualité sauvage/domestique. Au-delà de la détention et de l’élevage occasionnel d’animaux sauvages par des parcs zoologiques, des aquariums, des chercheurs ou des particuliers, qui peut concerner la plupart des espèces, il existe sous des formes et avec des objectifs variés. L’élevage d’animaux sauvages induit en fonction de son type et des espèces concernées des questions particulières, notamment juridiques au titre de la protection des espèces ou à propos de la propriété des animaux. L’élevage conservatoire porte sur une espèce en général rare ou disparue à l’état sauvage, pour sa sauvegarde et éventuellement sa réintroduction. Dans ce cas, on redoute la domestication et on tente d’éviter que cet élevage modifie les caractères originels de l’espèce. La réussite de l’élevage en captivité lui-même et plus encore celle de la réintroduction des animaux dans leur milieu naturel, conditionnent l'atteinte des objectifs de l'élevage conservatoire mais, sous cette réserve, la préservation du patrimoine génétique d'une espèce sauvage est apparue tout à fait possible par un élevage même très artificialisé. On élève des espèces de gibier en conditions artificielles pour produire des animaux sauvages destinés au repeuplement, des produits à chasser directement ou pour la production de viande. Les espèces sont typiquement : le faisan de Colchide ou le sanglier en Europe, et d’autres espèces suivant les régions du monde. Plusieurs espèces sauvages sans lien avec la chasse font également l’objet d’un élevage de production. On appelle gestion de faune sauvage ou gestion cynégétique l’action coordonnée, de la part ou pour le compte de chasseurs, sur une partie des espèces sauvages d’un territoire. Elle comporte par exemple l’aménagement du territoire pour favoriser une espèce, le nourrissage occasionnel, l’apport de sel, la mise à disposition de cultures destinées au gibier, et surtout le choix réfléchi des prélèvements en nombre et en qualité (âge et sexe des animaux) ainsi que des introductions éventuelles (repeuplement). En tant que telle, on peut la qualifier « d’action domesticatoire », sans que cela présume nécessairement une évolution des espèces de gibier qui en sont l’objet en espèces domestiques. Lorsque cette action est orientée vers la production, les anglo-saxons emploient le terme de game ranching qui peut être traduit comme élevage extensif, en milieu naturel, d’espèces sauvages ou de gibier. Cela consiste à gérer des populations, typiquement de grands herbivores comme des antilopes, dans leur milieu naturel et dans une optique de production, ou encore de chasse payante. Cette pratique est connue en Afrique australe, mais existe ou a existé sur les autres continents : en Amérique du Sud, la vigogne par exemple a fait et fait d'ailleurs encore l’objet de captures annuelles, où les animaux sont tondus et pour partie abattus. Cette pratique constitue de fait une action humaine de sélection, même si elle ne se fixe pas d'objectifs, sur les populations qui en sont l'objet. En Europe, le lièvre a fait l'objet d'un élevage de ce type. De la même façon, une gestion de faune aquatique ou gestion halieutique est pratiquée pour le compte des pêcheurs dans les milieux aquatiques. La gestion halieutique consiste à veiller à l’utilisation durable des ressources aquatiques ainsi qu’à la protection des processus écologiques et de la diversité biologique qui sont essentiels à leur maintien. Elle vise à faire en sorte que ces ressources aquatiques fournissent le maximum d’avantages durables et que la base de la ressource soit maintenue, en mer comme dans les eaux continentales. Cette gestion de la faune aquatique peut conduire à une action domesticatoire plus ou moins poussée. Ainsi en France, les espèces élevées en pisciculture d’étang sont peu transformées en dehors de la carpe, et le mode d’élevage correspond à un contrôle humain très faible. Les truites issues d’élevage relâchées en rivières, quoique biologiquement et techniquement plus domestiques, relèvent dans cette situation de la faune sauvage. Une variante en est le sea ranching ou pacage marin qui consiste à ne contrôler qu’une partie du cycle d’élevage : en général la reproduction ou les premiers stades de développement, puis à relâcher les animaux pour grossissement en pleine mer en vue de leur recapture. Cette technique est appliquée au saumon, à la coquille Saint-Jacques. L'expérience a également été menée avec les tortues de mer, espèces menacées et prisées pour leur chair ou leurs écailles, dont les premiers stades de développement sont sujets à une forte mortalité en milieu naturel. Les résultats sont mitigés, en raison de problèmes comportementaux observés chez certains sujets lorsqu'ils sont nés au sein d'un élevage puis relâchés au bout d'un certain âge, ou d'effondrements de la population sauvage lorsque la reproduction n'est pas réalisée au sein de l'élevage et que le ramassage continu des œufs dans la nature est trop important. Cet élevage controversé pourrait cependant endiguer partiellement le braconnage des tortues de mer, notamment celui de la tortue imbriquée. L'exploitation d'une espèce à l'état sauvage, comme c'est le cas des cerfs, plutôt que son élevage plus étroitement contrôlé paraît relever de systèmes voire de choix qui comportent des dimensions techniques, biologiques, mais aussi historiques, sociales et culturelles. Le marronnage On observe pour la plupart des espèces domestiques la possibilité de s’affranchir de la tutelle de l’homme, c’est-à-dire de reformer des populations vivant à l’état sauvage. Ce phénomène, appelé marronnage ou féralisation, survient notamment dans des milieux nouveaux pour l'espèce, notamment dans les îles, où celle-là peut se révéler invasive, et provoquer des dégâts écologiques comme la disparition d'espèces locales par prédation ou concurrence. Dans quelques cas, lorsqu'au contraire la forme sauvage de l'espèce est déjà présente, celle-ci peut subir une « pollution génétique » par croisement de ses représentants avec des animaux d'origine domestique. Le marronnage est probablement un élément de l’histoire de la domestication de plusieurs espèces, celles-ci ayant pu être élevées, puis s’échapper dans un milieu où l’homme les aura introduites, avant d’être à nouveau domestiquées. Cela s’est vu dans la période historique pour les mustangs repris par les Indiens des Plaines. Le marronnage semble montrer que la domestication d’une espèce n’est pas définitive ni irréversible. Cependant si ces animaux se montrent à nouveau tout à fait adaptés à la vie sauvage, ils gardent en général leurs caractères d’espèces ou de races domestiquées. La théorie de l'autodomestication humaine La théorie de l'autodomestication humaine avance que l'être humain s'est sélectionné génétiquement, la sélection naturelle laissant place à la sélection culturelle. Louis Bolk avait avancé la théorie de la néoténie ou théorie de la fœtalisation avançant que l'homme est un être juvénile. Les traits de néoténie (ou foetalisation) humaine s'expliqueraient ici par la domestication de l'homme par lui-même (ses parents, ses proches, la société). Les expériences sur la domestication de Dmitri Beliaïev sur le renard argenté domestiqué montrent que les animaux domestiqués (domestication par sélection génétique en évitant le contact humain) présentent, outre leur docilité, des traits de néoténie, une hausse de la sérotonine et une baisse de l'adrénaline, une période de reproduction plus longue. La solidité de ces conclusions sur la morphologie est cependant remise en cause dans la mesure où la souche de renards utilisés par Dmitri Beliaïev provenait d'un élevage pour la fourrure, où certains caractères pourraient avoir été pré-sélectionnés. Konrad Lorenz avait avancé l'idée de l'autodomestication humaine et postulé que la pression de sélection de l'homme par l'homme aurait conduit à une forme de dégénérescence de l'espèce humaine dont les plus touchées sont les races occidentales. Emil Kraepelin et Ernst Rüdin avançaient aussi cette idée d'autodomestication qui conduit à une dégénérescence de l'espèce (voir Théorie de la dégénérescence). Eugen Fischer, considérant que la blondeur et les yeux bleus sont des signes distinctifs de domestication, a proposé ces traits pour définir qui exterminer lors de la période nazie, alors même que les critères du aryen parfait étaient la blondeur et les yeux bleus. Contrairement à l'eugénisme qui se projette dans l'avenir et a pour objectif d'améliorer le génome humain par diverses méthodes, la théorie de l'autodomestication avance que l'être humain est déjà le résultat d'une sélection génétique par lui-même sans en être conscient. Une théorie avance que les bonobos pourraient aussi s'être autodomestiqués. Miguel Ruiz aborde dans son livre Les quatre accords toltèques, la domestication de l'homme par la transmission d'informations qui constituent le rêve et les règles du rêve. Notre nature personnelle ayant été perdue lors du processus de domestication. U. G. Krishnamurti aborde également la domestication de l'homme par la société via l'éducation, la culture et la religion. Cette domestication l'empêchant de se révéler et de s'éveiller dans ce qu'il appelle l'« état naturel ». Mais cette domestication est selon lui physique et pour s'en libérer le corps physique doit subir une mutation physique. Ce n'est pas une libération par l'esprit, mais une libération physique (chaque cellule stockant la connaissance). Bibliographie Jean-Pierre Digard, L’homme et les animaux domestiques : Anthropologie d’une passion, Fayard, coll. « Le temps des sciences », 1990 . PRODUCTIONS ANIMALES - Revue éditée par l’INRA Volume 17 - Numéro 3 - Juillet 2004 - Numéro spécial Domestication des poissons . Georges-Louis Leclerc, comte de Buffon Histoire Naturelle générale et particulière avec la description du cabinet du roi par Mrs. De Buffon et Daubenton, Tome quatrième, nouvelle édition à Amsterdam, chez J.H. Schneider M. DCCLXVI. lire en ligne. Juliet Clutton-Brock, A Natural History of Domesticated Mammals, Cambridge University Press, seconde édition, 1999, . Philippe Orsini, Les animaux domestiques, Muséum d'Histoire naturelle, Toulon, 2001. Francis Petter, Les animaux domestiques et leurs ancêtres, Bordas, 1973, . Robert Delort, Les animaux ont une histoire, Seuil, 1984, . Annexes Articles connexes Domestication par espèce : Domestication du chien, Domestication du cheval, Domestication de Bos taurus. Agriculture : Élevage sélectif des animaux, Culture sélective des plantes, Élevage, Liste des animaux d'élevage, Zootechnie, Plantes utiles, Races, Variété (botanique), Cultures fondatrices du Néolithique. Biologie : Syndrome de domestication, Évolution (biologie), Sélection (biologie), Synanthropie, Organisme génétiquement modifié, Marronnage (animaux). Philosophie : La Domestication de l'Être. Sciences : Archéozoologie, Zootechnie. Société : Néolithique, Animal de compagnie, Animal domestique en droit français, Bien-être animal, NAC. Liens externes Bernard Denis, , 2004, INRA Prod. Anim., 17, 161-166. , extraits du livre de Juliet Clutton-Brock, 1999, (voir Bibliographie). Les Nocturnes du Plan de Rome - 3D - Les animaux dans la domus au après J.-C. (06 avril 16) Références Domestication Portail:Zoologie/Articles liés Portail:Ornithologie/Articles liés Portail:Félins/Articles liés
1063
https://fr.wikipedia.org/wiki/Expression%20r%C3%A9guli%C3%A8re
Expression régulière
En informatique, une expression régulière ou expression rationnelle ou expression normale ou motif est une chaîne de caractères qui décrit, selon une syntaxe précise, un ensemble de chaînes de caractères possibles. Les expressions régulières sont également appelées regex (un mot-valise formé depuis l'anglais ). Les expressions rationnelles sont issues des théories mathématiques des langages formels des années 1940. Leur capacité à décrire avec concision des ensembles réguliers explique qu’elles se retrouvent dans plusieurs domaines scientifiques dans les années d’après-guerre et justifie leur adoption en informatique. Les expressions régulières sont aujourd’hui utilisées pour programmer des logiciels avec des fonctionnalités de lecture, de contrôle, de modification, et d'analyse de textes ainsi que dans la manipulation des langues formelles que sont les langages informatiques. Ces expressions régulières ont la qualité de pouvoir être décrites par des formules ou motifs (en anglais ) bien plus simples que les autres moyens. Histoire Dans les années 1940, Warren McCulloch et Walter Pitts ont décrit le système nerveux en modélisant les neurones par des automates simples. En 1956, le logicien Stephen Cole Kleene a ensuite décrit ces modèles en termes d’ensembles réguliers et d'automates. Il est considéré comme l'inventeur des expressions régulières. En 1959, Michael O. Rabin et Dana Scott proposent le premier traitement mathématique et rigoureux de ces concepts, ce qui leur vaudra le prix Turing en 1976. Dans ce contexte, les expressions régulières correspondent aux grammaires de type 3 (voir Grammaire formelle) de la hiérarchie de Chomsky ; elles peuvent donc être utilisées pour décrire la morphologie d’une langue. Ken Thompson a mis en œuvre la notation de Kleene dans l’éditeur qed, puis l’éditeur ed sous Unix, et finalement dans grep. Depuis lors, les expressions régulières ont été largement utilisées dans les utilitaires tels que lex ainsi que dans les langages de programmation nés sous Unix, tels que expr, awk, Perl, Tcl, Python, etc. En sortant du cadre théorique, les expressions régulières ont acquis des fonctionnalités permettant de décrire des langages non rationnels. Un glissement sémantique s'est ainsi produit : la notion d'expression régulière n'a pas le même sens dans le contexte de l'informatique appliquée et dans la théorie des langages formels. Utilisation Initialement créées pour décrire des langages formels, les expressions régulières sont utilisées dans l’analyse et la manipulation des langages informatiques ; compilateurs et interprètes sont ainsi basés sur celles-ci. Utilisée à la manière des outils de recherche de texte dans un document, une expression régulière décrit des chaînes de caractères ayant des propriétés communes, dans le but de les trouver dans un bloc de texte pour leur appliquer un traitement automatisé, comme un ajout, leur remplacement, leur modification ou leur suppression. Beaucoup d'éditeurs de texte et la plupart des environnements de développement intégrés permettent de mettre en œuvre les expressions régulières. Un grand nombre d’utilitaires Unix savent les utiliser nativement. Les plus connus sont GNU grep ou GNU sed qui, à la manière des éditeurs de texte, utilisent ces expressions pour parcourir de façon automatique un document à la recherche de morceaux de texte compatibles avec le motif de recherche, et éventuellement effectuer un ajout, une substitution ou une suppression. Les interfaces en ligne de commande (ou shells) utilisent un système apparenté mais distinct et moins expressif appelé ou globbing. Les expressions régulières sont fréquemment employées dans les activités d'administration système, de développement logiciel et de traitement automatique du langage naturel. Elles ont vu un nouveau champ d’application avec le développement d’Internet, et la diffusion de code malveillant ou de messages pourriels. Des filtres et des robots utilisant ces expressions sont utilisés pour détecter les éléments potentiellement nuisibles. En théorie des langages formels, une expression régulière est une expression représentant un langage rationnel. Dans ce contexte, les expressions régulières ont un pouvoir expressif plus limité : cette notion a un sens plus large en informatique appliquée qu'en théorie des langages formels. Principes de base Une expression régulière est une suite de caractères typographiques (qu’on appelle plus simplement « motif » – « » en anglais) décrivant un ensemble de chaînes de caractères. Par exemple l’ensemble de mots « ex-équo, ex-equo, ex-aequo et ex-æquo » peut être condensé en un seul motif « ex-(a?e|æ|é)quo ». Les mécanismes de base pour former de telles expressions sont basés sur des caractères spéciaux de substitution, de groupement et de quantification. Une barre verticale sépare le plus souvent deux expressions alternatives : « equo|aequo » désigne soit equo, soit aequo. Il est également possible d’utiliser des parenthèses pour définir le champ et la priorité de la détection, « (ae|e)quo » désignant le même ensemble que « aequo|equo » et de quantifier les groupements présents dans le motif en apposant des caractères de quantification à droite de ces groupements. Les quantificateurs les plus répandus sont : ? qui définit un groupe qui existe zéro ou une fois : toto? correspondant alors à « tot » ou « toto » mais pas « totoo » ; * qui définit un groupe qui existe zéro, une ou plusieurs fois (l'étoile de Kleene) : toto* correspondant à « tot », « toto », « totoo », « totooo » ; + qui définit un groupe qui existe une ou plusieurs fois : toto+ correspondant à « toto », « totoo », « totooo » mais pas « tot ». Les symboles dotés d'une sémantique particulière peuvent être appelés « opérateurs », « métacaractères » ou « caractères spéciaux ». Les caractères qui ne représentent qu'eux-mêmes sont dits « littéraux ». Les expressions régulières peuvent être combinées, par exemple par concaténation, pour produire des expressions régulières plus complexes. Lorsqu'une chaîne de caractères correspond à la description donnée par l'expression régulière, on dit qu'il y a « correspondance » entre la chaîne et le motif, ou que le motif « reconnaît » la chaîne. Cette correspondance peut concerner la totalité ou une partie de la chaîne de caractères. Par exemple, dans la phrase « Les deux équipes ont terminé ex-æquo et se sont saluées. », la sous-chaîne « ex-æquo » est reconnue par le motif « ex-(a?e|æ|é)quo ». Par défaut, les expressions régulières sont sensibles à la casse. Lorsque c'est possible, elles tentent de reconnaître la plus grande sous-chaîne correspondant au motif : on dit qu'elles sont « gourmandes ». Par exemple, Aa+ reconnaît la totalité de la chaîne « Aaaaaaa » plutôt qu'une partie « Aaa » (gourmandise), mais elle ne reconnaît pas la chaîne « aaaA » (sensibilité à la casse). Opérateurs de base Standards Dans le domaine de l'informatique, un outil permettant de manipuler les expressions régulières est appelé un moteur d'expressions régulières ou moteur d'expressions rationnelles. Il existe des standards permettant d'assurer une cohérence dans l'utilisation de ces outils. Le standard POSIX propose trois jeux de normes : BRE (Basic Regular Expressions) pour les expressions régulières basiques. C'est par exemple le standard par défaut pour sed et grep ERE (Extended Regular Expressions) pour les expressions régulières étendues. SRE (Simple Regular Expressions) qui est devenu obsolète. Les expressions régulières de perl sont également un standard de fait, en raison de leur richesse expressive et de leur puissance. Tout en suivant leur propre évolution, elles sont par exemple à l'origine de la bibliothèque PCRE. ECMAScript propose également dans le document Standard ECMA-262 une norme employée par exemple par JavaScript. Les notations ou leurs sémantiques peuvent varier légèrement d'un moteur d'expression régulière à l'autre. Ils peuvent ne respecter que partiellement ces normes, ou de manière incomplète, ou proposer leurs propres fonctionnalités, comme GNU ou le Framework .NET. Les spécificités de chacun sont abordées plus loin dans cet article. Classe de caractères Une classe de caractères désigne un ensemble de caractères. Elle peut être définie de différentes manières : en extension ([0123456789] pour les caractères de « 0 » à « 9 ») ; en intension ([0-9] en conservant cet exemple) ; négativement : les classes [^0123456789] et [^0-9] désignent chacune l'ensemble des caractères qui ne sont pas des chiffres décimaux. Des unions de classes de caractères peuvent être faites : [0-9ab] désigne l'ensemble constitué des caractères « 0 » à « 9 » et des lettres « a » et « b ». Certaines bibliothèques permettent également de faire des intersections de classes de caractères. Entre les crochets, les métacaractères sont interprétés de manière littérale : [.?*] désigne l'ensemble constitué des caractères « . », « ? » et « * ». Standardisation et application Les classes de caractères les plus utilisées sont généralement fournies avec le moteur d'expression régulière. Un inventaire de ces classes est dressé dans la table ci-dessous. La bibliothèque POSIX définit des classes au départ pour l'ASCII, puis, par extension, pour d'autres formes de codage de caractères, en fonction des paramètres régionaux. Dans Unicode et des langages comme le perl, des ensembles de caractères sont définis au travers de la notion de propriétés de caractères. Cela permet de désigner un ensemble de caractères en fonction de sa catégorie (exemples : lettre, ponctuation ouvrante, ponctuation fermante, séparateur, caractère de contrôle), en fonction du sens d'écriture (par exemple de gauche à droite ou de droite à gauche), en fonction de l'alphabet (exemples : latin, cyrillique, grec, hiragana) ; en fonction de l'allocation des blocs, ou même selon les mêmes principes que les classes de caractères POSIX (à ce sujet, lire la section Expressions régulières et Unicode). Par exemple, dans le standard POSIX, [[:upper:]ab] fait correspondre un caractère parmi l’ensemble formé par toutes les lettres majuscules ainsi que les lettres minuscules « a » et « b ». Dans le standard ASCII, cette expression régulière s'écrirait [A-Zab]. Classe d'équivalence La notion de classe d'équivalence ne doit pas être confondue avec la notion de classe de caractères. Par exemple, dans la locale FR, la classe [=e=] regroupe l'ensemble des lettres {e, é, è, ë, ê}. Ceci signifie que lorsqu'elles sont collationnées, les lettres {e, é, è, ë, ê} apparaissent dans le même jeu de caractères, après le d, et avant le f. Fonctions avancées La plupart des standards et moteurs d'expressions régulières proposent des fonctions avancées. Notamment : Quantificateurs non gloutons : Par défaut, les quantificateurs « + » et « * » recherchent la plus grande séquence correspondant au motif recherché. Ces nouveaux quantificateurs, souvent notés « +? » et « *? », permettent à l'inverse de rechercher la plus petite séquence correspondante. Par exemple, l'expression régulière ab+? appliquée à la chaîne « abbbbc » entre en correspondance avec la sous-chaîne « ab » plutôt que « abbbb ». Capture des groupements : La capture des groupements permet de réutiliser un groupement entré en correspondance pour un traitement ultérieur, par exemple une substitution. Dans la plupart des syntaxes, il est possible d'accéder au nème groupement capturé par la syntaxe « \n » ou parfois « $n », où n est un entier. Groupements non capturants : Lorsqu'elle est implémentée, la capture des groupements est souvent le comportement par défaut. Comme elle a un coût algorithmique important, il est parfois possible de désactiver la capture de certains groupements. On peut par exemple citer la syntaxe « (?:groupement) ». Captures nommées : Les longues expressions régulières avec de nombreux groupements peuvent être complexes à lire et à maintenir. Pour faciliter cette tâche, certains moteurs permettent de nommer les groupements, par exemple avec la syntaxe « (?P<nom>groupement) » en Python. Références arrières : Les références arrières permettent de faire référence à un même groupement capturé. Par exemple « b(.)b\1 » entrera en correspondance avec « bébé » et « bobo » mais pas « baby ». Cette fonctionnalité, proposée par la plupart des moteurs, permet de reconnaître des langages non rationnels tels que anban pour tout n entier positif. Modificateurs de mode de correspondance : ces modificateurs permettent de faire varier localement le comportement de l'expression régulière. Par exemple, alors qu'elles sont normalement sensibles à la casse, l'expression perl « (?i:nom)-Prénom » entrera en correspondance avec « NOM-Prénom » et « Nom-Prénom » mais pas « Nom-prénom ». Parmi les autres modificateurs, on peut citer le mode multi-lignes, le mode non-gourmand ou le « free-spacing mode ». Conditions : certains moteurs permettent de construire des structures « if ... then ... else ... » au sein même des expressions régulières. Par exemple, en perl, l'expression « ^(?(?=[abc])[def]|[ghi]) » se lit : « si la chaîne commence par la lettre a, b ou c, chercher à leur suite la lettre d, e ou f, sinon chercher la lettre g, h ou i. » Commentaires : Dans un souci de lisibilité, des moteurs permettent de commenter les expressions régulières au sein même de celles-ci. Code embarqué : Lorsqu'une expression régulière est utilisée au sein d'un programme, cette fonctionnalité permet de déclencher des actions lorsqu'une partie de la chaîne est entrée en correspondance. Notations : implémentations et standardisation Les notations utilisées sont très variables. Ce chapitre regroupe d'une part les notations propres à différentes implémentations, et d'autre part, l'entreprise de normalisation. Standard POSIX Le standard POSIX a cherché à remédier à la prolifération des syntaxes et fonctionnalités, en offrant un standard d’expressions régulières configurables. On peut en obtenir un aperçu en lisant le manuel de regex sous une grande partie des dialectes Unix dont GNU/Linux. Toutefois, même cette norme n’inclut pas toutes les fonctionnalités ajoutées aux expressions régulières de Perl. Enfin, POSIX ajoute le support pour des plates-formes utilisant un jeu de caractère non basé sur l’ASCII, notamment EBCDIC, et un support partiel des locales pour certains méta-caractères. Expressions régulières basiques Les utilitaires du monde Unix tels que sed, GNU grep, ed ou vi utilisent par défaut la norme BRE (« Basic Regular Expression ») de POSIX. Dans celle-ci, les accolades, les parenthèses, le symbole « ? » et le symbole « + » ne sont pas des métacaractères : ils ne représentent qu'eux-mêmes. Pour prendre leur sémantique de métacaractères, ils ont besoin d'être échappés par le symbole « \ ». Exemple : l'expression régulière (ab.)+ reconnaît « (abc)+ » mais pas « abcabd », pour laquelle \(ab.\)\+ convient. Expressions régulières étendues Les expressions régulières étendues POSIX (ERE pour « Extended Regular Expression ») sont souvent supportées dans les utilitaires des distributions Unix et GNU/Linux en incluant le drapeau -E dans la ligne de commande d’invocation de ces utilitaires. Contrairement aux expressions régulières basiques, elles reconnaissent les caractères vus précédemment comme des métacaractères. Ils doivent ainsi être échappés pour être interprétés littéralement. La plupart des exemples donnés en présentation sont des expressions régulières étendues POSIX. Séquences d’échappement Comme les caractères (, ), [, ], ., *, ?, +, ^, |, $ , - et \ sont utilisés comme symboles spéciaux, ils doivent être référencés dans une séquence d’échappement s’ils doivent désigner littéralement le caractère correspondant. Ceci se fait en les précédant avec une barre oblique inversée \. Notation étendue dans vim et emacs Des extensions semblables sont utilisées dans l’éditeur emacs, qui utilise un jeu de commandes différent du standard POSIX ; mais reprend les mêmes expressions régulières en apportant une notation étendue. Les expressions régulières étendues sont maintenant supportées aussi dans vim, la version améliorée de vi. De plus, de nombreuses autres séquences d’échappement sont ajoutées pour désigner des classes de caractères prédéfinies. Elles sont spécifiques à chaque utilitaire ou parfois variables en fonction de la version ou la plate-forme (cependant elles sont stables depuis longtemps dans emacs qui a fait figure de précurseur de ces extensions, que d’autres auteurs ont partiellement implémentées de façon limitée ou différente). Python Python utilise des expressions régulières basées sur les expressions régulières POSIX, avec quelques extensions ou différences. Les éléments compatibles POSIX sont les suivants : opérateurs [ ], ., *, ?, +, |, ( ) caractères \t, \n, \v, \f, \r \ooo : caractère littéral dont le code octal (entre 0 et 377, sur 1 à 3 chiffres) est ooo. \xNN : caractère littéral dont le code hexadécimal est NN (sur 2 chiffres). La séquence \b désigne le caractère de retour arrière (0x08 avec un codage compatible ASCII) lorsqu'elle est utilisée à l'intérieur d'une classe de caractère, et la limite d'un mot autrement. Bibliothèque BSD Le système d'exploitation BSD utilise la bibliothèque regex écrite par Henry Spencer. Compatible avec la norme POSIX 1003.2, cette bibliothèque est également utilisée par MySQL (avec les opérateurs REGEXP et NOT REGEXP) et PostgreSQL (avec l'opérateur « ~ » et ses variantes). Tcl Le moteur d'expressions régulières du langage Tcl est issu de développements d'Henry Spencer postérieurs à ceux de la bibliothèque BSD. Les expressions régulières sont appelées Expressions régulières avancées (ou ARE, Advanced Regular Expressions) et sont légèrement différentes des expressions régulières étendues de POSIX. Les expressions régulières basiques et étendues sont également supportées. Perl Perl offre un ensemble d’extensions particulièrement riche. Ce langage de programmation connaît un succès très important dû à la présence d’opérateurs d’expressions régulières inclus dans le langage lui-même. Les extensions qu’il propose sont également disponibles pour d’autres programmes sous le nom de lib PCRE (, littéralement bibliothèque d’expressions régulières compatible avec Perl). Cette bibliothèque a été écrite initialement pour le serveur de courrier électronique Exim, mais est maintenant reprise par d’autres projets comme Python, Apache, Postfix, KDE, Analog, PHP et Ferite. Les spécifications de Perl 6 régularisent et étendent le mécanisme du système d’expressions régulières. De plus il est mieux intégré au langage que dans Perl 5. Le contrôle du retour sur trace y est très fin. Le système de regex de Perl 6 est assez puissant pour écrire des analyseurs syntaxiques sans l’aide de modules externes d’analyse. Les expressions régulières y sont une forme de sous-routines et les grammaires une forme de classe. Le mécanisme est mis en œuvre en assembleur Parrot par le module PGE dans la mise en œuvre Parrot de Perl 6 et en Haskell dans la mise en œuvre Pugs. Ces mises en œuvre sont une étape importante pour la réalisation d’un compilateur Perl 6 complet. Certaines des fonctionnalités des regexp de Perl 6, comme les captures nommées, sont intégrées depuis Perl 5.10. PHP PHP supporte deux formes de notations : la syntaxe POSIX (POSIX 1003.2) et celle, beaucoup plus riche et performante, de la bibliothèque PCRE (Perl Compatible Regular Expression). Un des défauts reprochés à PHP est lié à son support limité des chaînes de caractères, alors même qu’il est principalement utilisé pour traiter du texte, puisque le texte ne peut y être représenté que dans un jeu de caractères codés sur , sans pouvoir préciser clairement quel codage est utilisé. En pratique, il faut donc adjoindre à PHP des bibliothèques de support pour le codage et le décodage des textes, ne serait-ce que pour les représenter en UTF-8. ICU ICU définit une bibliothèque portable pour le traitement de textes internationaux. Celle-ci est développée d’abord en langage C (version nommée ICU4C) ou pour la plate-forme Java (version nommée ICU4J). Des portages (ou adaptations) sont aussi disponibles dans de nombreux autres langages, en utilisant la bibliothèque développée pour le langage C (ou C++). Les expressions régulières utilisables dans ICU reprennent les caractéristiques des expressions régulières de Perl, mais les complètent pour leur apporter le support intégral du jeu de caractères Unicode (voir la section suivante pour les questions relatives à la normalisation toujours en cours). Elles clarifient également leur signification en rendant les expressions régulières indépendantes du jeu de caractère codé utilisé dans les documents, puisque le jeu de caractères Unicode est utilisé comme codage pivot interne. En effet, les expressions régulières de Perl (ou PCRE) ne sont pas portables pour traiter des documents utilisant des jeux de caractères codés différents, et ne supportent pas non plus correctement les jeux de caractères codés multi-octets (à longueur variable tels que ISO 2022, Shift-JIS, ou UTF-8), ou codés sur une ou plusieurs unités binaires de plus de (par exemple UTF-16) puisque le codage effectif de ces jeux sous forme de séquences d’octets dépend de la plate-forme utilisée pour le traitement (ordre de stockage des octets dans un mot de plus de ). ICU résout cela en adoptant un traitement utilisant en interne un jeu unique défini sur et supportant la totalité du jeu de caractères universel (UCS), tel qu’il est défini dans la norme ISO/IEC 10646 et précisé sémantiquement dans le standard Unicode (qui ajoute à la norme le support de propriétés informatives ou normatives sur les caractères, et des recommandations pour le traitement automatique du texte, certaines de ces recommandations étant optionnelles ou informatives, d’autres étant devenues standards et intégrées au standard Unicode lui-même, d’autres enfin ayant acquis le statut de norme internationale à l’ISO ou de norme nationale dans certains pays). ICU supporte les extensions suivantes, directement dans les expressions régulières, ou dans l’expression régulière d’une classe de caractères (entre […]) : \uhhhh : correspond à un caractère dont le point de code (selon ISO/IEC 10646 et Unicode) a la valeur hexadécimale hhhh. \Uhhhhhhhh : correspond à un caractère dont le point de code (selon ISO/IEC 10646 et Unicode) a la valeur hexadécimale hhhhhhhh ; exactement huit chiffres hexadécimaux doivent être fournis, même si le point de code le plus grand accepté est \U0010ffff. \N{NOM DU CARACTÈRE UNICODE} : correspond au caractère désigné par son nom normalisé, c’est-à-dire tel qu’il est défini de façon irrévocable dans la norme ISO/IEC 10646 (et repris dans le standard Unicode). Cette syntaxe est une version simplifiée de la syntaxe suivante permettant de désigner d’autres propriétés sur les caractères : \p{code d’une propriété Unicode} : correspond à un caractère doté de la propriété Unicode spécifiée. \P{code d’une propriété Unicode} : correspond à un caractère non doté de la propriété Unicode spécifiée. \s : correspond à un caractère séparateur ; un séparateur est défini comme [\t\n\f\r\p{Z}]. Les expressions régulières d’ICU sont actuellement parmi les plus puissantes et les plus expressives dans le traitement des documents multilingues. Elles sont largement à la base de la normalisation (toujours en cours) des expressions régulières Unicode (voir ci-dessous) et un sous-ensemble est supporté nativement dans la bibliothèque standard du langage Java (qui utilise en interne un jeu de caractères portable à codage variable, basé sur UTF-16 avec des extensions, et dont les unités de codage sont sur ). ICU est une bibliothèque encore en évolution. En principe, elle devrait adopter toutes les extensions annoncées dans Perl (notamment les captures nommées), dans le but d’assurer l’interopérabilité avec Perl 5, Perl 6, et PCRE, et les autres langages de plus en plus nombreux qui utilisent cette syntaxe étendue, et les auteurs d’ICU et de Perl travaillent en concert pour définir une notation commune. Toutefois, ICU adopte en priorité les extensions adoptées dans les expressions régulières décrites dans le standard Unicode, puisque ICU sert de référence principale dans cette annexe standard d’Unicode. Toutefois, il n’existe encore aucun standard ou norme technique pour traiter certains aspects importants des expressions régulières dans un contexte multilingue, notamment : La prise en compte de l’ordonnancement propre à chaque locale (c’est-à-dire l’ordre de tri, éventuellement multiniveau, des textes en fonction de la langue et de l’écriture, et des unités inséparables de texte qui peuvent comprendre un ou plusieurs caractères codés éventuellement de plusieurs façons possibles mais toutes équivalentes dans cette langue) ; ce manque de normalisation (expérimentation toujours en cours) fait apparaître des différences de traitement et donc de portabilité des classes de caractères contenant des étendues (de la forme [a-b]). Actuellement, ICU ne supporte encore que les étendues dans l’ordre binaire des points de code Unicode, un ordre qui n’est pas du tout approprié pour le traitement correct de nombreuses langues puisqu’il contrevient à leur ordre de collation standard. L’ordre des occurrences multiples trouvées dans le texte quand celles-ci peuvent se chevaucher totalement ou partiellement. Cela résulte de l’utilisation de quantificateurs variables, et influe sur le contenu des sous-chaînes capturées. Si cet ordre peut changer, et que seule la première occurrence trouvée est utilisée par exemple dans une opération de recherche et substitution automatique ou le traitement des captures, alors le traitement dépendra de l’implémentation. En théorie, les expressions régulières désignent chacune un ensemble non ordonné de textes, et les accords trouvés dans un texte source peuvent être eux aussi à des positions quelconques dans le texte source, puisque le résultat d’une recherche contient en fait non seulement les captures, mais aussi les positions relatives. Pour préciser ces derniers aspects manquants, des métacaractères supplémentaires devraient pouvoir être utilisés pour contrôler ou filtrer les occurrences trouvées, ou bien un ordre normalisé imposé à la liste des occurrences retournées. Les auteurs d’applications doivent donc être vigilants sur ces points et s’assurer de lire toutes les occurrences trouvées et pas seulement la première, afin de pouvoir décider laquelle des occurrences est la mieux appropriée à une opération donnée. Expressions régulières et Unicode Les expressions régulières ont originellement été utilisées avec les caractères ASCII. Beaucoup de moteurs d’expressions régulières peuvent maintenant gérer l’Unicode. Sur plusieurs points, le jeu de caractères codés utilisés ne fait aucune différence, mais certains problèmes surgissent dans l’extension des expressions régulières pour Unicode. Une question est de savoir quel format de représentation interne d’Unicode est supporté. Tous les moteurs d’expressions régulières en ligne de commande attendent de l’UTF-8, mais pour les bibliothèques, certaines attendent aussi de l’UTF-8, mais d’autres attendent un jeu codé sur UCS-2 uniquement (voire son extension UTF-16 qui restreint aussi les séquences valides), ou sur UCS-4 uniquement (voire sa restriction normalisée UTF-32). Une deuxième question est de savoir si l’intégralité de la plage des valeurs d’une version d’Unicode est supportée. Beaucoup de moteurs ne supportent que le Basic Multilingual Plane, c’est-à-dire, les caractères encodables sur . Seuls quelques moteurs peuvent (dès 2006) gérer les plages de valeurs Unicode sur . Une troisième question est de savoir comment les constructions ASCII sont étendues à l’Unicode. Par exemple, dans les mises en œuvre ASCII, les plages de valeurs de la forme sont valides quels que soient x et y dans la plage et . L’extension naturelle de ces plages de valeurs Unicode changerait simplement l’exigence sur la plage de valeurs en exigence sur la plage étendue à . Cependant, en pratique ce n’est souvent pas le cas : Certaines mises en œuvre, telles que celle de gawk, ne permettent pas aux plages de valeurs de couvrir plusieurs blocs Unicode. Une plage de valeurs telle que est valide puisque les deux bornes tombent à l’intérieur du même bloc Basic Latin, comme qui tombe dans le bloc arménien, mais une plage telle que est invalide puisqu’elle est à cheval sur plusieurs blocs Unicode. Cette restriction s’avère très gênante car de nombreuses langues nécessitent des caractères appartenant à des blocs différents, la définition même des blocs étant arbitraire et provenant seulement du processus historique d’allocation et d’évolution de la norme ISO/IEC 10646 (et en conséquence aussi, des évolutions du standard Unicode). Une telle restriction devrait être à terme levée par une amélioration de l’implémentation. D’autres moteurs tels que celui de l’éditeur Vim, permettent le chevauchement de blocs mais limitent le nombre de caractères d’une plage à 128, ce qui est encore plus pénalisant car cela ne permet pas de traiter directement certaines écritures, où il faudrait lister un nombre considérable de sous-plages, avec des conséquences importantes sur les performances. Là aussi, des améliorations sont attendues dans l’implémentation pour lever ces restrictions. Un autre domaine dans lequel des variations existent est l’interprétation des indicateurs d’insensibilité à la casse. De tels indicateurs n’affectent que les caractères ASCII ; d’autres affectent tous les caractères (et prennent en compte la correspondance de casse soit caractère par caractère dans les implémentations les plus simples, soit au niveau du texte entier dans les implémentations respectant les contraintes de langues, ceci pouvant utiliser les correspondances d’un sous-ensemble d’une version donnée d’Unicode, d’autres pouvant utiliser toutes les correspondances de n’importe quelle version d’Unicode, éventuellement précisable au sein même de l’expression régulière). Certains moteurs ont deux indicateurs différents, l’un pour ASCII, l’autre pour Unicode. Les caractères exacts qui appartiennent aux classes POSIX varient également. Une autre réponse à Unicode a été l’introduction des classes de caractères pour les blocs Unicode et les propriétés générales des caractères Unicode: En Perl et dans la bibliothèque java.util.regex de Java, les classes de la forme \p{InX} valident les caractères du bloc X et \P{InX} valide le complément. Par exemple, \p{Arabic} valide n’importe quel caractère de l’écriture arabe (dans l’un quelconque des blocs normalisés d’Unicode/ISO/IEC 10646 où de tels caractères sont présents). Similairement, \p{X} valide n’importe quel caractère ayant la propriété de catégorie générale de caractère X et \P{X} le complément. Par exemple, \p{Lu} valide n’importe quelle lettre capitale (upper-case letter). D’autres propriétés que la catégorie générale peuvent être désignées avec la notation \p{prop=valeur} et son complément \P{prop=valeur}, où prop est le code d’une propriété de caractères, et valeur sa valeur attribuée à chaque caractère. Enfin des extensions ont été proposées pour utiliser un autre opérateur que la seule égalité (ou différence) de valeur de propriété, en utilisant une syntaxe d’expression régulière ou une simple alternation pour la valeur. Notes : Certaines propriétés de caractères sont normatives et ne devraient pas dépendre de la version utilisée, c’est le cas des propriétés définies dans ISO/IEC 10646 : le nom normalisé du caractère, le point de code, le nom du bloc où le caractère est codé. D’autres propriétés sont standards et correspondent à des propriétés normatives du standard Unicode : ce sont essentiellement les propriétés de base définies dans la table principale de caractères Unicode. En principe, elles sont invariables. C’est le cas des correspondances simples de casse (caractère par caractère), ou de la catégorie générale du caractère. Dans bien des cas, ces propriétés ne sont pas adaptées à toutes les langues. D’autres propriétés sont informatives, et peuvent faire l’objet de révision d’une version d’Unicode à l’autre : ce sont essentiellement les propriétés définies dans les tables supplémentaires d’Unicode. En particulier elles sont adaptables en fonction de la langue utilisée et désignent par exemple les propriétés de correspondances de casse étendues (traitant le texte dans sa globalité), ou les propriétés d’ordonnancement (). Cependant certaines de ces dernières tables ont acquis le statut de standard (en étant intégrées dans des annexes standards du standard Unicode) et sont même utilisées dans la définition de certaines normes, ou bien d’autres propriétés historiques sont encore maintenues mais d’usage non recommandé. Consulter le standard Unicode pour connaître le statut actuel de ces propriétés. Implémentations et complexité algorithmique Il existe au moins trois familles d'algorithmes qui déterminent si une chaîne de caractères correspond à une expression régulière. La plus ancienne approche, dite explicite, repose sur la traduction de l'expression régulière en un automate fini déterministe (AFD). La construction d'un tel automate pour une expression régulière de taille m a une complexité en taille et en mémoire en O(2m) mais peut être exécutée sur une chaîne de taille n en un temps O(n). Une approche alternative, dite implicite, consiste à simuler un automate fini non déterministe en construisant chaque AFD à la volée et en s'en débarrassant à l'étape suivante. Cette approche évite la complexité exponentielle de l'approche précédente, mais le temps d'exécution augmente en O(mn). Ces algorithmes sont rapides mais certaines fonctionnalités telles que la recapture de sous-chaînes et la quantification non gourmande sont difficiles à mettre en oeuvre. La troisième approche consiste à confronter le motif à la chaîne de caractères par séparation et évaluation ("backtracking"). Sa complexité algorithmique est exponentielle dans le pire des cas, par exemple avec des motifs tels que (a|aa)*b, mais donne de bons résultats en pratique. Elle est plus flexible et autorise un plus grand pouvoir expressif, par exemple en simplifiant la recapture de sous-chaînes. Certaines implémentations tentent de combiner les qualités des différentes approches, en commençant la recherche avec un AFD, puis en utilisant la séparation et évaluation lorsque c'est nécessaire. Notes et références Notes Références Voir aussi Articles connexes Filtrage par motif Algèbre de Kleene Bibliographie . . . Langage formel Automates finis et langages réguliers Programmation informatique
1064
https://fr.wikipedia.org/wiki/Episyrphus
Episyrphus
est un genre d'insectes diptères brachycères de la famille des syrphidés (ou syrphes), dont les larves ont pour proies principalement les pucerons colonisant la flore sauvage et aussi les arbres fruitiers, les cultures légumières, les grandes cultures... Espèces Seule espèce appartenant au genre Episyrphus selon : Episyrphus balteatus - le syrphe ceinturé Espèces de ce genre selon : Nombreuses espèces Liens externes Notes et références Syrphidae Genre de Diptères (nom scientifique) Taxon décrit en 1917
1065
https://fr.wikipedia.org/wiki/Erigone%20%28genre%29
Erigone (genre)
Erigone est un genre d'araignées aranéomorphes de la famille des Linyphiidae. Distribution Les espèces de ce genre se rencontrent en Amérique, en Europe, en Asie, en Afrique et en Océanie. Description Les mâles du genre Erigone sont remarquables par les épines qu'ils portent sur leur céphalothorax et les tibias de leurs pédipalpes. Écologie Ce sont des araignées prédatrices, elles ont pour proies de petits insectes comme les psylles et les diptères. Liste des espèces Selon : Selon World Spider Catalog (version 20.5, 2020) : Erigone dechenii Bertkau, 1878 Publication originale Audouin, 1826 : Explication sommaire des planches d'arachnides de l'Égypte et de la Syrie publiées par J. C. Savigny, membre de l'Institut; offrant un exposé des caractères naturels des genres avec la distinction des espèces. in Description de l'Égypte, ou Recueil des observations et des recherches qui ont été faites en Égypte pendant l'expédition de l'armée française. Histoire Naturelle, tome 1, partie 4, . Liens externes Notes et références Linyphiidae Genre d'araignées (nom scientifique)
1066
https://fr.wikipedia.org/wiki/Enki%20Bilal
Enki Bilal
Enes Bilal, dit Enki Bilal , est auteur de bande dessinée et réalisateur français, né le à Belgrade en Yougoslavie (actuellement en Serbie). Son œuvre se situe en partie dans la science-fiction et aborde les thèmes du temps ou de la mémoire. En 1987, il obtient le Grand prix du festival d'Angoulême. Biographie Enfance Enes Bilal naît le à Belgrade, en République fédérative socialiste de Yougoslavie, deux ans après sa sœur Enisa. Leur père Muhamed Hamo Bilal est un tailleur bosniaque, musulman non pratiquant, originaire de Ljubuški (alors en Yougoslavie), et leur mère Ana une tchèque née à Karlovy Vary (alors en Tchécoslovaquie). La famille est installée à Belgrade au 16 rue Tadeuša Košćuška, dans le quartier de Dorćol. Enki était le diminutif affectueux d'Enes utilisé en famille, et dont il fera plus tard son pseudonyme d'auteur. Lorsque Enes est encore enfant, son père, qui bien qu'ayant été un compagnon de Tito dans la résistance, refusait d'adhérer au parti communiste, demande l'asile en France, où il avait achevé sa formation de tailleur en 1936. Sa femme et ses deux enfants le rejoignent précipitamment à Paris en 1961. En 1967, les Bilal sont naturalisés français. Auteur Enki Bilal se lance d'abord dans la bande dessinée. En 1971, il gagne un concours de bande dessinée, organisé par le journal Pilote et le Drugstore Number One, dans la catégorie aventures (Pilote page 53). En 1972, après un passage éclair aux Beaux-Arts, Enki Bilal publie sa première histoire, « Le Bol maudit », dans le journal Pilote. En 1975, il rencontre le scénariste Pierre Christin et publie son premier album, l'Appel des étoiles. En 1980, première série personnelle, dans Pilote, La Foire aux immortels. La seconde partie, La Femme piège, est éditée en album en 1986. Parallèlement, la collaboration entre Bilal et Christin se poursuit. Ils réalisent notamment, pour les éditions Dargaud et Autrement, plusieurs ouvrages d'illustrations et de photos détournées (Los Angeles, L'Étoile oubliée de Laurie Bloom ; Cœurs sanglants). Bilal s'intéresse aussi au cinéma et à l'opéra. En 1982, il dessine sur verre une partie des décors de La vie est un roman d'Alain Resnais et désigne la créature Molasar pour La Forteresse noire de Michael Mann. Deux ans plus tôt, il avait signé l'affiche d'un autre film de Resnais, Mon oncle d'Amérique. En 1985, il fait des recherches graphiques pour Le Nom de la rose, le film de Jean-Jacques Annaud d'après le roman d'Umberto Eco. En 1990, Bilal dessine les décors et costumes de Roméo et Juliette de Prokofiev, sur une chorégraphie de son ami Angelin Preljocaj. Il dessine les décors et costumes d'O.P.A. Mia, un opéra de Denis Levaillant créé au Festival d'Avignon. En 1984, il se fait journaliste à Libération le temps d'une interview de Gérard Manset, auteur-compositeur-interprète. Bilal avait déjà au début des années 1970 créé une illustration sur le thème de La mort d'Orion (album de Manset) et il illustrera la pochette d'un disque hommage en 1996. Bilal participe aussi régulièrement à des expositions. En novembre 1991, c'est Opéra bulle, deux mois d'exposition à la Grande halle de la Villette, à Paris. En 1992, l'exposition Transit à la Grande Arche de la Défense, près de Paris. C'est aussi l'année de Froid Équateur, troisième tome de La Trilogie Nikopol dans lequel il invente le chessboxing. En 2013, il expose au musée du Louvre une vingtaine de photographies de tableaux célèbres dans lesquelles il dessine des fantômes (Les Fantômes du Louvre. Enki Bilal). En 2013 également, il crée l'exposition Mécanhumanimal, Enki Bilal au Musée des arts et métiers. Il y présente une rétrospective de son œuvre, ainsi qu'une sélection d'objets du Musée des Arts et Métiers qu'il a choisis dans les réserves, et rebaptisés en écho à son univers. En janvier 1987, il obtient le Grand Prix du Festival international de la bande dessinée d'Angoulême. En mai 2006, il crée l'illustration du timbre de France Europa sur le thème de l'intégration. En 2011, il publie l'album Julia et Roem (Casterman) ainsi qu'un livre d'entretiens sur sa vie et son œuvre, Ciels d'orage (Flammarion). En avril 2019, il annonce que d'après lui la science-fiction n'existe plus. En 2019, il est membre du jury au Festival de Cannes sous la présidence d'Alejandro González Iñárritu. La même année sort le second tome de sa nouvelle série, Bug, annoncée par lui-même comme une suite de cinq volumes. En 2021, il publie un livre-entretien intitulé L'Homme est un accident (Belin) en collaboration avec Adrien Rivierre. L'artiste y détaille sa vision du monde à venir en s'exprimant sur tous les thèmes brûlants de notre époque. Pour son engagement écologique, le livre est finaliste du Prix du Livre Environnement de la Fondation Veolia. Thèmes Enki Bilal explore le temps à travers des mondes . Il évoque dans ses œuvres des thèmes marquant le futur comme la fin du communisme dans les années 1980, l'obscurantisme religieux dans les années 1990 ou le changement climatique au début des années 2010. Il évoque souvent le thème de la mémoire, par exemple dans la série Le Sommeil du Monstre, où le héros utilise sa mémoire pour remonter dans le temps et se rappeler jusqu'aux premiers jours de son existence. Il se dit également sensible à la mémoire collective. Œuvres Publications Bandes dessinées L'Appel des étoiles (scénario et dessin), Minoustchine, 1975. Légendes d'aujourd'hui (dessin), avec Pierre Christin (scénario), Dargaud : La Croisière des oubliés, coll. « Histoires fantastiques », 1975. Le Vaisseau de pierre, coll. « Histoires fantastiques », 1976. La Ville qui n'existait pas, coll. « Histoires fantastiques », 1977. Fins de siècle (dessin), avec Pierre Christin (scénario) : Les Phalanges de l'Ordre noir, coll. « Légendes d'aujourd'hui », 1979. Partie de chasse, coll. « Légendes d'aujourd'hui », 1983. Mémoires d'outre-espace (scénario et dessin), Dargaud, coll. « Pilote », 1978. Exterminateur 17 (dessin), avec Jean-Pierre Dionnet (scénario), Les Humanoïdes associés, 1979. La Trilogie Nikopol (scénario et dessin), Les Humanoïdes Associés : La Foire aux immortels, 1980. La Femme piège, 1986. Froid Équateur, 1992. Le Bol maudit (scénario et dessin), Futuropolis, coll. « Hic et Nunc », 1982 (Réédition de "L'Appel des étoiles"). Crux Universalis (scénario et dessin), Les Humanoïdes Associés, 1982. Los Angeles : l'étoile oubliée de Laurie Bloom (dessin), avec Pierre Christin (scénario), Autrement, 1984. L'État des stocks : L'État des stocks, Futuropolis, 1986. Milleneufcentquatrevingtdixneuf, Les Humanoïdes Associés, 1999. Nouvel état des stocks, Casterman, 2006. Cœurs sanglants et autres faits divers (dessin), avec Pierre Christin (scénario), Dargaud, coll. « Hors Texte », 1988. Mémoires d'autres temps : histoires courtes, 1971-1981 (scénario et dessin), Les Humanoïdes Associés, 1996. Bleu Sang, Christian Desbois Éditions, 1994. La Tétralogie du Monstre (scénario et dessin), édition complète Casterman, 2007 qui reprend : Le Sommeil du Monstre, Les Humanoïdes associés, 1998. 32 décembre, Les Humanoïdes Associés, 2003. Prix Micheluzzi de la meilleure bande dessinée. Rendez-vous à Paris, Casterman, 2006. Quatre ?, Casterman, 2007. Trilogie du Coup de sang (scénario et dessin) : Animal'z, Casterman, 2009. Julia et Roem, Casterman, 2011. La Couleur de l'air, Casterman, 2014. Les Fantômes du Louvre (scénario et dessin), Louvre Éditions - Futuropolis (coédition), 2012. Mécanhumanimal : au Musée des arts et métiers (scénario et dessin), Casterman, 2013. Graphite in progress (catalogues d'expositions de dessins crayonnés de Bilal) : Tome 1, Bdartiste, 2016. Tome 2, Bdartiste, 2018. Bug (scénario et dessin) : Livre 1, Casterman, 2017. Livre 2, Casterman, avril 2019. Livre 3, Casterman, mars 2022. Récit Nu avec Picasso, Stock, 2020. Récit d'une nuit passée par l'auteur au musée Picasso (Paris). Livre d'entretien L'homme est un accident, avec Adrien Rivierre, éditions Belin Filmographie Réalisateur-scénariste 1989 : Bunker Palace Hôtel 1994 : Parisienne People, publicité pour les cigarettes Parisienne 1996 : Tykho Moon 1998 : Le Film du sommeil (court métrage documentaire sur l'album Le Sommeil du Monstre) 2004 : Immortel, ad vitam 2013 : Crazy Horse, clip de la chanson de Brigitte Fontaine 2013 : Autour de la mémoire, clip de la chanson de Tchéky Karyo Autres 1983 : La Forteresse noire de Michael Mann - illustrateur 1983 : La vie est un roman d'Alain Resnais - création des décors et des costumes 1986 : Le Nom de la rose de Jean-Jacques Annaud - chercheur graphique (non crédité) 2000 : Passionnément de Bruno Nuytten - création de l'affiche Spectacles 1990 : Roméo & Juliette d'Angelin Preljocaj, il réalise pour l'œuvre les décors et costumes. 2006 : Cinémonstre (spectacle musical avec images de ses 3 longs-métrages) 2010 : Suspection de Fabienne Renault, théâtre du Rond-Point en coproduction du théâtre Jacques-Cœur à Lattes (34970) en avant-première les 25 et 26 novembre 2010. Illustrations Deux planches pour illustrer l'album Je suis vivant, mais j'ai peur écrit par Gilbert Deflez et composé par Jacky Chalard en 1974. Couvertures pour la collection « 1000 soleils » de Gallimard (La Guerre des mondes, Fahrenheit 451…) Couverture et illustrations de l'édition Folio junior de La Journée d'un journaliste américain en 2889 de Jules Verne. La pochette de l'album Rainy Day du groupe Gwendal, 1977. Couverture du livret de nouvelles Univers 12, J'ai lu, mars 1978. Les couvertures des Aventures de Boro, reporter photographe de Dan Franck et Jean Vautrin (éd. Fayard). Images pour un film, Dargaud, 1983. Dessins des décors de La vie est un roman, d'Alain Resnais. Affiche pour le film Strictement personnel, de Pierre Jolivet, 1985. Hors-jeu (illustration), avec Patrick Cauvin (textes), Autrement, 1987. La pochette de l'album Le Vaisseau de pierre du groupe Tri Yann, 1988. La pochette de l'album-hommage Route Manset en 1996 Un siècle d'amour (illustration), avec Dan Franck (textes), Fayard, 1999. Les Correspondances de Christin : le Sarcophage (illustration), avec Pierre Christin (textes), Dargaud, 2002. Affiche pour la libération du journaliste Brice Fleutiaux, capturé en Tchétchénie et détenu en 1999-2000. Couverture de l'édition audio du livre Matin brun de Franck Pavloff, Nocturne, 2002. Pochette de La Planète Bleue volume 6. La pochette de l'album Being Human Being d'Erik Truffaz et Murcof , 2014. Affiche pour les 20 ans du Printemps des poètes, 2019 Expositions Enki Bilal, rétrospective au Fonds Hélène et Édouard Leclerc pour la culture à Landerneau, du 21 juin au 29 août 2021 Distinctions Bande dessinée 1976 : Prix Yellow-Kid du dessinateur étranger, pour l'ensemble de son œuvre 1980 : Prix Saint-Michel du meilleur dessinateur étranger pour Les Phalanges de l'Ordre noir 1987: Grand prix du festival d'Angoulême. 1999 : Prix Adamson du meilleur auteur international pour ses récits de science-fiction. Décorations 2010 : 2010 : Hommage 2006 : L'astéroïde (227767) Enkibilal est nommé en son honneur. Notes et références Annexes Bibliographie Monographie Collectif, Les Cahiers de la bande dessinée 53, juillet 1983. Collectif, Sapristi 29, ANBD, octobre 1994. . Articles sur Bilal . . . . . . Entretiens . . . . . . . Autres . Articles connexes Littérature postmoderne, Liste de romans postmodernes Chessboxing Liens externes Auteur français de bande dessinée Scénariste de bande dessinée de science-fiction Écrivain serbe francophone Écrivain français du XXe siècle Écrivain français du XXIe siècle Illustrateur de science-fiction Réalisateur français Réalisateur de film de science-fiction Dessinateur de timbres Collaborateur de Pilote Nom de plume Lauréat du prix Adamson du meilleur auteur international Lauréat du prix Micheluzzi de la meilleure bande dessinée étrangère Lauréat du grand prix de la ville d'Angoulême Officier des Arts et des Lettres Chevalier de l'ordre national du Mérite Éponyme d'un objet céleste Naissance en octobre 1951 Naissance à Belgrade Naissance en RS de Serbie
1070
https://fr.wikipedia.org/wiki/Ensemble%20musical
Ensemble musical
Un ensemble musical est un groupe de musiciens habitués à pratiquer ensemble, en amateur ou professionnellement. Par exemple, en musique classique, un quatuor à cordes constitue un « ensemble de solistes » — comprenant les premier et deuxième violons, l'alto et le violoncelle — tandis qu'une chorale à quatre voix constitue un « ensemble de pupitres » — comprenant le pupitre des sopranos, celui des altos, celui des ténors et celui des basses. Ensembles classés selon le nombre de parties Que l'ensemble concerne des solistes ou des pupitres, le nom de la formation reflètera le nombre de parties sollicitées — de deux à dix, sachant qu'au-delà il n'existe pas de terminologie usuelle. Un duo — un duet, en jazz — est un ensemble de deux solistes ou deux pupitres. Un trio est un ensemble de trois solistes ou trois pupitres. Un quatuor — un quartet ou quartette, en jazz — est un ensemble de quatre solistes ou quatre pupitres. Un quintette ou quintuor — un quintet ou quintette, en jazz — est un ensemble de cinq solistes ou cinq pupitres. Un sextuor — un sextet ou sextette, en jazz — est un ensemble de six solistes ou six pupitres. Un septuor — un septet ou septette, en jazz — est un ensemble de sept solistes ou sept pupitres. Un octuor — un octet ou octette, en jazz — est un ensemble de huit solistes ou huit pupitres. Un nonette, ou nonet, est un ensemble de neuf solistes ou neuf pupitres. Un dixtuor est un ensemble de dix solistes ou dix pupitres. Lorsqu'on a affaire à un ensemble de solistes, l'accompagnement éventuel — un ou plusieurs instruments, par exemple — n'est généralement pas pris en compte par la terminologie usuelle. Par exemple, le « Trio des masques » du premier acte du Don Giovanni de Mozart constitue bien un trio — pour deux sopranos et un ténor — mais ces trois voix sont évidemment accompagnées par l'orchestre. Ensembles classés selon le type de musique Musique classique Chœur Chorale Orchestres Trio à cordes Trio avec piano Quatuor à cordes Quatuor avec piano Quintette à cordes Quintette à vent Fanfare (ou orchestre de cuivres) Orchestre d'harmonie (ou orchestre à vent) Orchestre de chambre Ensemble (ou choeur) de clarinettes Orchestre de flûtes Orchestre à plectre Orchestre symphonique Jazz Big band Jazz band Orchestre de jazz Musique traditionnelle Bagad Chorale Charanga Conjunto Fanfare Orchestre typique Pipe band Liste alphabétique des ensembles musicaux Bandas Batterie Fanfare Big band Brass band Charanga Chœur Chorale Combo Conjunto Ensemble (ou choeur) de clarinettes Fanfare Groupe (ou band music) Harmonie-fanfare Jazz band Orchestres Orchestre de chambre Orchestre à cordes Orchestre de flûtes Orchestre d'harmonie (ou orchestre à vent) Orchestre de jazz (ou jazz band) Orchestre philharmonique Orchestre à plectre Orchestre symphonique Pipe band
1072
https://fr.wikipedia.org/wiki/Esp%C3%A8ce
Espèce
Dans les sciences du vivant, l’espèce (du latin , « type » ou « apparence ») est le taxon de base de la systématique. Il existe 22 concepts d'espèce (espèce biologique, morphologique, écologique, comportementale…) dans la littérature scientifique. La définition la plus communément admise est celle du concept biologique énoncé par Ernst Mayr en 1942 : une espèce est une population ou un ensemble de populations dont les individus peuvent effectivement ou potentiellement se reproduire entre eux et engendrer une descendance viable et féconde, dans des conditions naturelles. Ainsi, l'espèce est la plus grande unité de population au sein de laquelle le flux génétique est possible et les individus d'une même espèce sont donc génétiquement isolés d'autres ensembles équivalents du point de vue reproductif. Pourtant, le critère d’interfécondité ne peut pas toujours être vérifié : c'est le cas pour les fossiles, les organismes asexués ou pour des espèces rares ou difficiles à observer. D’autres définitions peuvent donc être utilisées : espèce morphologique () : groupe d'individus défini par des caractéristiques structurales (taille, forme…) ; espèce phylogénétique : la plus petite lignée d’une population pouvant être définie par une combinaison unique de caractères diagnostiques ; espèce écologique : groupe d’organismes partageant une même niche écologique ; espèce phénétique : ensemble d’organismes vivants se ressemblant (critères de similitudes morphologiques, anatomiques, embryologiques) plus entre eux qu’à d’autres ensembles équivalents. Concept L'espèce est un concept flou dont il existe une multitude de définitions dans la littérature scientifique. Dans son sens le plus simple, le concept de l'espèce permet de distinguer les différents types d'organismes vivants. Différentes définitions permettent d'identifier plus précisément les critères distinctifs de l'espèce. L’évolution est la différence morphologique et génétique que l’on observe d’une génération à l’autre entre ascendants et descendants, qui ne sont jamais identiques sauf en cas de clonage, et ce sont aussi les changements dans l’effectif, l'aire de répartition et les comportements d’un groupe d'individus vivants. En outre, ce nom a pu changer en raison de nouvelles découvertes, descriptions ou analyses : ainsi, un même taxon peut avoir plusieurs dénominations successives et il arrive aussi que plusieurs espèces soient identifiées là où auparavant on n'en voyait qu'une, ou inversement, que l'on regroupe au sein d'une même espèce plusieurs noms (et types) différents (par exemple larves et adultes, ou bien mâles et femelles). Avec le temps, les conditions et indications à réunir pour définir une espèce sont devenues plus nombreuses et strictes. Même si les citoyens et les pouvoirs publics n'en sont pas toujours conscients, la formation des spécialistes en classification (taxonomie) est essentielle pour la précision et la rigueur des travaux scientifiques concernant la biodiversité (mais aussi la minéralogie, la géologie et la paléontologie). Concept biologique La définition la plus communément citée est celle du concept biologique de l'espèce énoncé par Ernst Mayr (1942) : « Les espèces sont des groupes de populations naturelles, effectivement ou potentiellement interfécondes, qui sont génétiquement isolées d’autres groupes similaires ». À cette définition, il a ensuite été rajouté que cette espèce doit pouvoir engendrer une progéniture viable et féconde. Ainsi, l'espèce est la plus grande unité de population au sein de laquelle le flux génétique est possible dans des conditions naturelles, les individus d'une même espèce étant génétiquement isolés d’autres ensembles équivalents du point de vue reproductif. Mais c'est probablement Georges Buffon qui fut le premier en 1749 à construire une définition biologique de l'espèce en écrivant : « On doit regarder comme la même espèce celle qui, au moyen de la copulation, se perpétue et conserve la similitude de cette espèce, et comme des espèces différentes celles qui, par les mêmes moyens, ne peuvent rien produire ensemble ». Le concept biologique de l'espèce s'appuie donc entièrement sur l'isolement reproductif (ou isolement génétique), c'est-à-dire l'ensemble des facteurs biologiques (barrières) qui empêchent les membres de deux espèces distinctes d'engendrer une progéniture viable et féconde. D'après Theodosius Dobzhansky, il est possible de distinguer les barrières intervenant avant l'accouplement ou la fécondation (barrières précopulatoires ou prézygotiques), et les barrières intervenant après (barrières postcopulatoires ou postzygotiques). Les barrières prézygotiques vont empêcher la copulation entre deux individus d'espèces différentes, ou la fécondation des ovules dans le cas où l'accouplement a bien lieu. Si la fécondation a lieu malgré tout, les barrières postzygotiques vont empêcher le zygote hybride de devenir un adulte viable et fécond. C'est cet isolement reproductif qui va empêcher le pool génétique de chaque espèce de s'échanger librement avec les autres et ainsi d'induire la conservation de caractères propres à chaque espèce. Pour certaines espèces, l'isolement reproductif apparait de manière évidente (entre un animal et un végétal par exemple) mais dans le cas d'espèces étroitement apparentées, les barrières sont beaucoup moins claires. Il est donc important de préciser que la reproduction entre individus d'une même espèce doit être possible en conditions naturelles et que la progéniture doit être viable et féconde. Par exemple, le cheval et l'âne sont deux espèces interfécondes mais leurs hybrides (mulet, bardot) le sont rarement ; la progéniture n'est pas féconde, il s'agit bien de deux espèces différentes. De même, certaines espèces peuvent être croisées artificiellement mais ne se reproduisent pas ensemble dans le milieu naturel. Néanmoins, le concept biologique de l'espèce possède certaines limites. L'isolement reproductif ne peut pas être déterminé dans le cas des fossiles et des organismes asexués (par exemple, les bactéries). De plus, il est difficile d'établir avec certitude la capacité d'un individu à s'accoupler avec d'autres types d'individus. Dans de nombreux groupes de végétaux (bouleau, chêne, saule…), il existe beaucoup d'espèces qui se croisent librement dans la nature sans que les taxonomistes les considèrent comme une seule et même espèce pour autant. De nombreuses autres définitions ont donc également cours pour passer outre les limites du concept biologique de l'espèce. Autres concepts Le concept morphologique de l'espèce est le concept le plus généralement utilisé en pratique. Il consiste à identifier une espèce d'après ses caractéristiques structurales ou morphologiques distinctives. L'avantage de ce concept est qu'il est applicable aussi bien chez les organismes sexués qu'asexués et ne nécessite pas de connaître l'ampleur du flux génétique. Néanmoins, l'inconvénient majeur de ce concept réside dans la subjectivité de sa définition de l'espèce, qui peut aboutir à des désaccords quant aux critères retenus pour définir une espèce. Une autre définition repose sur la notion de ressemblance (ou au contraire de degré de différence), concept encore très utilisé en paléontologie, où il n’y a pas d’autre option. Certains auteurs utilisent même ces deux principes pour définir les espèces. L’étude de l’ADN permet de rechercher des ressemblances non visibles directement sur le plan physique (phénotype). Mais le critère quantitatif (nombre de gènes identiques) masque le critère qualitatif, par définition non mesurable. Ainsi, la classification des Orchidées de type Ophrys fait ressortir un grand nombre d’espèces, visiblement différentes (donc du point de vue phénotype) alors que leurs génotypes se sont révélés très proches. Le critère de ressemblance génétique est utilisé chez les bactéries (en plus des ressemblances phénotypiques). On sépare les espèces de manière que la variation génétique intraspécifique soit très inférieure à la variation interspécifique. L’espèce biologique est aujourd’hui le plus souvent définie comme une communauté reproductive (interfécondité) de populations. Si cette définition se prête assez bien au règne animal, il est moins évident dans le règne végétal, où se produisent fréquemment des hybridations. On associe souvent le double critère de réunion par interfécondité et séparation par non-interfécondité, pour assurer la perpétuation de l’espèce. Il existe aussi le concept d'espèce écologique, à relier à la notion de niche écologique. Une espèce est censée occuper une niche écologique propre. Cela revient à associer une espèce à des conditions de vie particulière. Cette définition proposée par Hutchinson et par Van Valen souffre des problèmes de recouvrement de niche (plusieurs espèces dont les niches sont très proches voire indiscernables). Les espèces déterminantes sont des espèces retenues par certaines méthodes parce qu'elles sont remarquables pour la biodiversité ou menacées et jugées importantes dans l'écosystème (ou représentatives d'un habitat ou de l'état de l'écosystème) aux niveaux régional, national ou supranational pour élaborer certains zonages (habitats déterminants, trame verte et bleue, ZNIEFF modernisées, ). Problématiques Définir l'espèce de manière absolue semble très difficile, voire impossible selon Darwin. Plusieurs historiens affirment d'ailleurs que si Darwin s’était arrêté au problème de la définition de l’espèce, il n’aurait jamais publié son livre majeur De l'origine des espèces. De manière simplificatrice, on peut ramener les diverses définitions qui ont été proposées sous trois rubriques différentes : concept typologique ou essentialiste de l'espèce (ressemblance morphologique par rapport à des individus de référence ou type) qui a prévalu pendant des siècles ; concept nominaliste (ressemblance phénoménologique des espèces qui n'ont pas d'existence) ; concept biologique ou populationnel (descendance d'ancêtres communs, liée au critère d'interfécondité) qui s’est imposé après l’avènement de la génétique mais suscite de nombreux problèmes au niveau de la classification scientifique des espèces. Ce qui a conduit des chercheurs à proposer d'abandonner la nomenclature linnéenne, de ne plus donner de noms aux différents rangs taxinomiques et d'éliminer, entre autres, le mot espèce du vocabulaire de la taxinomie. Ils veulent introduire à la place le concept de LITU (, ) qui représenterait le plus petit taxon que l’on puisse identifier. Une question mérite d’être posée : la notion d’espèce constitue-t-elle une simple commodité de travail, ou possède-t-elle au contraire une réalité indépendante de notre système de classification ? Possède-t-elle une véritable signification dans l’absolu ? L’espèce est-elle une classe logique à laquelle des lois sont universellement applicables, ou a-t-elle la même réalité qu’un individu (par le lignage) ? Les réponses à ces considérations relèvent de l’épistémologie et de la sémantique opérationnelle autant que de la biologie. Le problème se complique du fait que le critère d’interfécondité présente ou absente, n'est pas toujours applicable de façon tranchée : des populations A et A, A et A… A et A peuvent être interfécondes, alors que les populations A et A ne le sont pas. C'est le cas, par exemple, des populations de goélands réparties autour du globe (rapporté par Konrad Lorenz). On parle alors d’espèce en anneau ( variation clinale). La notion d’espèce se dissout alors dans une sorte de flou. L’interfécondité ne permet donc pas de dire qu’il s’agit de mêmes espèces tandis que la non-interfécondité suffit à dire qu’il s’agit d’espèces différentes. Cette non-interfécondité doit être recherchée aussi et surtout dans les descendants : chevaux et ânes sont interféconds mais leurs hybrides (mulet, bardot) le sont rarement. Les deux populations forment donc des espèces différentes. De même, certaines races de chiens (anciennement Canis familiaris) s’hybrident sans problème — et ont une descendance féconde — avec des loups communs (Canis lupus), tandis que leur hybridation avec d’autres races de leur propre espèce Canis familiaris reste bien problématique - dans le cas par exemple d’une femelle Chihuahua et d’un mâle Saint-Bernard ! Cela s’explique par deux faits : le chien domestique est très polymorphe et c’est une sélection artificielle à partir de loups, ce dont il y a maintenant des preuves génétiques. On le nomme donc désormais Canis lupus familiaris, c’est-à-dire comme sous-espèce du Loup, donc parfaitement interfécond avec lui… dans la limite de ce que permet physiquement l’utérus récepteur. , le concept d'espèce suppose une hypothèse forte qui est la transitivité des interfécondations possibles ; en d'autres termes, on suppose que si X est interfécond avec X, X avec X, X sera interfécond avec X quelle que soit la longueur de la chaîne. Konrad Lorenz signale que cette supposition n'est pas toujours vraie, en particulier chez des oiseaux marins entre continents. Il faut d'ailleurs bien que ce genre de discontinuité existe pour qu'un phénomène de spéciation commence à apparaître lui aussi. Évolution de la notion Les éleveurs en avaient vraisemblablement une notion non formalisée depuis l’origine même de l’élevage. Platon spéculera que puisque l’on voit des chevaux et des vaches, mais jamais d’hybride des deux, il doit exister quelque part une « forme idéale » qui contraint un animal à être l’un ou l’autre. Aristote préfèrera pour sa part éviter ces spéculations et se contenter de répertorier dans l’Organon ce qu’il observe. Albert le Grand s’y essaiera à son tour plus tard. Concept empirique, la notion d’espèce a évolué avec le temps et son histoire a été marquée par la pensée de grands naturalistes comme Linné, Buffon, Lamarck et Darwin. Au , les espèces étaient considérées comme le résultat de la création divine et, à ce titre, étaient considérées comme des réalités objectives et immuables. Depuis l’avènement de la théorie de l’évolution, la notion d’espèce biologique a sensiblement évolué, mais aucun consensus n’a pu être obtenu sur sa définition. Dans un premier temps, on a considéré les espèces comme des entités fixes définies par des critères morphologiques. Cette conception typologique a trouvé son apogée avec les travaux de Linné et l’établissement de collections d’individus « typiques » de l’espèce. Lamarck est le premier à avoir une conception nominaliste de l'espèce : ce sont des groupes qui n'existent pas dans la nature, créés par les naturalistes pour les commodités de la classification. Selon Cuvier, une espèce peut être définie comme la collection de tous les corps organisés nés les uns des autres ou de parents communs et de ceux qui leur ressemblent autant qu’ils ne se ressemblent entre eux. Cette conception a évolué vers une espèce « taxinomique » pour laquelle l’analyse mathématique d’un grand nombre de critères suffirait à établir un seuil à partir duquel on pourrait dire que deux individus appartiennent à des espèces différentes. Les insuffisances de cette méthode ont conduit à une autre approche qui est la notion d’espèce biologique fondée essentiellement sur les critères d’interfécondité et d’isolement (Ernst Mayr, 1942), avec là encore quelques difficultés pour différencier par exemple des espèces qui ne sont naturellement pas en contact Ceci a conduit à amender cette définition de l’espèce en y incluant une composante écologique. À compter de 1963, Ernst Mayr définit ainsi l’espèce comme une communauté reproductive de populations, reproductivement isolée d’autres communautés et qui occupe une niche particulière dans la nature. Cette définition opérationnelle de l’espèce n’est toutefois pas exempte de problèmes (par exemple, la reconnaissance des niches). Une grande partie de ces problèmes peut être évitée si l’on considère l’histoire des êtres vivants. L’évolution est un processus historique et les espèces sont le résultat de l’éclatement d’espèces qui les ont précédées (spéciation). Tous les critères précédents se doivent d’être corrélés avec les relations généalogiques. Mais à un temps t (l'actuel), très peu d'espèces sont engagées dans un processus de spéciation, et en grande majorité, les espèces se reconnaissent très bien, il y a très peu d'hybridations spécifiques, même si le systématicien les confond… Une espèce est donc un lignage simple qui possède ses propres tendances évolutives et son propre destin historique (d’après Delforge P Guide des Orchidées d’Europe… Delachaux et Niestlé 1994). La notion de « destin » ne possède pas d'assise scientifique : “sa propre historique” correspond mieux à ce qui est observé comme à l'objet des recherches en cours. La notion de “lignage simple” doit aussi être nuancée car, comme on l’a vu, une certaine interfécondité reste possible entre certaines espèces proches : il peut en résulter des descendants féconds aux caractéristiques plus adaptées à leur milieu qui formeront peut-être avec le temps une espèce à part entière. Spéciation et durée de vie des espèces La spéciation est le processus évolutif par lequel de nouvelles espèces apparaissent. La spéciation est à l'origine de la diversité biologique et constitue donc le point essentiel de la théorie de l'évolution. La spéciation peut suivre deux voies : l'anagénèse et la cladogénèse. L’anagénèse est une accumulation de changements graduels au cours du temps qui transforment une espèce ancestrale en une nouvelle espèce, cette voie modifie les caractéristiques d'une espèce mais ne permet pas d'augmenter le nombre d'espèces. La cladogénèse est la scission d'un patrimoine génétique en au moins deux patrimoines distincts, ce processus est à l'origine de la diversité biologique car il permet d'augmenter le nombre d'espèces. En se basant sur les intervalles couverts par les espèces fossiles que l'on répertorie dans les sédiments bien datés, la durée de vie moyenne d'une espèce est de d'années environ. Certaines évoluent plus vite, tels les mammifères et les oiseaux qui ont une durée de vie moyenne de l'ordre d'un million d'années, d'autres moins vite tels les bivalves qui atteignent environ d'années par espèce. L'extinction d'un genre se produit quant à elle en moyenne après d'années d'existence. Classification En classification classique ou phylogénétique, l’espèce est le taxon de base de la systématique, dont le rang se trouve juste en dessous du genre. Nomenclature scientifique Dans la classification scientifique, une espèce vivante ou ayant vécu est désignée suivant les règles de la nomenclature binominale, établie par Carl von Linné au cours du . Suivant cette classification, le nom d'une espèce est constituée d'un binom latin (on dit habituellement binôme par erreur de traduction du terme anglais binomen et pas binomial) qui combine le nom du genre avec une épithète spécifique. Autant que possible, le nom est suivi de la citation du nom de l'auteur, abrégé (en botanique) ou complet (en zoologie), qui a le premier décrit l'espèce sous ce nom. Le nom de l’espèce est l’ensemble du binom, et pas seulement l’épithète spécifique, suivi du nom d'auteur et de la date. Par exemple, les êtres humains appartiennent au genre Homo et à l’espèce Homo sapiens Linné, 1758. Les noms scientifiques des espèces (en latin scientifique) s’écrivent en italique. Le genre prend une majuscule initiale tandis que l'épithète spécifique reste entièrement en minuscule. Quand le genre est connu mais que l'espèce n'est pas déterminée, il est d’usage d’utiliser comme épithète provisoire l’abréviation du latin : « sp. », à la suite du nom du genre. Quand on veut désigner plusieurs espèces d'un même genre, c'est l'abréviation « spp. » (pour ) qui est ajoutée. De même, « sous-espèce » est abrégé en « ssp. » (pour ) et « sspp. » au pluriel (pour ). Ces abréviations sont toujours écrites en caractères romains. La nomenclature binominale, ainsi que d’autres aspects formels de la nomenclature biologique, constitue le « système linnéen ». Ce système de nomenclature permet de définir un nom unique pour chaque espèce, valable dans le monde entier, contrairement à la nomenclature vernaculaire. Sous-espèce Au sein d’une espèce donnée, une sous-espèce consiste en un groupe d’individus qui se trouvent isolés (pour des raisons géographiques, écologiques, anatomiques ou organoleptiques) et qui évoluent en dehors du courant génétique de la sous-espèce nominative, de référence. Au bout d’un certain temps, ces groupes d’individus prennent des caractéristiques spécifiques qui les différencient l'une de l'autre. Ces caractères peuvent être nouveaux (apparition à la suite d'une mutation par exemple), mais dépendent de la fixation de caractéristiques variables chez l’espèce de base. Ces deux bergeronnettes mâles ont été décrites comme deux sous-espèces différentes d’une même espèce, Bergeronnette grise : Des sous-espèces différentes ont souvent la possibilité de se reproduire entre elles, car leurs différences ne sont pas (encore) suffisamment marquées pour constituer une barrière reproductive. On peut s’interroger sur la validité de la définition d’une sous-espèce sachant que la définition du terme espèce reste fluctuante et controversée. Il en est ici de même et toutes les limites de la définition d’une espèce s’appliquent également pour celle d’une sous-espèce. Recensement Carl von Linné recensait au environ végétales et animales différentes dans la dixième édition (1758) du . Depuis cette époque et jusqu'en 2014, près de d'espèces ont été décrites mais aujourd’hui, personne ne peut dire avec précision le nombre d’espèces existant sur la planète. Différentes estimations donnent un nombre total d'espèces variant entre à . Un consensus récent a proposé un nombre précis minimum de d’espèces (à l’exception des bactéries, trop difficiles à estimer). On décrit actuellement entre et nouvelles espèces par an, dont 10 % sont issues du milieu marin. Eucaryotes Les eucaryotes sont les animaux, les champignons, les plantes, les protozoaires… Alors qu’on estime qu'entre d’espèces vivantes sur la planète Terre ont été découvertes (avec des extrapolations jusqu'à plus de d'espèces à découvrir), seulement d'espèces ont été décrites scientifiquement (témoin des difficultés liées à la notion d’espèce, ce nombre lui-même reste flou). Les espèces marines ne représentent que 13 % de l'ensemble des espèces décrites, soit environ , dont pour les seuls écosystèmes coralliens. La grande majorité des espèces non décrites sont des insectes ( d'espèces suivant les estimations, qui vivraient principalement sur la canopée des forêts tropicales), des némathelminthes (ou vers ronds : ), et des eucaryotes unicellulaires : protozoaires ou protophytes, certains oomycètes, anciennement considérés comme des champignons, aujourd’hui classés dans les straménopiles ou les myxomycètes (moisissures visqueuses maintenant classées dans plusieurs groupes de protistes…). Selon la liste rouge de l'UICN de 2006 et les données les plus récentes, les espèces vivantes décrites peuvent être réparties comme suit : , dont : , , , , , ; , dont : , ; ; : , , dont : , dont , , , , , dont , , , , (dont 75 % de parasites), , , , , , , : (lamproies et myxines), (requins, raies et chimères), , , , , . Environ espèces sont décrites chaque année, dont marines et près de de plantes à fleur ( répertoriées en 2015). On estime qu’environ dix espèces disparaissent naturellement (c’est-à-dire hors de l’intervention de l’espèce humaine) chaque année, ou une sur par siècle. Mais il en est qui disparaissent aussi du fait de l’homme (voir dodo, diversité génétique…) : Edward Osborne Wilson en évalue le nombre à plusieurs milliers par an. D’après l’Évaluation des écosystèmes pour le millénaire de 2005, le taux de disparition des espèces depuis deux siècles est dix à cent fois supérieur au rythme naturel (hors grandes crises d'extinction), et sera encore multiplié par dix d'ici 2050, soit le rythme d'extinction naturel. Procaryotes Dans les deux autres grands groupes du vivant (les archées et les bactéries), la notion d'espèce est sensiblement différente. Le nombre total est encore moins bien connu que chez les eucaryotes, avec des estimations qui varient entre d'espèces… contre seulement de bactéries connues à l'heure actuelle. Orthographe Suivi ou précédé d'un adjectif, on écrit une espèce bovine, une espèce protégée Suivi d'un substantif, on écrit l'espèce Mulot sylvestre ou l'espèce Apodemus sylvaticus. « Une espèce de » est suivi d'un singulier ou d'un pluriel, selon que cette expression est prise dans le sens d'une approximation (sorte de) ou d'une population (groupe de). En français usuel, on écrit « Le bonobo est une espèce de singe » (une sorte de singe) mais un biologiste écrira de préférence « Le Bonobo est une espèce de primates » (un groupe de primates). En effet, en biologie, suivi d'un déterminant introduit par « de », on écrit une espèce (ou une sous-espèce) de mammifères, d'oiseaux, de reptiles ou bien des espèces d'insectes. Exemple : « Solanum juzepczukii est une espèce de plantes herbacées et tubéreuses de la famille Solanaceae » ou « la floraison de chaque espèce de plantes vivaces ». On utilise les abréviations « sp. » au singulier et « spp. » au pluriel, qui correspondent au mot latin . Cette abréviation s'emploie souvent après le nom d'un genre, pour indiquer « espèce non précisée », par exemple Russula sp. signifie « espèce du genre Russule ». Notes et références Notes Références Annexes Articles connexes Liens externes Wikispecies (répertoire du vivant) Doit-on abandonner le concept d’espèce ? par Hervé Le Guyader Évolution du vivant (Débat entre Bernard Brun, Jacques Ninio et Jean−François Gérard à télécharger Spéciation et extinction chez les Hominines, leçons données au Collège de France par Jean-Jacques Hublin, site college-de-france.fr, consulté le 5 février 2022. Rang taxinomique
1073
https://fr.wikipedia.org/wiki/Placentalia
Placentalia
Les placentaires (Placentalia) forment une infra-classe très diversifiée de mammifères thériens caractérisés par le fait qu'ils accouchent des juvéniles par contraste avec les marsupiaux qui accouchent de larves ou les monotrèmes qui pondent des œufs. Cela est rendu possible par la présence d'un placenta, plus développé et plus complexe que chez les marsupiaux, ce qui leur a donné leur nom. Leur apparition remonterait à environ 150 millions d'années d'après l'horloge moléculaire. Placentalia se définit comme un groupe-couronne ayant parfois le rang de cohorte ou d'infra-légion. La dénomination d'Eutheria est souvent utilisée puisque toutes les espèces existantes de ce groupe sont placentaires mais ce clade est élargi à tous les taxons fossiles plus proches des placentaires que des marsupiaux. Caractéristiques La caractéristique la plus populaire de ce groupe : le développement de la progéniture se passe en majeure partie au sein de l'utérus maternel grâce à un placenta permettant beaucoup plus d'échanges entre la mère et ladite progéniture. On distingue notamment un stade embryonnaire et un stade fœtal, au contraire des marsupiaux qui n'ont que le stade embryonnaire avant de naître à l'état larvaire. L'examen du pelvis d'Eomaia semble indiquer que les euthériens non placentaires naissaient précocement, au stade larvaire comme des marsupiaux. Parmi les autres caractéristiques qui singularisent les placentaires des non placentaires au sein des euthériens (y compris fossiles) : on note la disparition des os épipubiques ; la profondeur et l'ouverture du pelvis sont aussi plus larges, d'où un dimorphisme sexuel du bassin toujours présent, bien qu'il ne se base plus sur la présence ou l'absence des os épipubiques ; de même le baculum est un trait plésiomorphe chez les placentaires ; il existe aussi de petites différences au niveau de l'articulation des tarses et de la cheville, ainsi que pour la denture comme la disparition de la rainure meckelienne. Classification Liste des ordres actuels Super-ordre Afrotheria : ordre Afrosoricida Stanhope, 1998 : taupes dorées, tenrecs... ; ordre Hyracoidea Huxley, 1869 : damans ; ordre Macroscelidea Butler, 1956 : musaraignes à trompe ; ordre Proboscidea Illiger, 1811 : éléphants, mammouth... ; ordre Sirenia Illiger, 1811 : dugongs et lamantins ; ordre Tubulidentata Huxley, 1872 : l'oryctérope. Super-ordre Xenarthra : ordre Cingulata Illiger, 1811 : tatous ; ordre Pilosa Flower, 1883 : fourmiliers et paresseux. Clade Boreoeutheria : super-ordre Euarchontoglires : ordre Dermoptera Illiger, 1811 : colugos, ordre Lagomorpha Brandt, 1855 : lapins, lièvres et pikas, ordre Primates Linnaeus, 1758 : singes, lémuriens, tarsiers, humain..., ordre Rodentia Bowdich, 1821 : rongeurs, ordre Scandentia Wagner, 1855 : toupayes... ; super-ordre Laurasiatheria : ordre Carnivora Bowdich, 1821 : caniformes (canidés, ours, pinnipèdes...) et féliformes (félidés, hyènes, civettes...), ordre Cetartiodactyla Montgelard , 1997 : artiodactyles et cétacés, ordre Chiroptera Blumenbach, 1779 : chauve-souris, ordre Erinaceomorpha Gregory, 1910 : hérissons, ordre Perissodactyla Owen, 1848 : équidés, rhinocéros, tapirs... ; ordre Pholidota Weber, 1904 : pangolins, ordre Soricomorpha Gregory, 1910 : taupes, musaraignes... Phylogénie Au sein des thériens Les mammifères placentaires sont ancrés dans la branche des euthériens, parallèlement aux marsupiaux dans celle des métathériens. La datation de l'ancêtre commun des placentaires est sujette à controverse. Les études de phylogénie moléculaire font remonter les grands groupes modernes de placentaires et leur dernier ancêtre commun au milieu du Crétacé (entre 90 et 105 millions d'années), mais cette datation est remise en cause, notamment par une étude combinant traits génétiques et morphologiques, et la date d'apparition des mammifères placentaires pourrait être de 65 millions d'années, soit entre et après l'extinction Crétacé-Tertiaire des dinosaures non aviens suggérant ainsi le scénario d'une explosion radiative. Phylogénie interne La plupart des études s'accordent à reconnaître quatre super-ordres au sein des mammifères placentaires : Xenarthra, Afrotheria, Euarchontoglires et Laurasiatheria, les deux derniers regroupés dans le clade Boreoeutheria. Les relations entre ces autres groupes font débat, mais la phylogénie suivante se détache : Notes et références Voir aussi Articles connexes Mammalia (classification phylogénétique) Règne animal, eucaryote, chordé, tétrapode. Bibliographie Liens externes Infra-classe de mammifères (nom scientifique) Taxon décrit en 1837
1074
https://fr.wikipedia.org/wiki/Edgar%20Allan%20Poe
Edgar Allan Poe
Edgar Allan Poe , né le à Boston et mort le à Baltimore, est un poète, romancier, nouvelliste, critique littéraire, dramaturge et éditeur américain, ainsi que l'une des principales figures du romantisme américain. Connu surtout pour ses contes il a donné à la nouvelle ses lettres de noblesse et est considéré comme l’inventeur du roman policier. Nombre de ses récits préfigurent les genres de la science-fiction et du fantastique. Né à Boston, Edgar Allan Poe perd ses parents, David Poe Jr. et Elizabeth Arnold, dans sa petite enfance ; il est recueilli par John et Frances Allan de Richmond, en Virginie, où il passe l’essentiel de ses jeunes années, si l’on excepte un séjour en Angleterre et en Écosse, dans une aisance relative. Après un bref passage à l’Université de Virginie et des tentatives de carrière militaire, Poe quitte les Allan. Sa carrière littéraire débute humblement par la publication anonyme, en 1827, de Tamerlan et autres poèmes, un recueil de poèmes signés seulement « par un Bostonien ». Poe s’installe à Baltimore, où il vit auprès de sa famille paternelle et abandonne quelque peu la poésie pour la prose. En , il devient rédacteur-assistant au Southern Literary Messenger de Richmond, où il contribue à augmenter les abonnements et commence à développer son propre style de critique littéraire. La même année, à vingt-six ans, il épouse sa cousine germaine Virginia Clemm, alors âgée de . Après l’échec de son roman Les Aventures d'Arthur Gordon Pym, Poe réalise son premier recueil d’histoires, les Contes du Grotesque et de l’Arabesque, en 1839. La même année, il devient rédacteur au Burton's Gentleman's Magazine, puis au Graham's Magazine à Philadelphie. C'est à Philadelphie que nombre de ses œuvres parmi les plus connues ont été publiées. Dans cette ville, Poe a également projeté la création de son propre journal, The Penn (plus tard rebaptisé The Stylus), qui ne verra jamais le jour. En , il déménage à New York, où il travaille au Broadway Journal, un magazine dont il devient finalement l’unique propriétaire. En , Poe publie Le Corbeau, qui connaît un succès immédiat. Mais, deux ans plus tard, son épouse Virginia meurt de tuberculose, le . Poe envisage de se remarier, mais aucun projet ne se réalisera. Le , Poe meurt à l’âge de à Baltimore. Les causes de sa mort n’ont pas pu être déterminées et ont été attribuées diversement à l’alcool, à une drogue, au choléra, à la rage, à une maladie du cœur, à une congestion cérébrale, etc. L'influence de Poe a été et demeure importante, aux États-Unis comme dans l'ensemble du monde, non seulement sur la littérature, mais également sur d'autres domaines artistiques tels le cinéma et la musique, ou encore dans des domaines scientifiques. Bien qu'auteur américain, il a d’abord été reconnu et défendu par des auteurs français, Baudelaire et Mallarmé en tête. La critique contemporaine le situe parmi les plus remarquables écrivains de la littérature américaine du . Biographie Une famille de comédiens Il naît le dans une modeste pension de famille du 62, Carver Street, à Boston, dans le Massachusetts. Sa mère, Elizabeth Arnold (1787-1811) est la fille de deux acteurs londoniens, Henry (ou William Henry) Arnold et Elizabeth Smith. À la mort de son père, elle accompagne sa mère en Amérique. Arrivée le à Boston à bord de l’Oustram, elle monte sur les planches trois mois plus tard, âgée d'à peine neuf ans. Elle rejoint ensuite, avec sa mère, qui meurt quelque temps après, une petite troupe de théâtre, les Charleston Players. Durant l'été 1802, à Alexandria, en Virginie, elle se marie avec le comédien Charles Hopkins, qui meurt trois ans plus tard, le , et déjà veuve à 18 ans, elle épouse alors un garçon tuberculeux et alcoolique de 21 ans, David Poe Jr., dont le père, le général David Poe Sr., un commerçant patriote de Baltimore originaire d'Irlande, s'était illustré durant la guerre d'indépendance. David Poe Jr. avait abandonné ses études de droit pour s'engager, en , dans les Charleston Players. C'est là qu'il rencontre Elizabeth Arnold Hopkins, qu'il épouse le . À l'époque, ils jouent au Federal Street Theater de Boston. Elizabeth est danseuse et chanteuse, mais David est un piètre acteur. Edgar est le deuxième des trois enfants du couple. Son frère, William Henry Léonard, né le , mourra le , à l'âge de 24 ans, alcoolique et tuberculeux, tandis que sa sœur, Rosalie, née le , contractera à douze ans une maladie inconnue, peut-être une méningite, qui la laissera handicapée mentale et nécessitera une mise sous tutelle durant toute sa vie. En , la famille quitte Boston pour le New York Park Theater. Le 18 octobre, David Poe, qui a sombré dans l'alcoolisme, joue son dernier rôle ; il fugue quelques mois plus tard, en . Il meurt sans doute peu après, en . La même année, Elizabeth donne naissance à une fille, Rosalie. Elle fait une tournée dans le Sud, accompagnée d'Edgar (William Henry a été confié à son grand-père paternel) mais, malade, elle ne joue que par intermittence. Le , à Richmond (Virginie), elle doit s'aliter. Le 25 novembre, un journal local lance un appel à la générosité des citoyens de Richmond, sous le titre « Au cœur humain » : « Mrs Poe, allongée sur son lit de douleur et entourée de ses enfants, demande votre aide et cette demande sera peut-être pour la dernière fois ! » Le , Elizabeth est emportée par le mal qui la ronge, peut-être une pneumonie, à l'âge de 24 ans, après avoir joué près de deux cents rôles, laissant ses enfants orphelins. Deux semaines après ses obsèques, le théâtre de Richmond brûle pendant une représentation, et la troupe, privée de théâtre, quitte la ville, après avoir laissé Edgar et Rosalie à la charité de la bourgeoisie de la ville. Tandis que William Henry demeure avec son grand-père David Poe et sa tante Maria Clemm, Edgar est recueilli par un couple de riches négociants de tabac et de denrées coloniales de Richmond, John et Frances Allan, et Rosalie (1810-1874) par les Mackenzie. Le , Edgar est baptisé par le révérend John Buchanan, vraisemblablement sous le nom d'« Edgar Allan Poe » et avec les Allan pour parrain et marraine. Une éducation d'aristocrate virginien Edgar passe son enfance à Richmond, chez ses parents adoptifs, qui l'élèvent avec tendresse. En 1814, à peine âgé de , il commence ses études primaires sous la conduite de Clotilda ou Elizabeth Fisher. L'année suivante, il passe brièvement, à l'école de William Ewing. En 1815, en effet, John Allan (1780-1834), qui est d'origine écossaise, décide de partir au Royaume-Uni pour y étudier le marché et, si possible, ouvrir à Londres une succursale. La Bible occupe une grande place dans la vie d'Edgar, et ce malgré le rationaliste John Allan. Edgar, qui a six ans, quitte l'école de Richmond et embarque avec ses parents et la jeune sœur de Allan, Ann Moore Valentine (appelée Nancy) à Norfolk (Virginie) à bord du Lothair. Débarqués à Liverpool le 29 juillet, les Allan gagnent d'abord l'Écosse. Mais le marché écossais se révèle mauvais, et la famille s'installe bientôt à Londres. Edgar suit, de 1816 à 1818, des études primaires à l'école des demoiselles Dubourg (146 Sloan Street, Chelsea, Londres), où il est connu sous le nom de « Master Allan » et étudie notamment la géographie, l'orthographe et le catéchisme anglican, puis à la Manor House School de Londres, à Stoke Newington, dirigée par le révérend John Bransby (elle pourrait avoir servi de modèle au collège de William Wilson), sous le nom d'« Edgar Allan ». Il suit des études classiques et littéraires solides, apprenant le grec, le latin, le français et la danse. Il fait preuve d'un caractère irritable et parfois tyrannique envers ses camarades, mais obtient de brillants résultats scolaires, en latin et français notamment. L'école mettant également l'accent sur la condition physique des élèves, Edgar devient un athlète accompli. En août 1818, les Allan visitent l'île de Wight, probablement à l'occasion de vacances, et peut-être le site de Stonehenge. Mais la situation se dégrade. D'abord, sa mère adoptive, dont la santé a toujours été fragile, tombe sérieusement malade, ce qui a pour effet de la rendre nerveuse, irritable. Par ailleurs, en 1819, John Allan connaît de graves ennuis financiers : le cours du tabac s'effondre, puis un employé l'escroque. Le jeune Edgar, qui est séparé de sa famille, fait une première fugue. Le , la famille Allan est à Liverpool, où elle embarque sur le Martha. Arrivée à New York le 22 juillet après 31 jours de trajet, elle prend le 28 un steamboat à destination de Norfolk et se réinstalle à Richmond, le 2 août. Edgar reprend le chemin de l'école, où il obtient, là aussi, d'excellents résultats, mais commence à manifester un certain penchant pour la solitude et la rêverie. En 1823, les affaires de John Allan sont moribondes et la vie à la maison des Allan s'en ressent. Edgar continue à rédiger des poèmes qu'il adresse aux élèves de l'école où se trouve sa sœur. Les relations avec ses parents adoptifs sont ambivalentes. Il est encouragé par sa mère dans ses travaux d'écriture, mais les tours qu'il joue à certains habitants de Richmond causent le désespoir de son père. Ce dernier prend ombrage du caractère assez fier de l'adolescent, et s'éloigne progressivement de son épouse, toujours malade. Edgar, très attaché à Frances Allan (1784-1829), réprouve l'adultère de son père adoptif. John Allan voudrait voir Edgar devenir marchand, mais le jeune homme ne rêve que de poésie et envisage, à la rigueur, une carrière dans l'armée. Il trouve souvent refuge chez la mère d'un camarade, Jane Stith Stanard, qui est l'inspiratrice du poème À Hélène (1831). Son décès, en 1824, affectera grandement Edgar. À la suite du décès de son oncle William Galt, en , John Allan hérite de plusieurs centaines de milliers de dollars. Cette somme lui permet de payer ses dettes et d'acheter un manoir en briques appelé « Moldavia » (pour dollars). Entre 1821 et 1825, Edgar fréquente les meilleures écoles privées de Richmond, où il reçoit l'éducation traditionnelle des gentlemen virginiens. Il est inscrit à l'English Classical School de John H. Clarke (1821-1822), qui lui fait lire Ovide, Virgile et César, puis Homère, Horace et le De Officiis de Cicéron, puis il fréquente le collège William Burke (1823-) et l'école du Ray Thomas et de son épouse. À cette époque, il écrit ses premiers vers satiriques, tous perdus aujourd'hui, excepté O Tempora! O Mores! Par ailleurs, il est très influencé par l'œuvre et le personnage de Lord Byron. Bon élève, il se montre excellent nageur et passionné de saut en longueur. En juin ou , il nage six ou sept miles le long de la James River, tandis que son maître suit sur un bateau. Du 26 au , lors de son voyage aux États-Unis, le général La Fayette visite Richmond. Les volontaires juniors de la ville participent aux cérémonies organisées pour lui souhaiter la bienvenue ; Edgar est lieutenant des volontaires. Le , il entre à la nouvelle université de Virginie, à Charlottesville, que vient de fonder Jefferson (elle a ouvert ses portes le ), où il suit avec brio des cours de langues anciennes et modernes. Mais M. Allan lui a donné juste assez d'argent pour s'inscrire. Excédé par les dettes de jeu et les frais courants d'Edgar, qui s'élèvent à dollars, alors qu'il vient de passer avec succès ses premiers examens, John Allan refuse de le réinscrire et le ramène à Richmond en pour l'employer dans sa maison de commerce. Par ailleurs, il ruine ses fiançailles avec Elmira Royster (1810-1888) ; le père de la jeune fille s'empresse de la marier à un riche négociant, Alexander Shelton. Rêves de gloire et pérégrinations Comme son beau-père refuse de le renvoyer à l'université, il quitte sa famille adoptive, probablement le , et s'embarque sous le nom d'Henri Le Rennet sur un bateau qui descend la James River jusqu'à Norfolk. Arrivé à Boston en avril, il espère survivre en publiant ses poèmes. Il y passe deux mois, comme acteur ou soldat, on l'ignore. Le 26 mai, sous le nom d'Edgar A. Perry (pseudonyme qu'il réutilisera pour signer certains contes), après s'être vieilli de quatre ans, il s'engage pour cinq ans comme artilleur de seconde classe dans l'armée fédérale. À la même époque, il fait paraître à ses frais, chez Calvin F.S. Thomas à Boston, une mince plaquette anonyme Tamerlan et autres poèmes sur laquelle est inscrit « A Bostonian » et dont 50 exemplaires, à peine, sont vendus. Il n'en reste aujourd'hui que 12 exemplaires. En novembre, sa batterie est transférée à Fort Moultrie, sur l'île Sullivan, face à Charleston (cette île servira de décor au très populaire Scarabée d'or). Malgré sa rapide promotion au grade d'artificier, puis de sergent-major (le ) et l'amitié de ses supérieurs, Edgar s'ennuie. John Allan lui refuse la lettre d'autorisation sans laquelle il ne peut démissionner. Le , la batterie d'artillerie dans laquelle il sert est transférée au Fort Monroe en Virginie. Le , Frances Keeling Allan meurt. Elle est inhumée le 2 mars au cimetière de Shockoe Hill. Prévenu tardivement, Edgar n'arrive que le soir du jour des funérailles de cette mère tant aimée. Durant ce séjour, Edgar se réconcilie provisoirement avec son père adoptif, qui accepte de l'aider à démissionner de l'armée et d'appuyer (sèchement) sa candidature à West Point, école des officiers de l'armée américaine. Le 4 avril, Edgar est libéré de l'armée. Une nouvelle histoire de dettes entraîne une nouvelle brouille entre les deux hommes. Libéré de l'armée en , sans le sou, Edgar va attendre son admission à West Point à Baltimore. Il séjourne auprès de sa tante Maria Clemm (1790-1871), sœur cadette de son père, qui a perdu son mari en 1826 et vit dans un extrême dénuement, entourée de sa mère impotente, Elizabeth Cairnes Poe, d'un fils tuberculeux, Henry (1818-après 1836), et de deux filles, Elizabeth Rebecca (1815-1889) et Virginia (1822-1847), qui est éperdue d'admiration devant son cousin, ainsi que du frère d'Edgar, William Henry. Dans cette ville, il fait paraître un second recueil de poèmes, Al Aaraaf, Tamerlan et poèmes mineurs chez Hatch and Dunning en . Muni de chaleureuses lettres de recommandation de ses anciens officiers et d'une froide supplique de John Allan, il se rend à pied à Washington, pour solliciter son admission dans la prestigieuse académie de John Eaton, secrétaire à la Guerre. Ses démarches n'ayant obtenu aucun succès, il retourne à Baltimore. Edgar est admis à West Point en . Il y fait de brillantes études, meilleures dans les disciplines académiques que dans les exercices militaires. John Allan, cependant, se remarie avec Louisa Patterson, qui lui donnera trois fils. Excédé par l'avarice de John Allan, qui lui refuse à nouveau l'argent nécessaire à ses études, et réfractaire à la discipline, Edgar se fait volontairement renvoyer de West Point (en refusant de se rendre en classe ou à l'église) après jugement de la cour martiale, le . Le 6 mars, il quitte l'école avec des lettres de recommandation de ses supérieurs. Des débuts littéraires difficiles De retour à Baltimore, chez Maria Clemm, il recherche vainement un emploi. Ses articles et ses contes sont tous refusés. Enfin, il envoie cinq nouvelles au concours du Philadelphia Saturday Courrier, qui promet au gagnant un prix de . Il n'obtient pas le prix, mais ses contes (notamment Metzengerstein) sont publiés, sans son nom, en 1832 par le Saturday Courrier (qui les paie très mal). Ainsi commence sa carrière de journaliste. Dans l'indigence, il pratique aussi le métier de pigiste nègre et continue son travail d'écrivain, consacrant ses loisirs et ses maigres revenus à l'éducation de sa petite cousine Virginia. En 1831, il fait paraître chez Elam Bliss à New York Poèmes, seconde édition, dédié au « corps des cadets des États-Unis » et précédé du premier manifeste critique d'Edgar, la Lettre à M… (reprise par la suite sous le titre Lettre à B…), qui bénéficie d'un accueil peu favorable. En 1833, le New England refuse de publier son premier recueil : Contes du club de l'In-Folio. En revanche, en octobre, il gagne le du concours du Baltimore Saturday Visiter avec le Manuscrit trouvé dans une bouteille, qui lui apporte une certaine notoriété et l'amitié de John P. Kennedy, membre du jury et célèbre romancier. Grâce à ses recommandations, il peut publier ses premiers comptes rendus de critique littéraire au Southern Literary Messenger. En , il est enfin engagé par Thomas W. White comme directeur de la section littéraire du journal. Toutefois, il n'est pas libre : il doit se conformer au programme de la revue, qui soutient la littérature sudiste, et satisfaire l'admiration infantile de T. W. White pour les discours des gentlemen virginiens. La griffe d'Edgar apparaît dans ses nombreux pamphlets contre les romanciers populaires (du Nord) de l'époque. Il s'attaque notamment au best-seller de Theodore Fay, Norman Leslie, coqueluche de New York et des journaux nordistes tels le Knickerbocker, le Commercial Intelligencer ou la North American Review. Son talent de polémiste éclate, et il rénove l'esprit du Southern. Ses opérations médiatiques, comme la série : « Autobiographies pastiches de lettres d'écrivains », font monter le nombre d'abonnés au journal. Il épouse clandestinement Virginia le . Le , il l'épouse publiquement, et la jeune fille, qui n'a que 13 ans, le rejoint à Richmond avec sa mère. Toutefois, il s'estime, à juste titre, mal payé et ne supporte plus les reproches (sur son supposé alcoolisme, notamment) dont l'accable, en public, T. W. White, pour empêcher son brillant rédacteur de prendre trop d'ascendant et garder le contrôle de son journal. Aussi décide-t-il de quitter le Southern. En , il s'installe à New York, où la New York Review lui a fait une proposition. Mais le journal a cessé de paraître quand il arrive. Mrs Clemm ouvre une pension à Manhattan, où Edgar s'installe avec Virginia. Il y achève Les Aventures d'Arthur Gordon Pym et y révise Les Contes de l'In-Folio. Un écrivain reconnu En 1838, il se fixe à Philadelphie pour reprendre ses activités régulières de journaliste appointé. Il tente d'y vivre de sa plume, mais ses quelques piges ne le sortent pas de la misère. La même année paraissent Les Aventures d'Arthur Gordon Pym, qui n'ont aucun succès. En , William Burton offre à Edgar la place de rédacteur en chef adjoint au Burton's Gentleman's Magazine. Il y est encore moins libre qu'au Southern, car il doit servir l'opportunisme de Burton, qui lui a recommandé de faire preuve d'indulgence dans ses comptes rendus critiques. Toutefois, il s'entend bien avec Burton, et leur collaboration permet au Gent's Mag, qui publie La Chute de la maison Usher, Le Diable dans le beffroi et William Wilson, de devenir le mensuel le plus en vue de Philadelphie. En revanche, la publication en volume des Contes du grotesque et de l'arabesque, en 1840, n'obtient qu'un succès d'estime. La même année, Edgar se livre à une critique de Longfellow, auquel il reproche le manque d'unité de ses textes, et inaugure une série de dénonciations de plagiats. En , il entreprend la publication en livraisons successives d'un roman de l'Ouest, Le Journal de Julius Rodman, médiocre fiction restée inachevée et pleine d'emprunts aux journaux de voyage contemporains. En juin, il quitte Burton pour fonder le Pen Magazine, revue littéraire dont il serait le seul maître. Il fait circuler des tracts aux plus grandes célébrités littéraires américaines, mais le projet échoue lorsque le commanditaire, George Graham, se retire. En octobre, Graham, qui possède le Saturday Evening Post et le mensuel Casket achète pour dollars le Burton's Gentleman's Magazine (qui compte alors abonnés) et le rebaptise Graham's Gentleman's Magazine. Dans le premier numéro paraît le conte L'homme des foules. En , Edgar est engagé comme rédacteur associé par son ami George Graham. Il touche un salaire annuel de . Pour la première fois, il jouit d'une réelle indépendance. La plupart de ses grands articles et l'essentiel de son œuvre critique ont paru dans les pages du Graham's Magazine. C'est également la période la plus heureuse de sa vie. Il poursuit ses attaques contre les « cliques » et les « coteries » de New York et de Boston, qui dictent leur loi aux éditeurs et aux journalistes des grands centres urbains. Le tirage de la revue passe à , chiffre exceptionnel pour l'époque. Un malheur vient cependant frapper sa famille. Un soir de , alors qu'elle chante pour des amis, Virginia est victime d'une hémorragie causée par la rupture d'un vaisseau de la gorge. Elle reste plusieurs mois entre la vie et la mort. Peu après, le 6 mars, Edgar rencontre Charles Dickens, en tournée aux États-Unis, avec lequel il discute de l'instauration d'un copyright international. Dickens lui promet de lui trouver un éditeur en Angleterre. En mai, Edgar quitte le Graham's Magazine, repris par le projet de fonder sa propre revue, baptisée cette fois The Stylus. Espérances et errances En , il se porte candidat à un poste de l'administration qui lui laisserait le temps d'écrire, grâce aux contacts de son ami F. W. Thomas. Toutefois, malgré le soutien de Robert Tyler, le fils du président des États-Unis, il ne peut obtenir aucun poste. Pendant la campagne présidentielle de 1840, il avait rédigé plusieurs pamphlets politiques opportunistes contre le candidat démocrate Martin Van Buren (Le Diable dans le beffroi) et son colistier Richard Mentor Johnson (L'Homme qui était refait), pour obtenir les bonnes grâces du parti whig. De retour à Philadelphie le 13 mars, il vit à nouveau de maigres piges. En 1844, Edgar s'installe dans le nord de Manhattan, à la ferme Brennan, où il travaille avec acharnement à une Histoire critique de la littérature américaine qui ne verra jamais le jour. Par ailleurs, il écrit des Marginalia, brèves notes journalistiques souvent tirées de ses articles antérieurs. Enfin, il accepte un emploi subalterne au New York Mirror de son ami Nathaniel Parker Willis et remet à plus tard son projet du Stylus. Le , il publie Le Corbeau, qui a un succès extraordinaire. Paru dans l'Evening Mirror, le poème est repris dans de nombreux journaux. Sa renommée grandit. Une sélection de ses contes paraît chez les prestigieux éditeurs Wiley et Putnam à New York, puis un recueil de poèmes, Le Corbeau et autres poèmes en . Plusieurs de ses comptes rendus critiques sont publiés dans le Broadway Journal de Charles Frederick Briggs et John Brisco, hebdomadaire d'information artistique et culturelle. Le , il devient collaborateur permanent du journal et lance une campagne célèbre à New York sous le nom de « Guerre Longfellow » : Edgar et « Outis », un correspondant anonyme (Edgar lui-même selon certaines hypothèses), échangent de violentes diatribes, l'une ridiculisant Longfellow, l'autre accusant Le Corbeau de plagiat. En juillet, Edgar parvient à éliminer Briggs, l'un des deux actionnaires du journal. En octobre, Brisco cède ses parts à Edgar, qui concrétise alors son rêve, en devenant l'unique propriétaire de l'hebdomadaire. Toutefois, il s'aliène les journalistes et le public bostonien lors d'une conférence, volontairement obscure, sur son poème Al Aaraaf. Le , Edgar dépose le bilan du Broadway Journal pour cause de dettes. En mai, Virginia étant de plus en plus malade, la famille s'installe à Fordham, quartier du Bronx, dans la grande banlieue de New York. Il apprécie les jésuites de l'université de Fordham et flâne fréquemment dans son campus, conversant avec les étudiants et les professeurs. La tour du clocher de l'université de Fordham lui inspire le poème The Bells. À cette époque, Edgar tombe gravement malade et, ne pouvant plus écrire, sombre dans la misère. Le foyer est soutenu par une amie, Marie Louis Shew, mais leur pauvreté est telle qu'un entrefilet dans le New York Express du 5 décembre appelle les amis du poète à l'aide. Le , Virginia décède à Fordham, à l'âge de 24 ans. Edgar, gravement malade, est soigné par Mrs Shew et Maria Clemm. À cette époque, il est très occupé par son projet de poème en prose, Eureka ou Essai sur l'univers matériel et spirituel. Il s'engage dans une quête frénétique d'amitiés féminines avec Mrs Lewis, dont il corrige les poèmes sentimentaux contre rétribution, avec Mrs Nancy Locke-Richmond (qui habite à Lowell, dans le Massachusetts), dont il s'éprend et qui sera l'Annie des derniers poèmes, enfin, avec Mrs Sarah Whitman (qui vit à Providence, dans le Rhode Island), poétesse spiritualiste à qui il adresse le second poème À Hélène et qu'il demande en mariage. En , dans des circonstances assez obscures, il absorbe une forte dose de laudanum qui manque de l'empoisonner. De plus, il s'est mis à boire, lors de la maladie de Virginia, entre 1842 et 1847, et il est victime de crises d'éthylisme. Il souffre même un moment d'une attaque de paralysie faciale. Le 13 novembre, Mrs Whitman accepte de l'épouser s'il renonce à l'alcool. Le 23 décembre, à Providence, il donne devant deux mille personnes sa célèbre conférence sur Du Principe poétique (qui ne sera publiée qu'après sa mort). Deux jours plus tard, 25 décembre, doivent être célébrées les noces avec Mrs Whitman. Toutefois, le lendemain, celle-ci reçoit une lettre anonyme lui apprenant de prétendues « relations immorales » entre Edgar et une de ses amies. De plus, on lui apprend que son fiancé a passé la nuit à boire avec des jeunes gens dans une taverne de la ville. Aussitôt, elle décide de rompre avec lui. De retour à Fordham, Edgar reprend son projet de revue littéraire avec E.H.N. Patterson. Après une visite à Mrs Richmond, il entreprend un voyage dans le Sud pour rassembler des fonds en faveur de sa revue. Parti de New York le , il séjourne tout l'été à Richmond, où il retrouve Elmira Royster Shelton, veuve depuis la mort de son mari en 1844, avec laquelle il songe à se marier, et redonne sa conférence sur Le Principe poétique, qui rencontre un très grand succès. Il la refait également à Norfolk (Virginie). Une mort mystérieuse Le 27 septembre, Edgar quitte Richmond en bateau pour Baltimore, où il débarque le lendemain. On perd alors sa trace pendant quatre jours. Le , Joseph W. Walker envoie un message au James E. Snodgrass : « Cher Monsieur, — Il y a un monsieur, plutôt dans un mauvais état, au bureau de scrutin de Ryan, qui répond au nom d'Edgar A. Poe, et qui paraît dans une grande détresse et qui dit être connu de vous, et je vous assure qu'il a besoin de votre aide immédiate. Vôtre, en toute hâte, Jos. W. Walker. » L'endroit où Edgar réapparaît, plus connu sous le nom de « Gunner's Hall », était une taverne, qui (comme souvent à l'époque) servait de lieu de vote pendant les élections. Le Snodgrass et Henry Herring, l'oncle d'Edgar, viennent chercher l'écrivain, qu'ils présument ivre. D'après les différents témoignages, au lieu de son costume de laine noir, il portait un manteau et un pantalon d'alpaga de coupe médiocre, vieillis et salis, et dont les coutures avaient lâché en plusieurs points, ainsi qu'une paire de chaussures usées aux talons et un vieux chapeau tout déchiré, presque en lambeaux, en feuilles de palmier. La chemise était toute chiffonnée et souillée, et il n'avait ni gilet ni faux-col. Conduit au Washington College Hospital, il alterne entre des phases de conscience et d'inconscience. Aux questions qu'on lui pose, il répond par des phrases incohérentes. Son cousin, Neilson Poe, venu lui rendre visite, ne peut le voir. Edgar meurt, officiellement d'une « congestion cérébrale », le dimanche 7 octobre, à 3 h ou 5 h du matin. Il est inhumé dans le cimetière presbytérien de la ville, le Westminster Hall, maintenant intégré à l'école de droit de l'université du Maryland. Plusieurs théories ont été émises pour expliquer la mort d'Edgar. On a prétendu, ainsi, qu'il serait mort des suites d'une trop grande consommation d'alcool. D'autres mettent en avant des ennuis de santé. En 1847, il avait été victime d'une longue maladie qui lui aurait causé une lésion au cerveau. De même, en 1848, le John W. Francis aurait diagnostiqué une maladie du cœur, diagnostic qu'Edgar Poe aurait d'ailleurs rejeté. Enfin, dans ses lettres à Maria Clemm, les 7 et 14 juillet, il indique qu'il est malade, parlant d'une amélioration de son état le 19. Parmi les maladies qui auraient pu causer sa mort, on a parlé de la tuberculose, de l'épilepsie, du diabète ou de la rage. Autre hypothèse mise en avant : il aurait retrouvé des anciens de West Point, qui l'auraient invité à boire. Rentrant seul, dans un état d'ivresse, il aurait été volé et battu par des brutes et aurait erré dans les rues pendant la nuit avant de sombrer, inconscient. Cependant, la théorie la plus largement admise est qu'il aurait été victime de la corruption et de la violence, qui sévissaient de manière notoire lors des élections. De fait, la ville était alors en pleine campagne électorale (pour la désignation du shérif, le ) et des agents des deux camps parcouraient les rues, d’un bureau de vote à l’autre, pour faire boire aux naïfs un cocktail d’alcool et de narcotiques afin de les traîner ainsi abasourdis au bureau de vote. Pour parfaire le stratagème, on changeait la tenue de la victime, qui pouvait être battue. Le faible cœur d'Edgar Poe n'aurait pas résisté à un tel traitement. La tombe d'Edgar Poe Poe est enterré lors d'une cérémonie réduite à sa plus simple expression et placé dans une tombe non marquée qui progressivement sera recouverte d'herbes. En 1860, sa famille se mobilise pour offrir une pierre tombale de marbre blanc au poète négligé de Baltimore, portant l'épitaphe : « Hic Tandem Felicis Conduntur Reliquae Edgar Allan Poe, Obiit Oct. VII 1849 » et sur l'autre face l'inscription : « Jam parce sepulto » ( « Maintenant, épargne celui qui est enterré »), mais la pierre est détruite accidentellement avant même sa mise en place. Grâce à une souscription initiée en 1865 et relayée par les élèves de l'université du Maryland, Poe est réinhumé le sur un nouvel emplacement, et une véritable cérémonie est organisée sur sa nouvelle tombe le 17 novembre qui mentionne cette fois une date de naissance erronée (20 janvier au lieu du 19). Le nouveau monument n'a aucune épitaphe, même si plusieurs suggestions ont été faites, en particulier par Oliver Wendell Holmes. La pierre tombale mentionne seulement les noms et les dates de ses occupants. En 1885, les restes de Virginia Poe, enterrés en 1847 à New York, ont été apportés à Baltimore et inhumés avec ceux de Poe et de Maria Clemm, désormais réunis. Ce monument sera dégradé par le temps, remplacé par un monument en bronze, lui-même volé et remplacé. Ce n'est finalement qu'en 1913 qu'une autre pierre commémorative est repositionnée, d'abord au mauvais endroit, puis finalement à l'emplacement originel de la tombe d'Edgar Poe, dans le cimetière presbytérien de Baltimore, avec l'épitaphe suivante, tirée du poème Le Corbeau : « Quoth the Raven, "Nevermore." » (Le corbeau dit : « Jamais plus ! »). Depuis 1949, les admirateurs de Poe se réunissent chaque année sur sa tombe, à l'anniversaire de sa naissance, le 19 janvier. À l'occasion du bicentenaire de sa naissance, des funérailles solennelles, présidées par John Astin, ont été organisées par le Poe House and Museum de Baltimore le , son enterrement n'ayant pas été annoncé publiquement en 1849 et l'assistance autour de son cercueil s'étant alors résumée à dix personnes. Chaque 19 janvier de 1949 à 2009, une mystérieuse personne, désignée comme le (Poe Toaster) a déposé discrètement, de nuit, sur sa tombe trois roses et une bouteille de cognac. Après le décès du trinqueur originel, probablement en 1998, la tradition fut reprise par un ou plusieurs héritiers. Les trinqueurs sont toujours anonymes. Sa personnalité Doté d'une vaste intelligence, Edgar Allan Poe était un homme très courtois mais d'une férocité sans égale, qui le brouilla avec de nombreuses personnes. Ses amis étaient toujours frappés par sa tenue soignée à l'excès et la clarté de son élocution. De même, ses manuscrits se distinguent par la fermeté, la régularité et l'élégance de son écriture et ne comportent que peu de ratures. Très souvent, il écrivait sur des feuilles de bloc-notes qu'il collait les unes aux autres de manière à former des rouleaux très stricts. Une analyse graphologique de ces manuscrits a été réalisée, qui révélerait une intelligence , une indépendance extrême à l'égard des conventions, et qui contrôle, ou cherche toujours à contrôler, une extraordinaire sensibilité ; somme toute, un « cérébral ». Dans son travail, il se méfiait du premier jet, du spontané. Pressé par le besoin d'argent, il livrait le plus souvent des contes non revus aux journaux ou revues auxquels ils étaient destinés. Toutefois, lors des republications, il apportait à ceux-ci d'importants changements, toujours dans le sens d'un meilleur resserrement du texte. Durant les derniers mois de son existence, il révisa de près ses fictions et ses écrits théoriques ou critiques en vue de la première grande édition de ses œuvres, qui parut à New York en 1850. Très conscient de son intelligence, logicien, il aimait faire montre de ses capacités analytiques. Ainsi, lors de la publication en feuilleton de Barnabé Rudge (1841), roman de Dickens, il aurait deviné la fin de l'intrigue avant la parution des dernières livraisons. De même, Le Mystère de Marie Roget est inspiré d'un fait réel, l'assassinat de Mary Cecil Rogers à New York en 1841, dont le corps avait été retrouvé dans l'Hudson, près de la rive du New Jersey. Dans une lettre datée du , il explique que, dans son conte, en faisant faire à Dupin , il démontre et a , expliquant que la jeune femme n'a pas été assassinée, comme on le pensait, par une bande de voyous. Sa supériorité dans l'art d'écrire fut aussi marquée par quelques canulars, où il appliqua sa théorie de l'effet. Le , il fit paraître dans un numéro spécial du New York Sun un conte, Le Canard au ballon, présenté comme un fait réel. Par cette adroite mystification, il marquait son retour sur la scène littéraire new-yorkaise. Quant à La Vérité sur le cas de M. Valdemar, conte paru en 1845, l'éditeur, qui le publia comme un pamphlet, et les journaux qui le reprirent dans les éditions anglaises le présentèrent comme un rapport scientifique (parce qu'ils avaient été dupés). Elizabeth Barrett Browning lui écrivit pour louer « la puissance de l'écrivain et cette faculté qu'il a de transformer d'improbables horreurs en choses qui paraissent si proches et si familières ». Idéaliste, il était aussi très ambitieux, ce qu'il ne cachait pas. Il confia un jour à John Henry Ingram : Dès l'enfance, il lisait Byron, dont l'influence devait marquer ses premiers poèmes, Coleridge et la plupart des romantiques de son époque. Par la suite, il devait se démarquer de ces auteurs et se signala par des critiques assez féroces contre Coleridge. Il connaissait aussi parfaitement la littérature classique et goûtait particulièrement Pope. Il professa une grande admiration pour Ondine, conte de Friedrich de La Motte-Fouqué, pour Shelley, pour le génie de Dickens (notamment pour Le magasin d'antiquités), pour Hawthorne. En revanche, il exprimait de sévères critiques à l'égard de Carlyle, d'Emerson (qu'il considérait comme la du premier), de Montaigne, dont l'emploi de la digression dans ses Essais était en contradiction avec ses idées sur la nécessaire unité d'un texte. De même, s'il pouvait dire de John Neal que « son art est grand, il est d'une nature élevée », il mettait en avant ses « échecs répétés […] dans le domaine de la construction de ses œuvres », due, selon lui, soit à une « déficience du sens de la totalité », soit à une « instabilité de tempérament ». Malgré ses efforts, il ne vécut jamais dans une réelle aisance, mais connut souvent la misère, même s'il bénéficia de son vivant d'une réelle célébrité, surtout par ses activités de journaliste et son poème Le Corbeau. Poe et l'alcool L'alcoolisme de Poe a été démesurément exagéré, pour suggérer que sa vie aurait été une longue suite de beuveries et le disqualifier en tant qu'auteur. D'abord, il est peu probable qu'il ait pu écrire ou concevoir ses poèmes ou ses contes sous l'influence de l'alcool, ne serait-ce qu'en raison de la longueur, de l'arrondi et de la construction soignée de ses phrases. Ensuite, son flirt avec l'alcool était intermittent ; s'il lui arrivait de boire plusieurs jours de suite, il pouvait ne pas toucher une goutte d'alcool pendant des mois ou des années. Avant 1841, il n'existe aucun document témoignant de ses rapports à l'alcool. En , il écrivit au docteur J. Evans Snodgrass : . Il est possible qu'il ait découvert l'alcool à l'université en 1826, comme nombre d'autres jeunes gens, mais l'un de ses camarades a témoigné du fait qu'il était réputé, parmi les professeurs, pour sa sobriété, son calme et sa discipline. Par la suite, il est demeuré de longues années sans boire ; il obtint trois lettres de recommandation lors de son départ de l'armée en 1829. Sa consommation aurait repris à West Point, mais les témoignages à ce sujet sont douteux. Plus tard, l'un de ses amis a fait état d'une consommation modérée de liqueur, durant son séjour à Baltimore, en 1832. C'est à Richmond, en 1835, qu'on trouve les premières traces avérées d'une consommation d'alcool excessive, mais occasionnelle. Dans sa lettre à Snodgrass, Poe explique : . Après plusieurs années de sobriété, à la suite de son départ dans le Nord, il semble qu'il se soit remis à boire, en diverses occasions, à l'époque de la maladie de son épouse, la succession des améliorations intermittentes et des rechutes l'ayant fait sombrer dans la dépression. Vers la fin , Poe rejoignit la division Shockoe Hill des Sons of Temperance, à Richmond. Quant aux rumeurs d'alcoolisme, elles sont fondées sur le fait que, d'une part, il ne supportait pas l'alcool, et que, d'autre part, plusieurs personnes, soit qu'elles fussent fâchées avec lui (comme Thomas Dunn English), soit qu'elles pussent se compter comme ses ennemis, ont profité de ces quelques occurrences où il est apparu ivre pour généraliser et prétendre qu'il était alcoolique, cela afin de le blesser et de salir son honneur, puis sa mémoire. De même, si le vin est un thème fréquent, dans les contes de Poe, il apparaît toujours sur un mode satirique ; les personnages décrits comme des connaisseurs sont généralement ivres ou sots ; le plus noble des vins n'apparaît pas comme un moyen de rendre la vie plus agréable ou plus riche, mais comme un piège pour l'imprudent et le faible. Le vin servait à Poe de métaphore ; à travers lui, il se moquait des prétentions de l'Homme et dénonçait ses tares. Ses écrits L'ambition d'Edgar Poe était de créer une véritable littérature nationale. En effet, à cette époque, l'influence européenne était prépondérante et la production du vieux continent affluait aux États-Unis dont la littérature ne brillait guère que par ses histoires d'horreur et ses romans sentimentaux. À ce titre, son œuvre de critique littéraire fut marquée par une véritable exigence de qualité, ainsi que la dénonciation des facilités et des plagiats. Longfellow fut la plus illustre de ses victimes ; il ne répondit jamais à ses accusations, encore que ses amis se fissent un plaisir, en réponse, de calomnier Edgar Poe dans les milieux littéraires new-yorkais. Edgar Poe a laissé d'importants écrits théoriques, influencés par August Wilhelm Schlegel et Coleridge, qui permettent de donner sens à son œuvre. Ses réflexions littéraires renvoient à ses conceptions cosmogoniques. Dans Eureka, il explique que l'univers, à l'origine, était marqué par l'unicité. Il a éclaté par la suite en quelque chose que l'on pourrait rapprocher de la théorie du Big Bang, mais il aspire à retrouver son unité. C'est dans cet ouvrage, qui date de 1848, qu'est exposée la première solution plausible au paradoxe d'Olbers . De même, en littérature, l'unité doit l'emporter sur toute autre considération. D'où la théorie de l'effet unique qu'il développe dans Philosophie de la composition (traduit par Baudelaire sous le titre de Genèse d'un poème): le but de l'art est esthétique, c'est-à-dire l'effet qu'il crée chez le lecteur. Or, cet effet ne peut être maintenu que durant une brève période (le temps nécessaire à la lecture d'un poème lyrique, à l'exécution d'un drame, à l'observation d'un tableau, etc.). Pour lui, si l'épopée a quelque valeur, c'est qu'elle est composée d'une série de petits morceaux, chacun tourné vers un effet unique ou un sentiment, qui « élève l'âme ». Il associe l'aspect esthétique de l'art à l'idéalité pure, affirmant que l'humeur ou le sentiment créé par une œuvre d'art élève l'âme et constitue, de ce fait, une expérience spirituelle. Le poème, le conte, le roman ne doit tendre que vers sa réalisation, et toute digression doit être rejetée. De même, le roman à thèse, où l'intrigue est entrecoupée de dissertations sur tel ou tel sujet, est à proscrire. Adversaire du didactisme, Poe soutient, dans ses critiques littéraires, que l'instruction morale ou éthique appartient à un univers différent du monde de la poésie et de l'art, qui devrait seulement se concentrer sur la production d'une belle œuvre d'art. L'univers, dit-il, est un poème de Dieu, c'est-à-dire qu'il est parfait. Mais l'Homme, aveugle aux œuvres de Dieu, ne voit pas cette perfection. C'est au poète, qui a l'intuition de cette perfection, grâce à son imagination créatrice, de la faire connaître à l'humanité. Mais certains poètes mégalomanes, guidés par ce que les Grecs anciens appelaient hubris, au lieu d'admettre l'impossibilité de l'imitation parfaite de l'intrigue de Dieu par l'Homme, prétendent se livrer à une concurrence sacrilège. Marqués non par l'imagination créatrice, mais par la fancy , ils ne voient pas la perfection de la création divine ; leur esprit aveuglé interprète le monde en fonction de leur cœur, de leur propre tourment intérieur ; ils sont voués au néant par leur ambition prométhéenne. Dans la première catégorie, on peut citer le chevalier Auguste Dupin (Double assassinat dans la Rue Morgue, Le Mystère de Marie Roget et La Lettre volée), William Legrand (Le Scarabée d'or) ou le baron Ritzner von Jung (Mystification). De même, dans certains contes, l'illusion est révélée par un parent au narrateur fiévreux qui a fui une épidémie de choléra dans Le Sphinx, par des lunettes qu'on offre au narrateur myope dans Les Lunettes, par la révélation des causes psychosomatiques de la sorte de catalepsie dont souffre le narrateur dans L'Enterrement prématuré. Dans la seconde catégorie, la figure la plus marquante est Roderick Usher, dont l'influence néfaste « contamine » le regard du narrateur et lui fait voir comme surnaturels des phénomènes qui ont, en fait, une explication rationnelle (Poe disséminant adroitement les indices de cette explication dans le texte). Dans La Lettre volée (en anglais, The Purloined Letter), Edgar Poe imagine une intrigue où un certain « D. » (peut-être un frère du héros, le chevalier Auguste Dupin, comme semble l'indiquer la citation de la tragédie Atrée et Thyeste de Crébillon père : « Un destin si funeste, / S'il n'est digne d'Atrée, est digne de Thyeste. ») vole à une dame de qualité une lettre compromettante. Pour la cacher aux policiers, qui surveillent ses allers-retours et fouillent son hôtel pendant son absence, il la met bien en évidence dans un tableau accroché au mur. L'aveuglement des policiers, à l'esprit médiocre, renvoie à l'aveuglement des hommes, incapables de saisir la perfection de l'intrigue de Dieu. Quant à « D. », Poe le décrit comme dominé par la fancy, au contraire du chevalier Dupin, qui finit par l'emporter grâce à son imagination créatrice. La narration, chez Poe, est marquée par la polysémie, dont témoignent les nombreux jeux de mot, dans les textes tragiques comme dans les textes comiques. Le narrateur, qui se signale le plus souvent par des lectures néfastes (littérature fantastique à l'allemande, romans gothiques, ésotérisme, métaphysique), décrit une histoire déformée par sa fancy, il ne maîtrise pas son écriture, dans laquelle plusieurs indices permettent d'appréhender la réalité sous-jacente. Nombre d'histoires d'Edgar Poe, principalement celles qui devaient figurer dans les Contes de l'In-Folio, qu'elles relèvent du tragique ou du comique, appartiennent au registre de la parodie. Son but est de démontrer l'inconsistance des fausses gloires de son temps, dont seuls quelques-uns ont échappé à l'oubli. Ainsi, Metzengerstein imite les horreurs inventées dans les romans gothiques, comme Le Château d'Otrante d'Horace Walpole ou Les Élixirs du diable d'Ernst Theodor Amadeus Hoffmann. L'histoire repose sur la croyance en la métempsycose, pour laquelle Edgar Poe a toujours manifesté un profond mépris et qui relevait pour lui de l'aliénation mentale. Dans Le Duc de l'Omelette, il se moque des maniérismes et du style affecté de Nathaniel Parker Willis. Dans Un événement à Jérusalem, qui reprend un roman de Horace Smith, Zilhah, a Tale of the Holy City (1829), il ridiculise l'orientalisme des romantiques. Quant à Manuscrit trouvé dans une bouteille, il représente un pastiche des récits de voyage. De même, des contes comme Bérénice raillent les outrances auxquelles se livraient les revues de l'époque. Le Roi Peste, de son côté, démonte les mécanismes du roman Vivian Grey (1826), récit plein de fantaisie débridée à travers lequel, non sans incongruité, Benjamin Disraeli entendait dénoncer l'ivrognerie. De même, dans Comment écrire un article à la « Blackwood » et A Predicament, la satire dénonce l'absurdité des contes à sensation, qui faisaient la fortune du Blackwood's Magazine, très célèbre revue d'Édimbourg. Quant à l'héroïne, Psyché Zenobia, c'est une femme de lettres américaine, un « bas-bleu », Margaret Fuller, dont les sympathies pour les transcendantalistes suffisaient à énerver Poe. Plus largement, quand l'actualité ne venait pas lui fournir un sujet, il puisait assez souvent dans ses nombreuses lectures (que favorisait son travail de critique littéraire) pour concevoir et construire ses œuvres de fiction. Ainsi, Hop Frog est inspiré de l'accident advenu à Charles VI lors du bal des ardents, tel que l'a décrit Jean Froissart dans ses Chroniques. De même, William Wilson est directement inspiré de la trame d'un poème dramatique que Byron aurait eu l'intention d'écrire, dont Washington Irving avait révélé le contenu dans The Gift en 1836. Nathaniel Hawthorne s'était lui-même servi de ce matériau pour rédiger Howe's Masquerade. Il s'est également inspiré, pour sa nouvelle La Barrique d'Amontillado, de La Grande Bretèche d'Honoré de Balzac. Il pouvait aussi faire appel, comme tout écrivain, à son expérience personnelle. Ainsi, Un matin sur le Wissahicon relate au départ une promenade qu'il avait faite à Mom Rinker's Rock et la rencontre d'un daim apprivoisé, même s'il s'éloigne vite de la simple transcription de souvenirs pour se livrer à une contemplation émerveillée de la nature et à une réflexion sur l'altération des paysages créée par la présence humaine, et plus largement sur les rapports entre l'industrie humaine et la beauté (sa description perdant tout réalisme pour basculer dans l'onirisme et offrir un coup d'œil éphémère sur une vision céleste). Postérité [[Fichier:Frontispiece image of poets from Stedman's An American Anthology.jpg|vignette|gauche|alt=Photo en bistre montrant huit têtes d'hommes|Frontispice de la édition dAn American Anthology (1787-1900) d'Edmund Clarence Stedman. Figurent, avec Poe, de gauche à droite et de haut en bas, Henry Wadsworth Longfellow, Walt Whitman, John Greenleaf Whittier, William Cullen Bryant, Oliver Wendell Holmes, James Russell Lowell et Sidney Lanier.]] Edgar Poe est un auteur prolifique, qui laisse deux romans, de nombreux contes et poèmes, outre ses essais, ses critiques littéraires et son abondante correspondance. Une partie importante de ses contes et poèmes ont été traduits en français par Charles Baudelaire et Stéphane Mallarmé. D'une très grande qualité littéraire, ces traductions comportent, en dépit d'une grande fidélité au texte original, un certain nombre d'erreurs, de contresens ou de lourdeurs, voire certaines libertés qui nuisent à la compréhension de la pensée de Poe. Si les poèmes ont pu faire l'objet de retraductions, le rôle joué par Baudelaire dans la célébrité de Poe en Europe a longtemps empêché tout travail en ce sens, seuls les textes qu'il avait laissés de côté ayant fait l'objet de traductions plus récentes. Ce n'est qu'en 2018 que des traductions intégrales de ses contes ont été publiées ; celles-ci ont permis au lecteur d'accéder à un texte exempt des erreurs de Baudelaire et de comprendre que la langue de Poe n'est nullement , mais , et que . C'est le cas notamment du conte , considéré par le critique et universitaire , et à sa suite le poète Walt Whitman, comme . Pendant longtemps, l'image d'Edgar Poe fut tronquée ; elle l'est encore dans une partie importante du public. Poe fut victime d'un pasteur baptiste bien-pensant, par ailleurs littérateur jaloux, Rufus Griswold (1815-1857) , qui s'acharna à détruire son image. Le , déjà, il écrivait dans le New York Tribune : « Edgar Poe est mort. Il est mort à Baltimore avant-hier. Ce faire-part étonnera beaucoup de personnes, mais peu en seront attristées. […] L'art littéraire a perdu une de ses plus brillantes et de ses plus bizarres célébrités. » Par la suite, chargé avec James Russell Lowell et Nathaniel Parker Willis d'assurer l'édition des Œuvres posthumes de Poe, il rédigea une notice biographique parue en tête du troisième tome, selon Claude Richard. Il prétendit ainsi qu'il était alcoolique, mélancolique, c'est-à-dire victime d'un déséquilibre mental, et que c'était un personnage sinistre qui avait des . Les légendes qu'il forgea eurent longtemps seules droit de cité, malgré les protestations des amis de Poe (Sarah Helen Whitman, John Neal, George Rex Graham, George W. Peck, Mrs Nichols ou Mrs Weiss). C'est grâce aux travaux de John Henry Ingram (1880), James A. Harrison (1902) et Arthur Hobson Quinn (1941) que la vérité sur le travail de l'écrivain fut rétablie, avec l'édition, en 1902, des œuvres complètes de Poe, dite Virginia Édition, qui comporte dix-sept volumes. En France même, où ses œuvres ont connu très tôt un large écho, grâce essentiellement aux efforts de Charles Baudelaire, nombre d'études témoignent d'une méconnaissance assez large du poète américain. Une part des légendes qui se colportent ont d'ailleurs été transmises par Baudelaire, lui-même, qui s'est reconnu dans cette image de l'écrivain hanté et misérable et l'a présenté avec trop d'insistance comme le parangon des poètes maudits et sulfureux. Même s'il dénonce largement les légendes colportées par Rufus Griswold (parmi lesquelles celle de l'alcoolisme de Poe), rappelant que, selon plusieurs témoins, il ne buvait généralement que fort peu, il décrit ce supposé alcoolisme comme « un moyen mnémonique, une méthode de travail ». De même, il lui attribue ses propres penchants pour la drogue. Plus tard, en 1933, Marie Bonaparte se livra à une importante étude psychanalytique, qui est fréquemment citée parmi les grandes critiques de Poe et de son œuvre, et qui a eu une grande influence sur la réception de l'œuvre de Poe, ne serait-ce qu'en raison de son analyse des textes de Poe suivant le prisme de la psychanalyse freudienne. Cela dit, plusieurs critiques considèrent son ouvrage comme assez contestable dans sa manière de reproduire et d'amplifier certaines légendes véhiculées par Griswold. Par exemple, elle affirme qu'Edgar Poe aurait aperçu, dans sa petite enfance, ses parents faisant l'amour, déduisant de cet événement des complexes dont témoigneraient, selon elle, ses textes. Influencée par les légendes répétées à l'envi depuis Griswold, qui présentent Poe comme un être neurasthénique, alcoolique, drogué, marqué par la fatalité, elle fait partie des analystes qui considèrent que Poe a écrit une œuvre largement autobiographique, transcrivant sur le papier ses propres terreurs. Pour ce faire, si elle corrige certaines erreurs de la traduction de Baudelaire, elle se livre elle-même à certaines déformations, pour justifier son propos. Ainsi, la phrase : « Si dans maintes de mes productions, la terreur a été le thème, je soutiens que cette terreur n'est pas d'Allemagne, mais de l'âme . », tirée de la préface des Contes du grotesque et de l'arabesque, devient, sous sa plume : « Si dans maintes de mes productions, la terreur a été le thème, je soutiens que cette terreur n'est pas d'Allemagne, mais de mon âme ». Pour ces critiques, cette lecture ignore pour une part le travail de l'écrivain et méconnaît la pensée de Poe, que l'auteur prétend qualifier de « nécrophile en partie refoulé en partie sublimé ». Ainsi, selon le psychanalyste Édouard Pichon, . Par ailleurs, et dans une perspective très différente de celle d'une Marie Bonaparte ou d'un René Laforgue, Jacques Lacan a également livré un commentaire psychanalytique de la nouvelle intitulée La Lettre volée. Hommages Depuis 1917, une statue d'Edgar Allan Poe réalisée par Moses Ezekiel est installée dans le campus de la faculté de droit de l'université de Baltimore, à l'initiative de l'''Edgar Allan Poe Memorial Association of Baltimore, fondée en par le Women's Literary Club of Baltimore. Une statue en bronze de l'auteur, œuvre de Charles Rudy, a été offerte à la ville de Richmond par le George Edward Barksdale. Installée avec un socle de granit rose sur le square près du Capitole de l'État de Virginie le , elle a été inaugurée le 7 octobre suivant. Une plaque commémorative a été apposée le , pour le anniversaire de sa naissance, sur la façade d'un immeuble près de Carver Street (actuellement, Charles Street South), dans le quartier de Bay Village, à Boston, où il a vu le jour. Puis, le , lors du bicentenaire de sa naissance, le maire de Boston, Thomas Menino, a inauguré avec Paul Lewis, professeur à Boston College, le square Poe, situé dans le même quartier, à l'angle de Boylston Street et de Charles Street, en face du Boston Common. L'université de Virginie, à Charlottesville, conserve la mémoire d'Edgar Allan Poe et de la chambre où il a vécu de à . On a donné son nom à l'allée (Poe Alley) qui borde le bâtiment. La West 84th Street, à New York, a été baptisée « Edgar Allan Poe Street ». Elle est située dans l'Upper West Side, au nord-ouest de Manhattan, entre Riverside Park et Central Park, et coupée par Broadway. C'est là que se trouvait la ferme des Brennan, où les Poe ont vécu quelque temps entre 1844 et 1845. On trouve également une place à son nom dans le Bronx, à proximité du cottage où les Poe ont habité entre 1846 et 1849. En 1927, une voie a été ouverte dans la zone de la butte Bergeyre, située dans le quartier du Combat, au sud-ouest du arrondissement de Paris, à proximité du parc des Buttes-Chaumont ; elle a été baptisée « rue Edgar-Poe » l'année suivante. Plusieurs autres rues portent son nom dans le monde, notamment à Berkeley, Bologne, Carhaix-Plouguer, Fontaine-le-Comte, Hartsdale (État de New York), Le Havre, Laredo (Texas), Mérignac, Nîmes, Niort, Palerme, Palo Alto, Portland, Providence, Reggio d'Émilie, Richmond, São José dos Pinhais, San Diego, Staten Island, Tours, Woodmere (État de New York), Xàbia ; des avenues à Ames, Cleveland, Dayton, East Meadow, Lithopolis (Ohio), Mount Pleasant (Caroline du Sud), Newark, Northridge (Ohio), Somerset (New Jersey), Stafford (Virginie), Urbana, Vandalia (Ohio), Westfield, Worthington (Ohio) ; des places à Baldwin (État de New York), Fairfield, Piscataway, Shelton, South Plainfield (New Jersey), Westerville (Ohio) ; des cours à Annandale (Virginie), Kendall Park (New Jersey) et Morganville (New Jersey), à Norfolk, New Windsor (État de New York), North Wales (Pennsylvanie), Roxbury (New Jersey), Staten Island, Williamstown (New Jersey). Plusieurs écoles ont adopté son nom, notamment les écoles élémentaires d’Arlington Heights (Illinois), de Suitland, dans le comté du Prince George (Maryland) (Maryland), ou de Girard Estate, au sud de Philadelphie, inscrite dans le Registre national des lieux historiques depuis le , ainsi que l’école élémentaire et secondaire (Junior High School) de San Antonio. À Paris, un lycée privé sous contrat, le « lycée Edgar-Poe », porte son nom depuis sa création en 1965 dans le arrondissement de Paris. Demeures conservées La plus ancienne des maisons existant encore où ait vécu Poe se trouve à Baltimore. Elle est conservée sous la forme d’un Musée Edgar Allan Poe. Poe est censé avoir vécu dans cette maison à 23 ans, quand il s’installa une première fois avec Maria Clemm et Virginia ainsi que sa grand-mère et, peut-être, son frère William Henry Leonard Poe. Elle est ouverte au public, de même que le siège de la Société Edgar Allan Poe. Poe, son épouse Virginia et sa belle-mère Maria ont, par la suite, loué plusieurs maisons à Philadelphie, mais seule la dernière de ces maisons est encore debout. La maison de Spring Garden, où vécut l’auteur en 1843-1844, est aujourd’hui conservée par le Service des parcs nationaux en tant que Site historique national Edgar Allan Poe. Elle se situe entre la rue et la rue Spring Garden et est ouverte du mercredi au dimanche de 9 heures à 17 heures. La dernière maison de Poe, un cottage dans le Bronx, à New York, est également conservée. La plus ancienne maison de Richmond, baptisée « Virginia », où Poe n’a jamais vécu, est aujourd’hui le siège d’un Musée Edgar Allan Poe, centré sur les premières années de l’écrivain auprès de la famille Allan. Adaptation de ses œuvres (1839) Au cinéma la première adaptation est le film français muet en 1928 La Chute de la maison Usher réalisé par Jean Epstein. Suit un court métrage muet d'horreur américain la même année : réalisé par James Sibley Watson and Melville Webber. Il faut attendre 1960 pour voir La Chute de la maison Usher, film fantastique américain réalisé par Roger Corman. Dans les années 2000 plusieurs films ont été réalisés. film d'horreur anglais de Ken Russell interprété par lui-même et Mediæval Bæbes. L'année suivante : film hollandais en anglais avec Katherine Heigl et Jeremy London. En 2004 : Usher écrit et réalisé par Roger Leatherwood. Et en 2006, film policier réalisé par Hayley Cloake. Trois opéras ont également été écrits : La Chute de la maison Usher opéra inachevé (il travailla à sa partition de 1908 à 1917, mais ne l'acheva jamais) en un acte et deux scènes que Claude Debussy composa sur son propre livret. Une première version de par Glass et une seconde un opéra rock du chanteur anglais Peter Hammill, fondateur du groupe Van der Graaf Generator, et réédité en 1999 dans sa version définitive. (1843) La première adaptation eut lieu en 1914 : La Conscience vengeresse ( en anglais) film américain réalisé par D. W. Griffith. Puis Le Cœur révélateur ( en anglais) court-métrage américain réalisé par Jules Dassin, sorti en 1941. Un nouveau court-métrage américain de moins de dix minutes portant le même titre sort en 1953. Un troisième film portant le même titre original sort en 1960, il s'agit d'un long-métrage d'horreur de 78 minutes réalisé par Ernest Morris. En 2009 sort le long-métrage anglo-américain réalisé par Michael Cuesta avec Josh Lucas, Lena Headey et Brian Cox. En 2012, Ryan Connolly sort un court-métrage d'horreur psychologique Tell. Le jeu vidéo dans ses énigmes fait référence à Poe et à . (1845) a été adapté six fois au cinéma à commencer en 1915 par un film muet sur la biographie d'Edgar Allan Poe réalisé par Charles Brabin avec Charles Brabin dans le rôle d'Edgar Poe. Puis en 1935 sort le film d'horreur américain Le Corbeau () de Lew Landers avec Boris Karloff et Béla Lugosi. En 1963 sort le film fantastique américain Le Corbeau de Roger Corman avec à nouveau Boris Karloff, Jack Nicholson et Vincent Price. La quatrième adaptation sort en 2006 dirigée par le réalisateur allemand Ulli Lommel. En 2011 le réalisateur britannique Richard Driscoll sort . En 2012 la sixième adaptation se nomme L'Ombre du mal (ou Le Corbeau au Québec) (), qui est un thriller américain réalisé par James McTeigue. Œuvres Théâtre Politien (Politian, Richmond, Southern Literary Messenger, deux livraisons, –, inachevé) Romans Les Aventures d'Arthur Gordon Pym (The Narrative of Arthur Gordon Pym of Nantucket, deux livraisons, Southern Literary Messenger, janvier-février 1837 ; en volume, ) Le Journal de Julius Rodman (The Journal of Julius Rodman, six livraisons, Philadelphie, Burton's Gentleman's Magazine, janvier-), inachevé Essais Lettre à B… (Letter to , Poems, New York, Elam Eliss, 1831 ; Letter to B —, Richmond, Southern Literary Messenger, ) Le Joueur d'échecs de Maelzel (Maelzel's Chess Player, Richmond, Southern Literary Messenger, ) Philosophie de l'ameublement (The Philosophy of Furniture, Philadelphie, Burton's Gentleman's Magazine, ) Quelques mots sur l'écriture secrète (A Few Words on Secret Writing, Philadelphie, Graham's Magazine, ) Exorde (Exordium, Philadelphie, Graham 's Magazine, ) Quelques secrets de la prison du magazine, Broadway Journal, vol. I, no. 7, La Philosophie de la composition (The Philosophy of Composition, Philadelphie, Graham's Magazine, ), titre exact de La Genèse d'un poème L'Art du conte chez Nathaniel Hawthorne (Tale-Writing-Nathaniel Hawthorne, Godey's Ladys Book, ) Eureka (Eureka: A Prose Poem, New York, Wiley & Putnam, ) Le Fondement de la métrique (The Rationale of Verse, Richmond, Southern Literary Messenger, ) Marginalia (New York, J. S. Redfield ), recueil posthume de brefs textes parus dans divers journaux entre 1844 et 1849 Du Principe poétique (The Poetic Principle, Southern Literary Messenger, ), posthume Contes et nouvelles Voir la catégorie dédiée : :Catégorie:Nouvelle d'Edgar Allan Poe' Poèmes Bibliographie Publications en volume du vivant d'Edgar Poe . . . . . . . . . . . Éditions posthumes des œuvres d'Edgar Poe The Works of the Late Edgar Allan Poe (édition de Rufus Griswold), volumes 1-2, New York, J. S. Redfield, 1850 ; vol. 3, 1850 ; vol. 4, 1856 (édition posthume préparée par Edgar Poe, réimprimé par Redfield jusqu'en 1859 puis par W. J. Widdleton jusqu'en 1871). The Works of Edgar Allan Poe (édition de John Henry Ingram), 4 volumes, Édimbourg, Black, 1874-1875 (plusieurs rééditions avec d'importantes corrections et révisions). The Works of Edgar Allan Poe (avec un mémoire de Richard Henry Stoddard) 6 volumes, New York, A. C. Armstrong & Son, 1884 ; Londres, Kegan Paul, Trench, 1884 (8 volumes, New York, George P. Putnam's Sons, A. C. Armstrong & Son, 1884). The Works of Edgar Allan Poe (édition d'Edmund Clarence Stedman et George Edward Woodberry), 10 volumes, Chicago, Stone & Kimball, 1894-1895. The Complete Works of Edgar Allan Poe (édition de James Albert Harrison, avec des notes de Robert Armistead Stewart), 17 volumes, New York, Thomas Y. Crowell and Company, 1902 (édition baptisée : The Virginia Edition et The Monticello Edition, cette dernière version ayant un papier d'un plus grand format). The Complete Poems of Edgar Allan Poe (préface et mémoire de James Howard Whitty), Boston & New York, Houghton Mifflin Co., 1911. Politian, an unfinished tragedy by Edgar A. Poe: edited from the original sources, including the autograph manuscripts in the Pierpont Morgan Library (édition de Thomas Ollive Mabbott), Richmond, The Edgar Allan Poe shrine, 1923. The Collected Works of Edgar Allan Poe (édition de Thomas Ollive Mabbott) : Volume 1 : Poems, Cambridge, The Belknap Press of Harvard University Press, 1969 (réimpression, 1979 puis, sous la forme de livres brochés, sans un certain nombre d'annexes, Harvard, 1980 ; rémpression avec le texte complet, University of Southern Illinois, 2000) ; Volumes 2-3 : Tales and Sketches, Cambridge, The Belknap Press of Harvard University Press, 1978 (réimpression, 1979 ; University of Southern Illinois, 2000). The Collected Writings of Edgar Allan Poe (édition de Burton Ralph Pollin) : Volume 1 : The Imaginary Voyages (comprenant : The Narrative of Arthur Gordon Pym, The Unparalleled Adventure of one Hans Pfaall et The Journal of Julius Rodman), Boston, Twayne Publishers, 1981 ; Volume 2 : The Brevities: Pinakidia, Marginalia and Other Works, New York, Gordian Press, 1985 ; Volumes 3 & 4 : Writings in The Broadway Journal: Nonfictional Prose, New York, Gordian Press, 1986 ; Volume 5 : Writings in the Southern Literary Messenger: Nonfictional Prose, New York, Gordian Press, 1997. Traductions classiques en français Dès son vivant, Edgar Allan Poe a été traduit en de nombreuses langues, et par d'innombrables auteurs ou rédacteurs, célèbres ou inconnus du public, et avec des résultats littéraires comme commerciaux plus ou moins heureux. En langue française nous connaissons essentiellement les traductions faites par Charles Baudelaire, mais contrairement à l'idée répandue une recherche approfondie dans les archives historiques des journaux, gazettes et quotidiens de l'époque, et dans la presse nationale mais aussi régionale, montre que Baudelaire fut loin d'être le premier à tenter de faire connaître Edgar Poe au public français (avant lui il y eut Gustave Brunet dès 1844, Alphonse Borghers dès 1845, Emile Forgues en 1846, et Isabelle Meunier en 1847). Il existe notamment sur le site web officiel de l’Edgar Allan Poe Society of Baltimore une excellente étude très complète sur les nombreuses traductions et tentatives de traductions de l’œuvre d'Edgar Allan Poe de son vivant... et jusqu'au centenaire de sa mort en 1949 et jusque dans la presse régionale française. Une page d'une importance considérable pour les bibliographes tant elle donne de sources inattendues mais précises et vérifiables, objets potentiels de visites à des archives historiques de la presse ou à des bibliothèques de nos villes de province. Nous nous contenterons de citer ici les deux principaux traducteurs connus du public français : Baudelaire et Mallarmé, ainsi qu'un traducteur plus tardif mais important, Félix Rabbe, qui a publié en 1887 un livre de 355 pages contenant une traduction en français de plusieurs contes et poèmes parmi ceux restés jusque-là non traduits, un ouvrage réédité récemment en eBook gratuit. Charles Baudelaire : Le Corbeau, Paris, Michel Lévy Frères, 1856. Histoires extraordinaires, Paris, Michel Lévy frères, 1856. Nouvelles histoires extraordinaires, Paris, Michel Lévy frères, 1857. Les Aventures d'Arthur Gordon Pym (roman), Paris, Michel Lévy frères, 1858. Histoires grotesques et sérieuses, Paris, Michel Lévy frères, 1865. Eureka, Paris, Michel Lévy frères, sans date. Stéphane Mallarmé : Le Corbeau, Paris, R. Lesclide, 1875. Les Poèmes d'Edgar Poe, Bruxelles, Deman, 1888 ; Paris, Léon Vanier, 1889. Félix Rabbe : Derniers Contes, Paris, Savine, 1887. 355 pages. Éditions modernes d'Edgar Poe , édition de la traduction de Charles Baudelaire, en annexe à ses œuvres, établie par Yves-Gérard Le Dantec. , une édition de référence avec un appareil critique étendu. Introduction générale (« Le mythe de Poe »), chronologie, introduction aux contes (« Les contes de Poe ou les modes de la contamination »), introduction aux essais (« Poe critique »), notes et bibliographie de Claude Richard, professeur de littérature anglaise à l'université Paul-Valéry Montpellier III, introduction aux poèmes (« Poète irrévocablement? ») de Robert Kopp, professeur à l'université de Bâle. , traduction et appareil critique d'Alain Jaubert. , édition établie par Jean-Pierre Naugrette, avec la collaboration de Michael Edwards, François Gallix (Autres Histoires non traduites par Baudelaire), France Jaigu et James Lawler, avec une nouvelle traduction de l'ensemble des poèmes de Poe. , traduction de Cécil Georges-Bazile et Laurence Piccinin. , traduction de Lionel Menasché. , préface, traduction, appareil de notes et bibliographie des traductions en français de Johanne Le Ray et Pierre Bondil, chronologie de l'éditeur. Tome 1 de l'édition chronologique intégrale des histoires de Poe.Le Chat noir et autres histoires, Gallmeister, 2019, 368 p., traduction, appareil de notes, postface et bibliographie des traductions en français de Johanne Le Ray et Pierre Bondil, chronologie de l'éditeur. Tome 2 de l'édition chronologique intégrale des histoires de Poe.Le Sphinx et autres histoires, Gallmeister, 2020, 388 p., traduction, appareil de notes, postface et bibliographie des traductions en français de Johanne Le Ray et Pierre Bondil, chronologie de l'éditeur. Tome 3 de l'édition chronologique intégrale des histoires de Poe. , tome I (1831-1839), 432 p. ; tome II (1840-1844), 384 p. ; tome III (1844-1849), 432 p. ; préface, traduction et appareil critique de Christian Garcin et Thierry Gillybœuf. Études en langue française . (première édition dans la Revue de Paris en mars-avril 1852 ; édition moderne établie par Claude Richard : ). . . . . Actes du colloque tenu à l'université du Québec les 15 et 16 octobre 1999. . . Maryse Ducreu-Petit, Edgar Allan Poe ou Le Livre des Bords; Presses Universitaires de Lille, 1995, 262 p. . . . . . . . . . . . . . (rééd. sous le titre : , et ). Daniel Bastié, Edgard Allan Poe revisité par le cinéma de Roger Corman'', Bruxelles, Éditions Ménadès, 2020, 283 p. Études en langue anglaise . . . . . . . . . . . . . . . . . . . . . . . . . . , vol. 1 et Notes et références Voir aussi Articles connexes Liens externes Nouvelles d'Edgar Allan Poe en version audio gratuite Poescriptum Choix ouvert, en traduction française, de textes courts d'Edgar Poe, inédits ou oubliés, et tirés le plus souvent de son œuvre critique Quelques œuvres de Poe sur In Libro Veritas Œuvres de Poe sur One More Library Site officiel de la Société Edgar Allan Poe de Baltimore comportant d'importants éléments sur la vie et l'œuvre d'Edgar Poe Musée Edgar Allan Poe à Richmond Site officiel du Edgar Allan Poe National Historic Site Biographie, images et textes de Poe Collection de documents originaux d'Edgar Poe et ses proches Edgar Allan Poe, son œuvre en version audio Naissance en janvier 1809 Naissance à Boston Étudiant de l'université de Virginie Élève de l'Académie militaire de West Point Écrivain américain de fantastique Écrivain américain d'horreur Écrivain américain de science-fiction Écrivain romantique Nouvelliste américain du XIXe siècle Poète américain du XIXe siècle Romancier américain du XIXe siècle Essayiste américain du XIXe siècle Dramaturge américain du XIXe siècle Critique littéraire américain Journaliste américain du XIXe siècle Patron de presse du XIXe siècle Auteur américain de roman policier Auteur de littérature maritime Écrivain ayant évoqué les chats dans son œuvre Satiriste Décès en octobre 1849 Personnalité inhumée dans le Maryland Décès à Baltimore Décès à 40 ans Mort non élucidée Auteur de contes Personnalité américaine née d'un parent britannique Éponyme d'un objet céleste