0% ont trouvé ce document utile (0 vote)
22 vues5 pages

TD2 Résumé Réchauffement Clim

Le document examine les certitudes et incertitudes des modèles climatiques face au réchauffement climatique, en soulignant que les prévisions passées se réalisent malgré les scepticismes. Il explique que les modèles climatiques reposent sur des lois physiques fondamentales et non sur des extrapolations des tendances passées, tout en abordant l'impact des gaz à effet de serre et les effets de l'action humaine sur le climat. Enfin, il met en lumière les améliorations des modèles au fil des décennies et leur capacité à reproduire des scénarios climatiques futurs.

Transféré par

TRAORE KANIGUE LACINA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
22 vues5 pages

TD2 Résumé Réchauffement Clim

Le document examine les certitudes et incertitudes des modèles climatiques face au réchauffement climatique, en soulignant que les prévisions passées se réalisent malgré les scepticismes. Il explique que les modèles climatiques reposent sur des lois physiques fondamentales et non sur des extrapolations des tendances passées, tout en abordant l'impact des gaz à effet de serre et les effets de l'action humaine sur le climat. Enfin, il met en lumière les améliorations des modèles au fil des décennies et leur capacité à reproduire des scénarios climatiques futurs.

Transféré par

TRAORE KANIGUE LACINA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Sur le thème du réchauffement climatique

« Certitudes et incertitudes des modèles»


Hervé LE TREUT - Revue pour la science, mars 2007

Malgré les sceptiques, les prévisions faites il y a 20 ans sont en train de se réaliser. Mais notre futur
dépendra de l'évolution des sociétés et des économies.

Comment la science peut-elle prédire le climat du siècle prochain, alarmer le monde entier et
préconiser des restrictions, alors qu'elle ne sait même pas prévoir le temps qu'II fera la semaine
prochaine ? Ce questionnement, qui conduit à relativiser les alertes de la communauté scientifique,
résulte largement d'une Incompréhension de la démarche qui sous-tend la conception des modèles
climatiques.
e
Dans l'esprit de beaucoup, par exemple, les modèles qui simulent le climat à l'échelle du XXl Siècle
ne font qu'étendre vers le futur les tendances climatiques du passé récent, alors qu'il n'en est rien.

Cette méprise a entraîné des discussions sur le rôle possible du Soleil dans l'évolution récente du climat,
présenté comme une alternative au rôle des gaz à effet de serre. Ces débats sont « hors sujet» par rapport aux
enjeux de l'évolution future du climat. À la décharge de ces sceptiques, souvent de bonne foi, la modélisation du
système climatique peut sembler au premier abord un objectif impossible. Les « modèles» sont des algorithmes
informatiques destinés à recréer la complexité du monde réel. Ils reposent, non pas sur des outils statistiques
extrapolant les données climatiques des dernières décennies, mais sur des lois fondamentales de la physique ou
de la mécanique.
Certes, le monde réel est complexe, ce que confirment les lois de la mécanique des fluides : celles-ci sont non
linéaires (les effets ne sont pas toujours proportionnels aux causes) et font intervenir toutes les échelles spatiales
et temporelles. C'est pourquoi la circulation atmosphérique n'est pas prévisible de manière déterministe au-delà
de quelques jours : aux petites échelles et sur des temps courts, les effets chaotiques sont prépondérants. Le
climat global en revanche est déterminé par des circulations à grande échelle, qui, elles, sont en partie
prévisibles.

Les circulations à grande échelle


La planète est constituée de fluides, comme "atmosphère et les océans, et de solides, comme les glaciers ou les
sols continentaux, solides qui « coulent» et se déplacent sur de longues échelles de temps. Ces divers milieux
échangent de la matière, de l'énergie ou de la quantité de mouvement au travers de processus physiques,
chimiques ou biologiques : ils constituent ainsi ce que l'on appelle le système climatique.
Notons que c'est "atmosphère, et en particulier les propriétés radiatives de certains gaz de sa composition, qui
maintient une température clémente à la surface de la Terre. Sans l'atmosphère, la Terre serait froide et aride'
que l'on songe à Mars. Si l'atmosphère n'était composée que d'oxygène et d'azote, la température de la planète
ne serait que de - 18°C en moyenne. Quelques gaz nous sauvent de ces températures glaciaires en absorbant le
rayonnement réfléchi par le sol, l'empêchant ainsi de repartir dans l’espace : c'est ce qu'on appelle l'effet de
serre, par analogie avec le toit transparent d'une serre de jardinier. La vapeur d'eau (représentant deux millièmes
de la masse de "atmosphère), le dioxyde de carbone (près de dix fois moins), quelques gaz présents à teneur
plus faible encore (l'ozone, le méthane) et les nuages produisent un réchauffement, naturel et bénéfique, qui
conduit la température de surface à sa valeur actuelle de 15°(, SI la teneur en gaz carbonique de l'atmosphère
était bien supérieure, la température à la surface de la Terre serait encore plus élevée: que l'on songe à Vénus.
À cause de la forme sphérique de la planète, ce réchauffement n'est pas uniforme. Les régions situées entre les
tropiques reçoivent un rayonnement direct du Soleil, qui les échauffe efficacement, tandis qu'aux pôles,
l'incidence du rayonnement selon un angle élevé a pour effet de réduire l'énergie reçue par Unité de surface. Il en
résulte une différence de température entre les pôles et l'équateur, qu'une circulation globale de l'atmosphère et
des océans contribue à niveler. Les équations de la mécanique des fluides montrent que l'écoulement doit
s'organiser à l'échelle de milliers de kilomètres pour "atmosphère, de centaines de kilomètres pour l'océan.
De grandes cellules convectives, dites cellules de Hadley, prennent naissance aux basses latitudes : l'air chaud
monte près de l'équateur, déterminant des zones de pluie intense, et un air asséché redescend à des milliers de
kilomètres de là, dans les régions subtropicales, déterminant au contraire d'immenses zones désertiques. Ces
mouvements de convection sont conditionnés par une stratification verticale de l’atmosphère : les couches de
surface sont chaudes et humides, et les couches plus hautes, au-delà de quelques kilomètres d'altitude, sont plus
froides et beaucoup plus sèches. Une Circulation convective à grande échelle existe aussi dans l'océan, où l'eau
est plus froide au fond qu'en surface (voir Le Gulf Stream et le climat, par B. Voituriez, dans ce dossier).
La rotation de la Terre affecte par ailleurs les écoulements au travers des forces de Coriolis : elle force la zone de
descente de l'air vers 30 degrés de latitude Nord et Sud, ce qui fixe la ceinture des grands déserts, et elle
détermine l'étendue des anticyclones et des dépressions. Enfin l'atmosphère et l'océan sont canalisés et affectés
par le relief sur lequel ils coulent : les grandes chaines de montagnes pour la première, et le dessin des côtes
pour le second.
En principe, les équations de la physique décrivent les grands mouvements des fluides. Dès la fin du XVIIe et le
début du XVIIIe siècle, les physiciens britanniques Edmund Halley et George Hadley (l'inventeur des cellules du
même nom) ont décrit la circulation atmosphérique au-dessus des tropiques. Mais la complexité des équations,
leur non-linéarité, ont longtemps limité l'ampleur de ce travail.

Le climat calculé

En 1922, une vingtaine d'années avant l'invention de l'ordinateur, le Britannique Lewis Fry Richardson tenta, sans
succès, de résoudre les équations de la circulation atmosphérique aux nœuds d'un réseau - qui peut aussi être
un réseau d’observation : c'est la première anticipation de modèles numériques. De fait, les modèles numériques
appliqués à la météorologie ont vu le jour dès que les premiers ordinateurs ont été disponibles pour des usages
civils, après la Seconde Guerre mondiale.
Dans les années 1960 et 1970, les modèles ont fourni des représentations de l’atmosphère au réalisme toujours
croissant. Puis cela a été le tour des océans dans les années 1980 et 1990, et enfin, durant la dernière décennie,
sont apparus des modèles de couplage des deux, avec des modèles de sol et de glace. Ces modèles comportent
les équations du mouvement, donc celles de la mécanique des fluides, et les équations des échanges d'énergie,
qui surviennent lors de l'absorption ou la réflexion de rayonnement solaire, de l'émission terrestre de
rayonnement infrarouge, du cycle de l'eau, etc. Le modélisateur crée ainsi une planète numérique, comparable à
la planète réelle, sur laquelle il réalise des expérimentations plus rapides que celles que nous conduisons dans le
monde réel, par exemple en augmentant les gaz à effet de serre ou en modifiant l'usage des sols.
Que des principes physiques forts imposent à l'atmosphère ou à l'océan une structuration à grande échelle a
rendu la modélisation possible dès l'origine, quand seuls étaient encore disponibles des ordinateurs peu
puissants. Les modèles globaux ont d'abord été développés sur des grilles dont le pas était de quelques
centaines de kilomètres horizontalement (un peu mieux pour les modèles océaniques), et de quelques centaines
de mètres verticalement. Ces résolutions se sont révélées suffisantes pour atteindre un premier niveau de
réalisme, dans l'atmosphère en particulier, où l'organisation de l'écoulement à grande échelle est plus nette. Le
gain en puissance de calcul de la dernière décennie a été surtout utilisé pour augmenter la durée des simulations
climatiques, plutôt que pour en améliorer la résolution géographique.
Au contraire, les modèles utilisés pour la prévision du temps à quelques jours doivent résoudre finement certains
écoulements orographiques, tels que le mistral : la démarche n'est pas la même que pour le climat. Par ailleurs,
le météorologue part d'un état initial observé aussi réaliste que possible et calcule un écoulement qu'il espère le
plus proche possible de l'écoulement observé, le plus longtemps possible, c'est-à-dire au plus une dizaine de
jours. Le climatologue, quant à lui, poursuit l'intégration dans le temps des équations atmosphériques ou du
modèle couplé océan-atmosphère. Ce faisant, il oublie les conditions météorologiques initiales (mais pas les
conditions océaniques initiales, ce qui pose un problème, car on les connait mal). Il calcule alors une nouvelle
statistique d'événements météorologiques et océaniques, caractérisée par des moyennes, des variabilités, et
"occurrence de situations extrêmes aux échelles intra saisonnières, saisonnières ou interannuelles.

Aux petites échelles


Pour évaluer la vraisemblance d'un modèle, on doit analyser l'effet respectif des circulations à grande échelle et
des turbulences de petite échelle. Cette analyse a fait l'objet de plusieurs milliers d'études au cours des dernières
décennies. Nous avons évoqué le rôle de la stratification de l'atmosphère et de l'océan mondial. Or, ces deux
couches de fluides sont très minces : l'essentiel de la masse de l'atmosphère est concentrée dans les 20
premiers kilomètres, alors que la profondeur moyenne de l'océan est inférieure à quatre kilomètres. Par
conséquent, les circulations telles que la formation des cumulo-nimbus dans "atmosphère ou les grandes
cheminées de formation d'eau profonde dans l'océan s'organisent sur plusieurs kilomètres, voire sur plusieurs
dizaines de mètres.

La modélisation du climat, depuis plus de 20 ans, s'attache à représenter l'effet statistique des petites échelles
sur l'écoulement de grande échelle : c'est ce qu'on appelle la « paramétrisation» de ces échelles. On suppose
néanmoins que les propriétés statistiques des petites échelles sont déterminables à partir des conditions
atmosphériques ou océaniques à grande échelle. Cette hypothèse se révèle bien vérifiée a posteriori, mais,
malgré tout, d'une manière imparfaite, qui constitue une limitation intrinsèque des modèles.
La paramétrisation nécessite l'observation détaillée des systèmes représentés. Celle-ci se fait par satellites, mais
aussi par des campagnes d'observations de systèmes nuageux (stratus, cirrus, nuages convectifs de type
cumulo-nimbus, comme lors de la récente campagne AMMA en Afrique de l'Ouest) ou encore par des études des
effets du sol (végétation, relief, glace ou neige). De même, des campagnes en mer ont révélé les conditions de
mélange vertical dans les océans. La paramétrisation s'appuie en outre sur des théories et sur les résultats de
modèles. On assiste ainsi à un va-et-vient entre les modèles et les observations.

Après ces 20 ans de développement des modèles, la climatologie simulée s'est beaucoup rapprochée de la
climatologie observée. Les modèles reproduisent non seulement des interactions complexes, telles que
l'oscillation tropicale El Nino, mais aussi des climats très différents, comme le dernier maximum glaciaire d'il y a
21 000 ans ou "Holocène il y a 6 000 ans.

Les modèles physiques que nous venons de décrire ont été utilisés dès la fin des années 1980 pour établir les
premiers scénarios de changement climatique en réponse à l'augmentation des gaz à effet de serre.

L'action humaine

L'action humaine sur les climats prend diverses formes, de la modification des propriétés du sol à l'émission de
poussières, mais l'effet dominant est celui des gaz à effet de serre, en partie parce que certains d'entre eux ont
une durée atmosphérique très grande. Le « temps de résidence» du dioxyde de carbone (C02) dans l'atmosphère
(ou plus exactement, le temps de retour à un équilibre si l'on cesse d'en émettre) est de l'ordre du siècle. Or, on
émet du dioxyde de carbone depuis le début de l'ère Industrielle (XlXe siècle) et à un rythme accru depuis les
années 1950. Le dioxyde de carbone s'accumule donc dans l'atmosphère et sa croissance est exponentielle. Un
gaz comme le méthane a une durée de vie de l'ordre de la décennie, certains fréons stables de l'ordre du millier
d'années.

En 1990, le premier rapport du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC, ou en
anglais IPCC) a présenté les résultats de la première génération d'études réalisées à partir de modèles
climatiques. Les tendances publiées restent d’actualité : un réchauffement global de quelques degrés (de deux à
cinq environ pour un doublement du (02).

Ce réchauffement est plus marqué sur les continents et sur les régions de hautes latitudes, et peut entraîner
pendant l'été une fonte presque totale de la banquise en Arctique. Il s'accompagne d'une modification importante
des précipitations, allant dans le sens d'une amplification des tendances actuelles : plus de pluie dans les régions
déjà pluvieuses, plus de risques de sécheresse dans les régions déjà semi-arides.

Sur la base de ces résultats, l'alerte a été donnée, en particulier lors du deuxième Sommet de la Terre qui s'est
tenu à Rio de Janeiro, au Brésil, du 3 au 14 juin 1992. Les simulations n'ont pas été contredites par la suite,
malgré deux décennies de travail et d'amélioration des modèles. Ce constate prouve que les principes
fondamentaux contenus dans la première génération des modèles restent les processus dominants.

L'amélioration des modèles


On a reproché à cette première génération de modèles climatiques de trop simplifier le rôle de la vapeur d'eau,
des nuages, mais aussi l'interaction avec le sol, continental ou océanique. La vapeur d'eau étant un gaz à effet
de serre, elle accentue le réchauffement : en effet, l'augmentation de la température élève le seuil de saturation
en vapeur d'eau de l'atmosphère, ce qui augmente encore 'effet de serre. Lorsque l'air est loin de son niveau de
saturation, cependant, la température n'influe plus sur la vapeur d'eau. Des critiques légitimes ont porté sur la
capacité des modèles à discriminer ces différentes situations : nombre d'indices et d'études attestent désormais
de leur pertinence.
Les nuages constituent un facteur d'incertitude majeur : les mécanismes de leur formation sont complexes, leur
impact radiatif dépend de nombreux paramètres (température, altitude, taille des gouttes et des cristaux, contenu
en eau) et ils évoluent sous l'effet du changement du climat. Des satellites dédiés tels que CLOUDSAT,
CALIPSO ou PARASOL viennent d'être lancés, et de nombreuses études ont eu lieu depuis 20 ans, dont
certaines sur des ordinateurs colossaux, comme le Earth Simulator japonais, avec une résolution spatiale très
fine. Ces études réduiront peut-être l'incertitude qui affecte encore les modèles.
En outre, les premières simulations présentées par le GIEC en 1990 anticipaient les résultats observés dans le
monde réel depuis cette date. Du fait de l'inertie thermique des océans, les premiers effets importants du
réchauffement apparaissent plusieurs décennies après l'émission proprement dite de dioxyde de carbone. Lors
du rapport du GIEC 1990, les paramètres observés de l'évolution climatique indiquaient une tendance au
réchauffement, mais restaient du même ordre de grandeur que les fluctuations naturelles du climat (voir la figure
4). Depuis cette date, la situation s'est clarifiée : l'augmentation des températures est plus nette, difficilement
explicable par des mécanismes autres que les gaz à effet de serre, et sa répartition globale est en accord général
avec les modèles.
La fonte des glaces arctiques, celle des glaciers de montagne, le recul de l'enneigement, les variations des dates
de floraisons, le relèvement accéléré du niveau de la mer, l'évolution de la vapeur d'eau dans l'atmosphère, un
ensemble d'indices impressionnant montre que les scénarios mis en avant par les modèles il ya près de 20 ans
sont en passe de se réaliser. Ce sont bien les faits observés qui sont en accord avec les prévisions faites
antérieurement sur la base de principes physiques, et non le contraire.
Depuis 20 ans, les modèles ont encore évolué, et l'appréhension des évolutions climatiques futures s'est affinée.
La croissance considérable des moyens de calcul a permis plusieurs progrès successifs. Le premier concerne le
couplage des modèles atmosphériques et océaniques, qui avaient été développés séparément. En association
avec des modèles de la banquise, ils constituent désormais un modèle unique des enveloppes fluides de la
planète. Les travaux synthétisés en 1990 utilisaient, à une exception près, des représentations simplifiées de
l'océan. L'usage des modèles couplés était devenu fréquent lors du GIEC 1995, et la règle lors du rapport GIEC
2001.
Outre les synthèses qu'effectue le GIEC tous les cinq ans environ, les modélisateurs du climat ont aussi
développé des outils plus réguliers de suivi et de comparaison des modèles, outils placés sous l'égide du
Programme de recherche climatique mondiale, de l'Organisation météorologique mondiale ;
Un autre progrès est la prise en compte des processus chimiques et biologiques qui contrôlent la teneur
atmosphérique en CO2, en méthane, ou en aérosols. Désormais, les « modèles du système Terre» dépassent les
simples processus physiques. Cette évolution est organisée au niveau international dans le cadre de
programmes tels que le PIGB (Programme international géosphère biosphère), placé sous la tutelle principale de
l'ICSU (Conseil international pour la science). Cette démarche a fait une timide apparition dans le rapport du
GIEC 2001, et sera bien plus présente dans e rapport du GIEC 2007.
Cette évolution détermine un changement qualitatif dans la nature des modèles. Par exemple, l'évolution sous
l'effet du réchauffement climatique des forêts tropicales, comme en Amazonie, dépend de la compétition entre
des centaines d'espèces végétales différentes. La modélisation ne peut plus alors s'appuyer sur des équations
fondamentales, mais devient nécessairement empirique.
L'exemple n'est pas choisi au hasard : nous savons qu'une moitié seulement du dioxyde de carbone émis dans
l’atmosphère y reste. L'autre moitié est reprise par la végétation des continents et par les océans, qui agissent
ainsi comme un modérateur important des évolutions climatiques. Dans un climat plus chaud toutefois, la
modération laisserait place à des réchauffements plus importants. Cet effet initialement mis en évidence par des
simulations du Hadley Center, au Royaume-Uni, et l'Institut Pierre-Simon Laplace, en France, est désormais
confirmé par un nombre plus important de modèles, en particulier dans le cadre de la préparation du rapport
GIEC 2007.
L'océan, la végétation et les grands glaciers confèrent une inertie considérable au système climatique. Par
conséquent, certaines évolutions apparaissent d'ores et déjà irréversibles, indépendamment des éventuelles
réductions de gaz à effet de serre. Par exemple, le relèvement du niveau de la mer, qui dépend à la fois de la
dilatation de l'océan, donc de son réchauffement en profondeur, et de la fonte des grands glaciers, de montagne
ou polaires, semble difficile à ralentir sur le siècle à venir.
Paradoxalement ces milieux peuvent aussi être la cause « d'effet de seuils» au-delà duquel le danger peut
augmenter. Par exemple, la canicule de 2003 a provoqué le dépassement de certains seuils, favorisant la
mortalité de la végétation. Il est possible que la disparition des zones fragiles de formation d'eau profonde en
Atlantique Nord décale le Gulf Stream vers le Sud de manière brutale, avec des conséquences considérables
pour la vie dans l'océan.

Les scénarios socio-économiques


La première génération de modèles avait pris pour hypothèse un doublement du dioxyde de carbone. Pour
déterminer la nature et l'ampleur des mesures à prendre, on doit quantifier plus finement les émissions de gaz à
effet de serre. Pour cela, il faut prendre en compte les activités humaines et anticiper les évolutions possibles de
la démographie, de l'économie, de la sensibilité aux aléas environnementaux, etc., qui affecteront ces émissions.
Le GIEC a ainsi proposé aux groupes de modélisation des scénarios socio-économiques plausibles, se situant
hors du contexte des négociations associées à la Convention climat et au protocole de Kyoto, et offrant un large
spectre, allant d'une stabilisation des émissions au niveau de 1990 en 2100, à une multiplication par 3.
Ces scénarios (dits SRES : Second Report on Emission Scenarios) ont été utilisés pour les simulations qui ont
contribué au rapport 2001 et qui contribueront au rapport 2007 du GIEC. Sur cette base, le GIEC 2001 prévoyait
un réchauffement en 2100 dans une fourchette allant d'un peu moins de 2°C à près de 6°C. Cette fourchette
traduit à la fois les incertitudes de la modélisation, l'imprévisibilité partielle du système climatique, mais aussi
l'incapacité à prévoir l'évolution socio-économique. Elle correspond dans tous les cas à des chiffres importants :
la variation de température globale qui nous sépare d'un âge glaciaire est de 5 à 6°C environ, et le « seuil de
danger» correspondant à une accélération possible des évolutions climatiques est situé aux alentours de 2°C.
Ces résultats du GIEC 2001 ne prennent pas en compte l'effet additionnel qui pourrait résulter d'une modification
du couvert végétal, avec un largage vers l'atmosphère du dioxyde de carbone qu'elle contient. Par ailleurs, un
ensemble plus riche de simulations montre que des situations plus ou moins extrêmes peuvent se produire : une
part d'imprévisibilité affecte le climat futur et, à ce jeu, il est possible de tirer un « bon» ou un « mauvais» numéro.
D'autres rétroactions existent, qui ne sont pas encore prises en compte par les modèles : les émissions de
méthane par la fonte du pergélisol, par exemple. A tous ces égards, la fourchette de valeurs proposées par le
GIEC 2001 est encore restrictive : des réchauffements plus importants sont envisageables.
Nous sommes donc dans une situation où les modèles permettent d'appréhender des facteurs de risque, mais
pas de fournir une description détaillée de ce qui peut se passer. A mesure qu'on accumulera des données
satellitaires récentes et que le réchauffement s'intensifiera, notre capacité à en comprendre les mécanismes et tl
anticiper la suite s'améliorera. Mais il faudra de toute manière se résoudre à prendre des mesures sur la seule
base des connaissances actuelles et du risque qu'elles dessinent.
Les perspectives tracées par les modèles font du problème climatique l'un des grands enjeux du à venir, aux
côtés des problèmes d'eau, de biodiversité, de santé, d'énergie, de rapports entre les pays du Nord et du Sud.
Une action immédiate est nécessaire. Elle doit bien sur s'appuyer sur les données de la science, mais aussi se
situer dans le cadre plus large d'un débat permanent et nécessaire, démocratique et citoyen.
Hervé Le Treut dirige le Laboratoire de météorologie dynamique de l'Ecole polytechnique, l'Ecole normale
supérieure et de l'Université Paris 6 et du CNRS.

Bibliographie :
Edouard Bard (sous la direction de), L'homme face au climat, Odile Jacob, 2006.
Didier Haugkustaine, Jean Jouzel et Hervé Le Treut, Climat : chronique d'un bouleversement annoncé, Le
Pommier, 2004.
Jean-Marc Jancovici, L'avenir climatique : quel temps ferons-nous ?, Seuil. 2002.
Hervé Le Treut et Jean-Marc Jancovici, L'effet de serre : allons-nous changer le climat ?, Flammarion,
Jean Jouzel et Anne Debroise, Le climat. jeu dangereux, Dunod, 2004.

(3702 mots)

Vous aimerez peut-être aussi