Overblog
Suivre ce blog Administration + Créer mon blog
24 juillet 2011 7 24 /07 /juillet /2011 13:05

Suite au post précédent, je vais donner quelques indications supplémentaires sur les problèmes posés selon moi par la justification des modèles climatiques. Je reprends la figure du rapport du GIEC présenté dans le post précédent, et comparant le résultat des simulations avec ou sans influence anthropique :

 

fig-9-5

 

et en particulier, quelque chose que je n'ai pas encore mentionné, qui se trouve dans le texte du chapitre du GIEC présentant cette figure :

"The simulated global mean temperature anomalies in (b) are from 19 simulations produced by five models with natural forcings only. The multi-model ensemble mean is shown as a thick blue curve and individual simulations are shown as thin blue curves. Simulations are selected that do not exhibit excessive drift in their control simulations (no more than 0.2°C per century). "

traduction 

"Les anomalies présentées dans les températures globales moyennes simulées en (b) sont tirées de 19 simulations produites par cinq modèles avec des forçages naturels seulement. La moyenne de l'ensemble des multi-modèles est montrée par la courbe épaisse bleue, et les simulations individuelles comme des courbes bleues fines. Les simulations sont sélectionnées pour qu'elles ne montrent pas de dérives excessives sur leur simulations de contrôle (pas plus de 0,2°C par siècle)"

Pas de dérive excessive sur les simulations de contrôle ... ? 

c'est quoi cette histoire de dérive ?

 

Cette histoire de dérive, c'est quelque chose qui a toujours empoisonné les modèles climatiques. Les modèles climatiques résolvent les équations de la physique en traitant des flux d'énergie incidents et émis par la Terre, et des transferts d'énergie à sa surface On peut supposer que les équations de la physique sont suffisantes pour avoir une description précise du système. Cependant, outre le fait que les équations sont nécessairement simplifiées et ne représentent qu'approximativement la réalité,  il y a toujours un problème quand on fait des simulations.  Il faut choisir est l'état qu'on met au départ de la simulation, pour démarrer le calcul, ce qu'on appelle les "conditions initiales". Ce qui suppose de bien connaitre l'état de la Terre au moment où on démarre le calcul, c'est à dire, ici, en 1900. C'est bien évidemment impossible.

 

En réalité, le problème n'est pas très important pour l'atmosphère, car personne n'a prétendu simuler l'état exact du temps qu'il fait à chaque moment, ou même l'état de chaque année. On comprend bien que l'état exact de la terre est fluctuant et que ce n'est qu'un état statistique qu'on va calculer, qui ne dépend que des flux d'énergie qu'on y met , mais pas de l'état initial. L'atmosphère perd très vite la mémoire des conditions initiales, en quelques semaines (ce qui rend justement les prédictions météos si difficiles et même impossibles après ce stade). en revanche, les conditions moyennes sont bien déterminées. C'est l'argument présenté par les climatologues pour contredire l'argument parfois hativement présenté chez les sceptiques : vous n'êtes même pas capable de déterminer le temps qu'il va faire dans un mois et vous prétendez le faire dans plusieurs décennies ! il est tout à fait exact que les fluctuations peuvent avoir de l'importance sur le court terme, mais pas sur le long terme. PEUVENT avoir , à une condition : c'est que le système n'ait justement pas des comportements qui peuvent varier sur le long terme.

 

Or , très malheureusement, ce n'est pas vrai pour le climat, et la raison en est la présence et l'importance des océans sur la Terre. En effet, les transferts d'énergie à la surface de la Terre sont gouvernés par une interaction complexe entre atmosphère et océans, et ces derniers transportent une quantité d'énergie considérable des régions équatoriales, chauffées au maximum par le Soleil, et les régions polaires. Une caractéristique très importante des océans est la circulation thermohaline, qui est due à une interaction complexe entre la salinité et la température de l'eau de mer. Basiquement, l'eau chaude et salée arrivant dans les régions polaires se refroidit, devient plus dense, et se refroidit tout en se diluant. Elle plonge donc dans les profondeurs en devenant moins salée, puis se retrouve vers les régions équatoriales où en se réchauffant au contact thermique des eaux superficielles, elle devient moins dense à cause de sa salinité plus faible et remonte à la surface. Le circuit exact est compliqué et résulte du couplage entre plusieurs bassins océaniques et donc de la forme exact des continents et des océans sur la Terre. L'ensemble du circuit est souvent décrit par le joli terme de "tapis roulant océanique". 

http://www.pik-potsdam.de/~stefan/material/conveyor2.jpg

Ce qui est important, c'est le temps caractéristique que les eaux mettent à faire un tour complet : environ 1000 ans. C'est un temps très long par rapport à celui de l'atmosphère, et il se retrouve dans les simulations climatiques. Contrairement à l'atmosphère, l'état de l'océan est inconnu et ne relaxe pas rapidement vers un état moyen. Si il est mal choisi au départ, il mettra des siècles ou des millénaires à se stabiliser. Ceci se retrouve sur les modèles numériques : sans contrainte particulière, une initialisation quelconque produit une "dérive" qui peut se faire sur des siècles et sur plusieurs dixièmes de degrés, voire plusieurs degrés. 

 

Il faut bien comprendre que les transferts d'énergie entre latitudes sont fondamentaux et ont un impact important sur la température superficielle. Nous avons illustré en introduction l'importance qu'avaient les hypothèse sur la conduction thermique de la Terre pour calculer sa température moyenne, meme en fixant l'insolation. Au pire, le résultat peut varier de 100 °C ! bien sûr la Terre n'est ni parfaitement conductrice, ni parfaitement isolante, mais justement les océans déterminent en grande partie sa "conduction thermique", et toute variation de cette circulation peut facilement entrainer des variations mesurables de la température moyenne.

 

C'est très gênant, parce que ça veut dire que le climat se met à varier tout seul sans qu'on ait rien changé aux conditions d'eclairement et aux forçages ! les climatologues considèrent majoritairement que ces dérives sont artificielles, "spurieuses", et ne sont qu'un artefact des simulations numériques, et doivent être "éliminées". Pour cela, ils font des simulations de controle sans rien changer aux conditions externes (Soleil, volcans, forçages anthropiques...), et sélectionnent les conditions qui dérivent le moins possible. Il s'agit réellement d'une sélection sur un critère a priori. Et ensuite, à partir de ces solutions, elles rajoutent des variations de forçage et calculent la variation de température correspondante. 

 

Que dit donc la courbe bleue ? elle dit en substance : si on suppose qu'il n'y a pas de variation spontanée de la température, alors les variations de forçage naturels identifiés (Soleil et volcans essentiellement) ne peuvent pas expliquer la variation observée de température. Une telle méthodologie ne peut évidemment pas prouver qu'il n'y a pas de variation spontanée. Très curieusement cependant, les résultats des modèles ont souvent été présentés comme une preuve de l'absence de variabilité sur le long terme, par exemple ici

 

http://www.skepticalscience.com/pics/SwansonTsonis.png

avec ce commentaire :

"As you can see, over periods of a few decades, modeled internal variability does not cause surface temperatures to change by more than 0.3°C, and over the entire 20th Century, its transient warming and cooling influences tend to average out, and internal variability does not cause a long-term temperature trend."

"Comme vous pouvez voir, sur des périodes de plusieurs décennies, la variabilité interne modélisée ne cause pas des changement de température supérieurs à 0,3°C, et sur le l'ensemble du XXe siecle, les chauffages et refroidissement transitoires tendent à se moyenner et la variabilité interne ne cause pas de tendance sur le long terme".

Cette conclusion est à mon avis totalement erronée, étant donné que ces simulations ont été sélectionnées pour ne pas montrer ces dérives, il est totalement incorrect d'en deduire quoi que ce soit. Il est faux de dire que c'est un trait générique des modèles de ne pas montrer ces dérives, bien au contraire : c'est un trait générique des modèles de les montrer, et il faut faire des acrobaties et des sélections soigneuses pour les éliminer. 

Mais y a-t-il une raison précise de penser qu'il est effectivement totalement impossible que le climat puisse varier spontanément à l'échelle du siècle, sans variation de forçage ? sauf erreur, ça n'est clairement expliqué nulle part dans les travaux des climatologues, et il est même souvent sous-entendu que ce n'est pas le cas. En réalité, ces fluctuations océaniques ont au contraire probablement joué un rôle essentiel dans les fluctuations passées, y compris les épisodes récents (pour la géologie) du dernier millénaire, alternant optimum médiéval, petit âge glaciaire, et sortie du petit âge glaciaire depuis le XIXe siecle. Je ferai dans la suite quelques considérations générales sur la variabilité spontanée des systèmes complexes. 

Partager cet article
Repost0
17 juillet 2011 7 17 /07 /juillet /2011 07:45

Comme on l'a vu dans le post précédent, la justification de la croyance en l'assertion sur l'influence anthropique prépondérante dans le RC repose essentiellement sur l'argument que les modèles ne peuvent pas reproduire le réchauffement moderne sans cette influence. Il est donc nécessaire de regarder d'un peu plus près la façon dont les modèles collent aux observations. Une des figures essentielles reproduite dans l'AR4 du "Working group I" (le groupe de travail chargé de l'aspect "scientifique" du climat) est celle-ci 

(figure 9-5, l'ensemble des figures et tables étant consultables ici )

fig-9-5

Cette figure représente la comparaison entre les températures instrumentales observées et les modèles, en haut, lorsque toutes les influences anthropiques et naturelles sont incluses, en bas, avec seulement les influences naturelles. Les courbes fines jaunes ou bleues sont les réalisations de différents modèles, les courbes épaisse rouges et bleues sont des moyennes des modèles.

Une figure analogue mais représentant la comparaison continent par continent est la suivante 

 

fig-9-12

Le principe est le même, les courbes roses incluent l'influence anthropique, les courbes bleues ne les incluent pas.La comparaison est spatialement plus détaillée. Les trois graphiques en bas à gauche représentent la moyenne globale (essentiellement la même information que le graphique du haut, et les deux du bas représenten la moyenne pour les terres émergées et les océans.

L'impression générale laissée par ces graphiques est que, de manière convaincante, les modèles reproduisent bien les variations naturelles de la première moitié du siècle, et mal celles de la seconde moitié, sauf si on y rajoute l'influence anthropique.

 

Cette impression visuelle doit, à mon avis, être plus soigneusement analysée. Il faut se rappeler que, comme rappelé au post précédent, le point présenté est essentiel dans le débat climatique : l'argument principal présenté par un climatologue renommé comme Phil Jones, est que les modèles ne parviennent pas à reproduire la montée de la deuxième moitié du XXe siecle sans influence anthropique. Le rapport du GIEC le confirme : "The fact that climate models are only able to reproduce observed global mean temperature changes over the 20th century when they include anthropogenic forcings, and that they fail to do so when they exclude anthropogenic forcings, is evidence for the influence of humans on global climate."

 Comme nous l'avons dit, l'argument n'est parfaitement convaincant que si on a prouvé avant que les modèles reproduisaient bien la période "préanthropique" : si ils n'arrivent pas à le faire, en effet, qu'est ce qui assure que le facteur "manquant" dans la première moitié du XXe siècle ne joue pas également dans la seconde ?

 

De la même façon qu'on peut raisonnablement supposer que Phil Jones sélectionne "le meilleur" argument, on peut également supposer que le GIEC présente "les meilleures preuves" de cet argument, et que donc, ce graphique est réellement la cheville ouvrière de l'ensemble du discours climatique. 

 

Cependant, à mon avis, ces graphiques posent un certain nombre de questions  :

1) les courbes sont des courbes d'anomalie donc, nous l'avons vu, des courbes d'écart à une moyenne de base. Pour comparer les observations et les modèles, il faut convenir d'une période commune de référence; quelle est cette période ? d'après la légende, et les indications données ici, spécifiquement à la page SM 9-5 :

"Detailed description of the procedures used to produce this figure:.... 10. Calculate anomalies relative to the 1901-1950 reference period

 For all of the data sets from Step 9, time series were re-centered relative to the mean of the 1901-1950 reference period for that time series."

 

 les courbes sont donc normalisées dans la période 1901 -1950, ce qui signifie que les modèles et les observations sont automatiquement centrés l'un sur l'autre dans la première moitié du XXe siècle. 

Cette remarque n'est pas du tout innocente : elle assure forcément déjà , par construction, un accord au moins moyen entre les courbes dans la première moitié, quel que soit le modèle utilisé et même si il est totalement faux ! en revanche elle laisse "libre" la deuxième moitié. Autrement dit, tout désaccord potentiel entre modèles et observations sera intégralement reporté sur la deuxième moitié, la première étant automatiquement centrée sur les mêmes points. C'est la procédure de calcul des anomalies qui l'assure automatiquement.

2) comme les courbes sont centrées sur la première moitié, la comparaison de leur position relative n'a pas de sens. Ce qui compte, c'est plutot leur pente , et leur variabilité. Or les pentes sont-elles bien reproduites ? en réalité, si on regarde bien la première moitié, pas tellement ! on voit que jusqu'en 1940, la températures ont monté en moyenne bien plus que les modèles ne le prévoient (on a vu que la pente des températures dans la période 1910 -1940 était pratiquement la même que maintenant). C'est assez compréhensible : si la pente moderne est expliquée par l'influence anthropique, la même pente est difficile à expliquer sans eux. On voit que les courbes instrumentales semblent partir "du bas" de l'intervalle pour arriver "en haut", puis repartent vers le bas. La seule variable de comparaison pertinente (vu le centrage), c'est à dire la pente, n'est donc pas très bien reproduite ... et l'erreur commise n'est pas négligeable par rapport à la contribution anthropique supposée dans la deuxième moitié.

3) les courbes théoriques, bien que recouvrant globalement la courbe instrumentale, ont quand même un comportement sensiblement différent dans la période 1900-1950: leur pente est plus faible, et elles continuent sans interruption jusqu'à 1963, date d'une grande éruption volcanique, celle du volcan Agung en indonésie. Cette éruption marque un net refroidissement dans les courbes théoriques. On peut remarquer cependant que si il y a bien aussi une variation vers le bas dans les courbes instrumentales, elle n'est pas vraiment supérieure aux fluctuations habituelles; a vrai dire, en ne regardant que la courbe instrumentale, la date des éruptions volcaniques (il y en a eu deux autres majeures indiquées sur le graphique, El Chichon en 1982 au Mexique, et Pinatubo en 1991 aux Philippines) n'est pas vraiment repérable ! 

Une preuve supplémentaire de ce mauvais accord entre données et modèles avant 1940 est fournie par la comparaison de la variation de températures dans un intervalle de 30 années avant chaque date (1930, 1940, 1950.. donc en fait la valeur de T(1930)-T(1900), T(1940)-T(1910), etc..... , en comparant observations (en noir) et modèles (en couleur) (figure 9-10)

 

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/fig/figure-9-10-l.png

 

 

Là encore, on observe que les modèles ont une variation sur 30 ans à peu près constante de 1930 à 1950, alors que les données varient plus au début, et moins à la fin. D'un simple point de vue statistique par rapport aux barres d'erreurs, les modèles sont pratiquement systématiquement exclus par les données. Je rappelle que la validation de la période préanthropique est très importante pour valider le raisonnement d'ensemble, car il faut pouvoir exclure toute possibilité d'une autre variation naturelle, inconnue des modèles.  

On retrouve également l'impression de surestimations des éruptions volcaniques dans une autre figure, celle donnant la variation de hauteur de la tropopause (la limite supérieure de la troposphère) en comparant modèles et observations

 

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/fig/figure-9-14-l.png 

Si la montée générale après 1970 semble bien reproduite, le détail des eruptions volcaniques semble très surestimé. Notons que la partie plate initiale jusqu'en 1950 n'existe que dans le modèles, les mesures n'existant pas encore à l'époque. Il n'est pas complètement clair si la décroissance observée au moment de l'éruption d'Agung n'a pas en réalité commencé avant, ce qui serait là encore le signe d'une variabilité naturelle supérieure à celle prédite par les modèles.

L'accord "global" semble donc en réalité un peu "bricolé" par une pente trop faible dans la période 1910-1940, et des éruptions dont l'influence semble généralement surestimée : dans l'ensemble, la rupture de pente instrumentale des années 40-50 n'apparait pas sur les modèles, en revanche les refroidissements dus aux éruptions volcaniques n'apparaissent pas clairement dans les observations.

 

4) de façon générale, l'impression d'accord vient du fait que la courbe instrumentale "serpente" dans l'intervalle des courbes de modèles. Or , c'est en réalité une chose inhabituelle que de comparer une courbe instrumentale à un ensemble de modèles disparates. Ces modèles sont obtenus avec des paramètres différents, mais également avec des hypothèses physiques différentes. Ils sont donc, d'une manière ou d'une autre, presque tous (et probablement tous) "faux". Or il est évident qu'en superposant un nombre suffisant de modèles faux, on peut recouvrir n'importe quelle courbe. Quel sens précis cela a-t-il? que valide-t-on au juste ? 

une chose est très intrigante dans le graphique : si on regarde attentivement la courbe instrumentale noire, elle zigzague très exactement dans l'intervalle des courbes jaunes en "touchant" tout juste les bords, ni plus , ni moins : elle ne sort jamais de l'intervalle des modèles , mais reste dans le couloir, en touchant soit le bord supérieur , soit le bord inférieur. Symétriquement, aucune courbe jaune ne parait "inutile" , aucune n'est totalement en dehors de cet intervalle. Pourquoi est ce que cela est suspect ? parce que l'ensemble des modèles dépendent de paramètres ajustables, et donc il est toujours possible de "couper" au plus juste en éliminant les courbes "inutiles" (jugées comme mauvaises) pour ne garder que celles qui recouvrent une courbe donnée à l'avance. Il est bien évident que ce biais est très difficile à éviter : lorsque des climatologues font un calcul et le jugent mauvais, personne ne les oblige à le publier et encore moins à le proposer pour figurer dans le rapport du GIEC ! il est vrai que les simulations finalement retenues ne "trichent" pas en étant ajustées explicitement aux données, mais elles résultent quand même d'années de mise au point et d'élimination de calculs "parasites". On ne va pas perdre des milliers d'heures d'ordinateurs très convoités à faire des calculs dont les premiers tests ont montré qu'ils étaient faux ! il y a donc une "sélection naturelle" conduisant naturellement à ne garder que les calculs "qui marchent". On a quand même l'impression que cette méthode va pouvoir "globalement marcher" en ajustant quelques paramètres. Et de fait, l'analyse de la différence entre les modèles (qui rappelons le donnent des sensibilités assez différentes les uns des autres), montre que ces différences sont essentiellement dues à l'impact différente de la nébulosité, impact très mal connu théoriquement et essentiellement ajusté " à la main" par des paramétrisations ad hoc.

 

Dans le monde des simulations, il est très bien connu que "marcher" dans un certain intervalle ne signifie nullement que toute la physique est correcte et que le modèle est parfaitement fiable ! il y a en général plein de manières de reproduire une courbe de façon "assez satisfaisante" avec des modèles faux. On trouve que j'exagère? alors écoutons ce que dit T. Wigley, un climatologue renommé, (qui a dirigé le CRU avant Phil Jones), dans un de ses mails adressés à Mike Mann, un autre climatologue renommé (auteur de la fameuse "crosse de hockey" dont nous aurons l'occasion de reparler) :

Mike,

The Figure you sent is very deceptive. As an example, historical  runs with PCM look as though they match observations -- but the match is a fluke. PCM has no indirect aerosol forcing and a low climate sensitivity -- compensating errors. In my (perhaps too harsh) view, there have been a number of dishonest presentations of model results by individual authors and by IPCC. 

 

Mike

la figure que vous avez envoyé est très trompeuse. Par exemple, des calculs historiques avec PCM (un ancien programme de simulations) paraissaient bien reproduire les observations, mais l'accord était un coup de chance. PCM n'avait pas de forçage indirect par des aérosols, et une faible sensibilité climatique - les erreurs se compensant. Dans mon optique (peut être trop sévère), il y a eu un certain nombre de présentations malhonnêtes de résultats de modèles par des auteurs individuels et par le GIEC.

 

Comme souvent dans les mails du "climategate", les climatologues, en privé, disent les choses bien plus clairement et honnêtement que ce qui en transparait dans les discours officiels. Bien sûr, tous les modélisateurs, dans tous les domaines, savent parfaitement qu'il n'est pas très difficile de reproduire plus ou moins bien des données avec des modèles différents, et donc faux. La validation est bien plus difficile, et en particulier, elle repose souvent sur le pouvoir prédictif de ces modèles. Or les courbes présentées ici ne testent absolument pas leur pouvoir prédictif, vu qu'elles ont été établies sur des données passées. Pour le peu de recul qu'on peut avoir depuis que les calculs ont été effectuées, moins de dix ans, l'évolution actuelle des températures ne plaide pas spécialement en faveur des modèles. Comme nous le verrons dans d'autres posts, beaucoup d'indicateurs semblent stagner actuellement, et en tout cas ne montrent aucun signe d'accélération, alors que toutes les projections futures exigent une accélération sensible du réchauffement dans les décennies qui viennent. 

 

Partager cet article
Repost0
12 juillet 2011 2 12 /07 /juillet /2011 07:04

Dans le post précédent, je présentais (très brièvement) les données montrant que la température moyenne avait probablement augmenté pendant le XXe siecle, tout en remarquant comme d'autres que cette montée avait commencé dès le début du siècle alors que le GIEC n'attribue à l'homme que "la majeure partie du réchauffement de la deuxième moitié du siècle". Notons que, pris à la lettre, cette assertion ne concerne que un quart du réchauffement observé (la moitié de la deuxième moitié) : le GIEC nous dit que c'est "très probable" que l'homme est responsable de 25 % du réchauffement observé - ce qui implique naturellement qu'il n'est pas impossible que les 3/4, soit 75 %, soient naturels.

A ce point , il y a une petite curiosité : on a une situation où le "signal" anthropique "garanti" est de l'ordre d'un tiers seulement d'une montée "naturelle" (il pourrait etre plus mais le GIEC ne "garantit" qu'un quart du total). Or en physique on a l'habitude de ne considérer comme certain qu'un signal excèdant DE BEAUCOUP le bruit naturel (on exige avant d'être certain d'avoir souvent  un signal cinq fois plus grand que le naturel). L'ensemble du réchauffement observé depuis la deuxième moitié n'étant qu'environ la moitié du total, on n'est certainement pas dans ce cas, on est au mieux à égalité avec le bruit naturel.

 

Si on compare avec d'autres conséquences de la civilisation industrielle, comme la consommation d'énergie, la population humaine, le nombre de voitures, etc... les variations dues à l'homme sont infiniment plus visibles et importantes : la population humaine a été multipliée par exemple par 7 en 100 ans ce qui est bien dans les critère d'un signal "bien plus important " qu'avant. Pour le réchauffement, on n'est pas du tout dans un signal de cette importance.

Qu'est ce qui permet alors au GIEC d'être aussi affirmatif que l'homme a "très probablement" causé plus de 25 % mais certainement pas 18 % ou 10 % du signal ? certainement pas l'amplitude du signal par rapport au bruit. Je vais là faire référence a une interview de Phil Jones, alors directeur démissionnaire du CRU, donnée à la BBC le 15 février 2010 , après l'affaire du climategate qui a éclaté en novembre 2009. L'interview est intéressante parce que Phil Jones était certainement dans une situation de pression morale (qu'il exprime clairement) et devait répondre à l'essentiel dans un faible volume de mots. Les questions sont directes et sans fioritures, dans le style du journalisme anglais, et, vu les circonstances, on peut supposer que Phil Jones donne les meilleures réponses dont il dispose. Il est peu probable que si il avait des arguments forts et convaincants, il se dispense de les donner. Inversement, il sait que ces propos seront scrutés à la loupe et qu'il ne peut se permettre la moindre "boulette". On peut donc raisonnablement penser que ces propos donne le coeur même, l'essentiel du discours climatique. L'interview porte sur à peu près tout les problèmes posés aux climatologues, j'en adresserai d'autres dans de futurs posts, mais je me concentre directement sur les questions relevant de l'attribution :

 

D - Do you agree that natural influences could have contributed significantly to the global warming observed from 1975-1998, and, if so, please could you specify each natural influence and express its radiative forcing over the period in Watts per square metre.

This area is slightly outside my area of expertise. When considering changes over this period we need to consider all possible factors (so human and natural influences as well as natural internal variability of the climate system). Natural influences (from volcanoes and the Sun) over this period could have contributed to the change over this period. Volcanic influences from the two large eruptions (El Chichon in 1982 and Pinatubo in 1991) would exert a negative influence. Solar influence was about flat over this period. Combining only these two natural influences, therefore, we might have expected some cooling over this period.

Traduction :

Etes vous d'accord que des influences naturelles auraient pu contribuer significativement au réchauffement observé de 1975 à 1998, et si c'est le cas, pourriez vous s'il vous plait spécifier chaque influence naturelle et exprimer son forçage radiatif dans la période considérée en Watts par mètre carré. 

Le domaine est légèrement en dehors de mon domaine d'expertise [sic]. Lorsqu'on considère les changements pendant cette période, on doit considérer tous les facteurs possibles (c'est à dire les influences humaines et naturelles, aussi bien que la variabilité naturelle du système climatique). Les influences naturelles (des volcans et du Soleil) sur cette période  pourraient avoir contribué aux variations. L'influence volcanique de deux éruptions majeures (El Chichon en 1982 et Pinatubo en 1991) auraient exercé une influence négative. L'influence solaire aurait été à peu près plate. En combinant ces deux influences naturelles , par conséquent, on se serait attendu à un léger refroidissement pendant cette période. 

.....

H - If you agree that there were similar periods of warming since 1850 to the current period, and that the MWP is under debate, what factors convince you that recent warming has been largely man-made?

The fact that we can't explain the warming from the 1950s by solar and volcanic forcing - see my answer to your question D.

 

traduction : 

H- Si vous êtes d'accord que des périodes de réchauffement similaires à l'actuelle ont eu lieu, et que le MWP [ NdT : Medieval Warm period  ou "optimum médiéval", une période chaude autour de l'an 1000 apparemment voisine de l'actuelle à laquelle une question précédente fait allusion ] est encore en débat, quels facteurs vous convainquent que le réchauffement récent est largement le fait de l'homme ?

Le fait que nous ne puissions expliquer le réchauffement depuis 1950 par des variations solaires et volcaniques - voir ma réponse à la question D. 

 

 

I - Would it be reasonable looking at the same scientific evidence to take the view that recent warming is not predominantly manmade?

No - see again my answer to D.

 

Traduction :

I- serait-il raisonnable, en regardant les mêmes faits scientifiques, d'adopter la vue que le réchauffement récent n'est pas de manière prédominante anthropique ?

Non - voir encore ma réponse à la question D.

 

J'engage le lecteur à lire soigneusement ce que répond Phil Jones, car à mon sens il exprime parfaitement l'essence du discours climatique - il donne les MEILLEURS arguments des climatologues : nous sommes convaincus que le réchauffement est anthropique, parce que nous ne savons pas l'expliquer par les autres influences connues. Il y a par ailleurs deux absences notables, deux fantômes dans le discours de Phil Jones :

D'abord il reconnait que la modélisation climatique, ce n'est pas vraiment son "domaine d'expertise". Son domaine, alors c'est quoi ? en fait,  c'est la reconstruction des températures globales, présentes et passées (le CRU est un des acteurs de la courbe de température dite "HadCRUT"). Mais il ne donne pas comme argument le fait que les températures actuelles sont bien supérieures à celles du passé, un argument assez souvent présenté mais critiqué, et auquel il n'a pas l'air d'accorder lui-même une confiance excessive. En particulier il n'écarte pas la possibilité d'un optimum médiéval comparable aux températures actuelles. 

 

Un deuxième "fantôme", est quand il déclare :"we need to consider all possible factors (so human and natural influences as well as natural internal variability of the climate system)."

Il précise bien qu'il faut aussi tenir compte de la "variabilité interne naturelle" (c'est à dire de la variation des températures qui n'est pas due aux forçages), mais oublie ensuite totalement d'en reparler : il ne dit jamais précisément comment les climatologues évaluent son importance sur un siècle, et comment ils la limitent. Il ne parle que de l'influence connue des variations de forçage naturels, Soleil et volcans. Pourquoi ne dit-il pas clairement comment on limite la variabilité interne? probablement, parce qu'il n'a pas de très bon argument pour le faire. 

Je précise que l'argument : "on est sûr qu'il y a un autre effet parce qu'on ne peut pas l'expliquer par les effets connus" est potentiellement acceptable. Je dis bien "potentiellement", parce qu'à mon sens, il n'est acceptable que si les climatologues ont prouvé qu'ils avaient parfaitement compris les variations naturelles,  et qu'il est donc incompréhensible qu'ils aient une variation inexplicable par ses variations, sans une autre cause. Une comparaison est que quand on a commencé à appliquer les lois de la mécanique céleste aux comètes, on s'est aperçu qu'elles déviaient de leur trajectoire en s'approchant du Soleil, ce qui était inexplicable par la gravitation. On en a trouvé ensuite la raison : le chauffage par le Soleil faisait évaporer la glace en surface qui faisait effet de "fusée à réaction" en agissant sur le reste de la comète. On avait donc correctement diagnostiqué la présence d'une force supplémentaire, mais c'est parce que la gravitation marchait parfaitement bien pour les grosses planètes qu'on avait pu mesurer un "écart" !  Sinon, la raison "on en est sûr parce qu'on ne peut pas l'expliquer autrement" est évidemment un peu dangereuse à manier, j'en donnerai des exemples. Pour la mettre en avant, il faut quand même être sûr qu'on a correctement compris tout ce qui se passe naturellement, et en particulier les périodes précédentes; est-ce vraiment le cas ? personnellement je n'en suis pas réellement convaincu, comme je le montrerai dans le post suivant. 

 

 

 

Partager cet article
Repost0
9 juillet 2011 6 09 /07 /juillet /2011 22:39

Dans la suite des posts sur le climat, je vais examiner quels sont les arguments présentés par les climatologues pour justifier leur conviction de la nature anthropique du réchauffement. Une des formules clé établie par le GIEC dans son rapport à destination des décideurs est la suivante 

Most of the observed increase in global average temperatures since the mid-20th century is very likely due to the observed increase in anthropogenic greenhouse gas concentrations.

 

Traduction : il est très probable que la plus grande partie de l'augmentation de la température moyenne du globe depuis le milieu du XXe siècle soit due à l'augmentation observée de la concentration en gaz à effet de serre d'origine anthropique.

 

Tout d'abord, de quel réchauffement s'agit-il ? je ne vais pas entrer ici dans l'étude détaillée de la polémique sur la façon exacte dont la température moyenne de la Terre est mesurée, qui est tout sauf simple , et  je me contenterai de reproduire les reconstructions de température telles qu'elles sont publiées par plusieurs organismes:


* le Goddard Institute for Space Studies (ou GISS) de la NASA

* la température HadCRUT reconstruite par le centre de recherche Hadley pour la recherche et la prévision climatique,  et le Climate Research Unit de Grande bretagne (l'organisme dont est issu les emails piratés lors du "climategate")

* une reconstruction par l'Université d'Alabama à Huntsville (UAH), à partir de mesures de satellites sensible au rayonnement microondes , qui ne mesurent pas exactement la température du sol mais celle issue de la basse atmosphère (en réalité à l'endroit où la vapeur d'eau devient suffisamment peu dense pour que l'atmosphère soit transparente aux micro-ondes). 

 

GISSHadcrutUAH

 

Ces courbes sont tracées à l'aide de l'outil plutot pratique fourni par le site woodfortrees . Notons que les données HadCRUT commencent dès 1850, alors que les données GISS commencent en 1880 et que les satellites ne commencent qu'en 1979.  Notons aussi que ces courbes ne donnent pas réellement la température moyenne mais ce qu'on appelle l'anomalie, c'est à dire l'écart par rapport à une moyenne. L'avantage est que l'erreur commise est bien moins grande sur l'anomalie que sur la valeur moyenne absolue : en effet, supposons que tous les points de la terre varie de 1°C. La moyenne des anomalies sera exactement de 1°C, quel que soit la répartition des stations à la surface,  même si la température moyenne globale est inconnue par manque d'un échantillonage complet à la surface de la terre. En revanche, l'anomalie calculée dépend de la période sur laquelle on évalue la "ligne de base" moyenne, qui différe un peu suivant les instruments. Pour les "recaler" j'ai retranché ( un peu "à l'oeil") 0,1 °C aux valeurs GISS et rajouté 0.2°C aux données UAH.  Globalement, les courbes se ressemblent, même si en détail mois par mois,  elle peuvent différer par plusieurs dixièmes de degré.

 

Il y a depuis quelques années des discussions homériques sur les sites climatosceptiques pour savoir si les méthodes statistiques de calcul des températures étaient correctes ou pas, et si les différents biais (en particulier celui du à l'urbanisation qui tend à "réchauffer" l'environnement des villes, et donc les stations climatiques), étaient bien corrigés. Je ne rentrerai pas dans le détail de ces batailles, mais je pense qu'on peut dire qu'il n'y a finalement jamais eu d'évidence que les courbes étaient très fortement biaisées : en revanche comme je disais différentes méthodes de calcul peuvent donner des résultats fluctuant par quelques dixièmes de degrés. Un des problèmes est par exemple que la pente trouvée par les satellites est inférieure à celle trouvée par les stations au sol, alors qu'on s'attendrait à l'inverse. Malgré tout, il apparait évident à l'oeil, et confirmé par une étude statistique, que la température a significativement monté pendant le XXe siecle. 

 

Cependant il est tout aussi évident que cette montée n'a pas été régulière. Globalement, elle s'est accélérée entre 1900 et 1940, puis a marqué un plateau prononcé jusqu'en 1970 , puis a repris sa croissance, qui semble plutot s'etre ralentie depuis 10 ans. En réalité la pente depuis 10 ans est quasiment plate, mais vu les fluctuations, cela ne montre pas de manière définitive que le réchauffement s'est arrêté (la relative stagnation depuis 10 ans est un autre sujet de bataille homérique sur les sites consacrés au climat.... nous aurons l'occasion d'y revenir). 

 

Les climatologues reconnaissent que la montée des températures n'est pas régulière, mais il attribuent ça à des mécanismes de variabilité spontanée rapide à l'échelle de quelques années (avec en particulier des oscillations océaniques du type "El Niño" très visible en 1998 en particulier, qui constitue le record de température de tous les enregistrements sauf celui du GISS.). La "doxa" climatique est cependant que ces variations s'annulent en moyenne au-delà de 30 ans, et que donc la moyenne lissée sur 30 ans est indicative des tendances à long terme.

 

Il paraitrait donc logique de représenter la pente de la courbe lissée sur 30 ans, mais curieusement, ce graphique n'est pratiquement jamais donné sur les sites de climatologie. Sur le site climate4you, très riche en données de toutes sortes (et de sensibilité plutot "sceptique"), on peut cependant voir cette courbe qui est la pente lissée sur 50 ans

 

http://www.climate4you.com/images/HadCRUT3%2050yr%20AnnualTrendSinceDecember1899.gif


 

Attention il ne s'agit plus ici de l'anomalie de température proprement dite mais de sa vitesse de variation : on distingue clairement les deux phases où la température a varié plus rapidement, et celles où elle a quasiment stagné. Notons que la vitesse de variation récente est effectivement plus grande que celle de 1900-1940, mais pas BEAUCOUP plus grande : en fait elle n'est pas SIGNIFICATIVEMENT plus grande que la période du début du siècle. Le message du GIEC est cependant : le réchauffement de la fin du XXe siecle (la deuxième bosse) est en majorité du à l'influence humaine. En revanche il ne dit rien de précis sur l'origine de la première phase de réchauffement. Cette phase est, selon les climatologues, essentiellement naturelle et pourrait s'expliquer par différents facteurs, dont une activité solaire plus forte que pendant le XIXe siecle et peut etre des oscillations naturelles.

 

Il faut néanmoins remarquer qu'il n'apparait nullement évident sur le graphique que le réchauffement récent soit très différent du précédent, et donc que la proposition qu'il ne peut être expliqué que par une influence humaine n'a rien d'EVIDENT à première vue. Il faut donc des arguments un peu plus sophistiqués que le simple examen statistique pour dire que ce réchauffement depuis la 2e moitié du XXe siècle "sort de l'ordinaire". Quels sont les arguments qui conduisent les climatologues à être aussi affirmatifs sur l'origine humaine de ce réchauffement ? comme nous allons le voir , essentiellement, la comparaison avec des simulations climatiques sur ordinateur, et en partie, la comparaison avec les reconstructions des températures passées. 


 


Partager cet article
Repost0
30 juin 2011 4 30 /06 /juin /2011 08:50

Je vais commencer à examiner quelques points essentiels du débat climatique, en soulignant ceux qui me semblent problématiques (j'insiste encore une fois que cela ne constitue pas une critique fondamentale du travail des climatologues, au contraire, je leur fais confiance et j'essaye d'en tirer les conclusions qui me semblent les plus pertinentes).

Nous avons vu que la Terre avait une température nettement supérieure à celle qui existerait en l'absence d'atmosphère, et que cette augmentation était due à la présence de molécules (les gaz à effet de serre) absorbant l'infra-rouge. Parmi ces molécules, on trouve le dioxyde de carbone (le fameux "CO2"), mais aussi la vapeur d'eau (H20), et d'autres molécules comme le méthane (CH4), l'ozone (O3), etc... Ces molécules ont en fait une concentration faible dans l'atmosphère. La plus importante pour l'effet de serre, en réalité, est la vapeur d'eau. Mais contrairement aux autres, sa concentration s'ajuste rapidement par l'évaporation et la condensation, ce qui signifie, par exemple, que ça n'a aucune importance d'émettre de la vapeur d'eau par les centrales nucléaires ou la combustion des fossiles : l'excès injecté dans l'atmosphère se recondense en quelques jours. En revanche, les autres gaz ont une durée bien plus longue , et avant tout le CO2 dont on estime qu'il reste en moyenne 100 ans dans l'atmosphère (en réalité cette durée est très compliquée à définir précisément car une partie ne disparaitra jamais, ou alors en des dizaines de milliers d'années : disons que ce qui disparaitra rapidement le fera en environ 100 ans).

Qualitativement, on peut comprendre que rajouter des gaz à effet de serre (ou GES) augmente l'absorption de l'atmosphère, et donc augmente le réchauffement du sol. Ca parait assez simple et intuitif. Ce qui est bien plus complexe, c'est de calculer numériquement l'effet exact de cette augmentation de concentration. 

Pour celà les climatologues supposent une variation conventionnelle fixée de la concentration en CO2, et définissent la sensibilité climatique comme la façon dont la Terre réagirait à cette variation : en pratique ils supposent que la concentration en CO2 doublerait depuis sa concentration préindustrielle. Les mesures semblent montrer que le CO2 avait une concentration de 280 ppm avant l'ère industrielle, où  ppm signifie "partie par mllion" : la concentration réelle etait donc de 280 molécules de CO2 pour 1 000 000 de molécules "d'air" - constitué majoritairement en fait de 80 % d'azote et de 20 % d'oxygène-,  elle est actuellement de presque 400 ppm. Bien que la valeur de la concentration et les causes de son augmentation soient contestées par certains, il y a quand même un consensus assez large, y compris chez beaucoup de climatosceptiques pour reconnaître que cette variation est essentiellement due à la combustion de dizaines de milliards de tonnes d'hydrocarbures divers par la société industrielle.

 

Lorsqu'on calcule l'effet direct du doublement de la concentration sur l'absorption par l'atmosphère, on trouve que cela revient à augmenter le flux d'énergie incident au sol d'environ 3,7 W/m^2 (sur un total en moyenne d'environ 340 W/m^2 incident du Soleil au départ, et d'environ 500 W/m^2 si on tient compte de l'albedo et de la partie déjà renvoyée par l'atmosphère par les GES actuels). Cette valeur est appelée "forçage" : en réalité le forçage est défini comme la DIMINUTION de l'émission renvoyée dans l'espace par l'atmosphère, et donc par le déséquilibre radiatif engendré par une modification. En réponse à ce déséquilibre, la Terre va "réagir" en se réchauffant, ce qui va augmenter son émission thermique, jusqu'à ce que l'équilibre soit à nouveau rétabli.

 

Il faut bien comprendre que le réchauffement n'est pas infini , il s'agit d'un équilibre dynamique qui se réajuste en permanence : le CO2 ne "stocke " pas la chaleur :  comme nous l'avons expliqué, il se contente de ralentir son émission vers l'espace, comme des cailloux placés dans le lit d'un torrent. On a tous joué à faire des barrages en rajoutant des cailloux : ça fait temporairement monter le niveau de l'eau jusqu'à ce que ce que le flot reprenne sa valeur initiale : en permanence, le niveau est plus élevé, mais quelqu'un placé en aval du barrage ne s'aperçoit de la baisse du débit que pendant la période transitoire où l'eau monte. Une fois que le niveau est stabilisé , il y a à nouveau autant d'eau qui coule. Il en est de même de la chaleur sur Terre : rajouter du CO2 provoque un déséquilibre temporaire du flux (un peu plus rentre qu'il n'en sort), mais une fois un nouvel équilibre atteint, les flux sont à nouveaux égaux. 

 

Simplement la température d'équilibre aura un peu changé, et c'est cette variation de température après un doublement du CO2 que les climatologues appellent sensibilité climatique, ou plus exactement sensibilité à l'équilibre (c'est à dire une fois l'équilibre rétabli) Si rien d'autre que l'absorption du rayonnement ne se produisait, cette sensibilité serait d'environ 1 °C. Mais c'est là que les choses se compliquent : on ne peut pas dire que rien d'autre ne se produirait ! en effet cette augmentation de température est susceptible de provoquer des réactions en cascade sur différents phénomènes : la circulation atmosphérique, l'évaporation de la vapeur d'eau , la formation de nuages, ... tout cela va à son tour réagir sur l'effet de serre et l'albedo (les nuages réflechissant la lumière solaire ), et va donc modifier à nouveau la température , ce qui va à nouveau modifier les conditions etc ... Il s'agit de ce que les physiciens appellent des phénomènes de rétroaction.

L'estimation précise de ces rétroactions est le point le plus épineux des modèles climatiques, on pourrait même dire que c'est une des parties essentielles du débat et c'est très précisément là-dessus que des climatologues comme Lindzen ou Spencer critiquent les modèles actuels. Il est très difficile de les calculer précisément parce que nos modèles n'ont pas la précision nécessaire pour le faire. Or la sensibilité finale dépend complètement de leur valeur. Pour résumer la situation, voilà un graphique présentant les différentes estimations de sensibilité climatique par différentes méthodes, publié par Knutti & Hegerl, 2008  dans le journal Nature Geoscience.

 

sensibiliteOn y voit une représentation des différentes estimations faites par plusieurs méthodes :

* mesures instrumentales directes en essayant de corréler des variations de températures à des causes connues de variation de forçage (par exemple les éruptions volcaniques)

* modèles climatiques, qui simulent l'effet d'une variation de CO2 sur la température. 

* estimation par les variations passées du climat (paléoclimatologie)

 

ce graphique est pour moi très illustratif du genre de débat actuel en climatologie. Il est en général "vu" et "interprété" comme : toutes les estimations sont en gros d'accord pour converger vers une sensibilité entre 1,5 et 6 °C, avec un maximum de probabilité entre 2 et 4,5 °C (intervalle retenu par le GIEC) et un maximum de probabilité entre 3°C. Cette valeur "typique" est est en général ensuite adoptée pour toutes les estimations des effets futurs du CO2.

Le scientifique que je suis ne peut s'empêcher d'avoir un mouvement de prudence devant ces conclusions. La première remarque que j'ai envie de faire, c'est que la sensibilité climatique est tout sauf bien déterminée ! une erreur potentielle d'un facteur presque 10 , et un intervalle de "confiance" d'un facteur 2 n'a jamais été considérée en sciences comme quelque chose de très précis. Même les climatologues l'admettent. Néanmoins, ils considèrent que l'accumulation des estimations diverses autour d'une valeur de 3 +/- 1,5 °C leur donne bonne confiance que la vraie sensibilité se trouve dans cet intervalle. Il s'agit là donc d'un réel problème épistémologique : si des données sont imprécises, quelle confiance peut-on donner à l'intervalle de valeurs qu'elles définissent ?

 

 

je voudrais convaincre le lecteur que c'est un problème loin d'être trivial, et qu'il évite de tomber dans la tentation de "puisque les scientifiques disent tous la même chose, c'est qu'ils doivent avoir raison". D'abord ce n'est pas vrai qu'ils disent tous la même chose, puisque les résultats sont quand même sensiblement différents d'une étude à l'autre. Et ensuite, il n'est absolument pas vrai que la collection d'avis différents définit un ensemble fiable. La seule chose fiable ce sont des résultats précis, validés, et prédictifs. Je vais donner quelques exemples tirés de l'astrophysique : 

* il est connu que le Soleil a un cycle d'activité de 11 ans. Or aucun modèle du Soleil ne sait justifier l'amplitude et la durée de ce cycle. Il y a des explications plus ou moins qualitatives par l'effet dynamo, mais aucun modèle n'a réussi à reproduire ce cycle, les quelques uns produisant de la variabilité le font sur des cycles bien plus courts. Si on se base sur l'ensemble des modèles, on devrait donc conclure qu'il est impossible que le Soleil ait un cycle de 11 ans, et que le vrai cycle si il existe doit être bien plus court, conclusion erronnée bien sur.

* un des phénomènes les plus spectaculaires de l'astrophysique est l'explosion des supernovae, la mort dans une explosion gigantesque d'étoiles très massives (autour d'une dizaine de fois la masse du Soleil). Ces évènements sont très rares , ils ne sont observés dans notre galaxie qu'une fois tous les quelques siècles. Or aucun modèle n'arrive à reproduire convenablement ces explosions. Si on se base sur les modèles, les explosions de supernovae n'existent pas.

Je ne prétends pas que cela prouve que les modèles climatiques ont tort bien sûr, mais simplement que l'argument épistémologique basé sur une statistique de modèles imprécis ne vaut pas grand chose. 

 

Ceci dit, ça ne prouve pas naturellement non plus que les estimations sont forcément fausses ! y a-t-il une raison pour penser qu'elles puissent toutes l'être, et que par exemple, il pourrait y avoir des raisons d'avoir un biais systématique vers les grandes sensibilités ? 

 

Mon avis personnel (probablement pas partagé par tout le monde) est que oui. Il y a de bonnes raisons de penser que la sensibilité puisse être surestimée de façon générale. Et c'est la suivante : la définition de la sensibilité revient à calculer le rapport d'une variation de température à celle d'une cause supposée unique de sa variation. Or, et c'est un point très important que je redevelopperai par la suite, c'est une hypothèse très forte (et très contestable) de penser que la température ne peut varier QUE à cause des forçages. En effet nous avons vu que la température d'équilibre était un paramètre compliqué qui ne dépendait pas que du flux d'énergie incident, mais aussi de la façon complexe dont la chaleur est redistribuée à la surface de la Terre. Or il n'est nullement certain que des variations compliquées et spontanées n'agissent pas également pour changer le climat, et il y a même de bonnes raisons de le penser : ces variations étant par exemple due à des cycles océaniques de périodes plus ou moins longue qui sont en réalité très mal connus.

 

Lorsqu'on regarde les variations passées du climat, on est très loin de pouvoir les calculer précisément uniquement en fonction d'un "forçage". On peut évidemment toujours calculer une sensibilité en divisant une température par un forçage, mais ça ne prouve pas du tout que ça en est la seule cause. Or si la température varie pour d'autres raisons que les forçages, on trouvera toujours une sensibilité surévaluée. Et absolument pas constante puisqu'on divise en fait artificiellement une quantité par une autre alors qu'elles ne sont pas nécessairement reliées. En revanche, les variations à la fois de température et de forçages fluctuant dans un certain intervalle du même ordre de grandeur, le quotient sera plus ou moins aussi dans le même ordre de grandeur - ce qui est exactement la situation présentée ici. Il est donc très facile d'aboutir génériquement à une sensibilité "toujours du même ordre de grandeur", mais néanmoins variable ... et sans valeur précise définie. Ceci ne prouve bien sûr pas que la valeur finale soit fausse. Mais simplement qu'il ne faut pas confondre une collection d'estimations imprécises avec une détermination expérimentale précise. Il est d'ailleurs , pour moi, assez intrigant que sur le graphique ci-dessus, les déterminations "instrumentales " a priori plus précises soit bien moins contraintes que les autres, avec en particulier bien plus de valeurs "minimales" que d'autres méthodes basées sur les modèles ou les données paléoclimatiques, ce qui semblerait confirmer qu'ils ne mesurent en réalité pas "la même chose". Je ferai des commentaires plus détaillés dans la suite sur la pertinence même de la notion de "sensibilité climatique". 

 

 


 

Partager cet article
Repost0
29 juin 2011 3 29 /06 /juin /2011 12:24

Nous allons maintenant aborder un sujet de plus en plus miné : la modélisation du climat et ses prédictions associées. Tout le monde connait les controverses passionnées sur le sujet, qui ont mis en scène des scientifiques très médiatiques . J'avoue avoir eu beaucoup de mal à choisir le ton exact de mes posts, mon souci étant de rester aussi près que possible de la démarche scientifique. Or mon expérience est que c'est quasiment impossible sur le sujet : chaque expression d'une position est invariablement "interprétée" dans le cadre d'un rattachement à telle ou telle position idéologique. J'essayerai d'être donc aussi objectif que possible, en présentant ce que je pense justifié, mais également mes doutes sur la façon dont des résultats souvent partiels et incertains sont immédiatement "recyclés" en certitudes quand ils diffusent dans le public. Car en réalité, pour moi, le problème n'est pas tant dans la science climatique elle même, qui est une science "normale" dans les critères communs aux autres ("normale" ne signifiant absolument pas, tout comme pour les individus, "idéale et sans reproche"). Il est dans la façon dont une démarche scientifique est "recyclée", métabolisé dans la société par un discours essentiellement politique et idéologique, qui ne peut supporter des incertitudes.

 

De quoi s'occupe donc la climatologie ? essentiellement, de comprendre comment fonctionne le climat terrestre, c'est à dire pourquoi fait-il plus ou moins chaud ou froid ici où là, pourquoi pleut-il ou a-t-on des déserts ici ou là, pourquoi y a-t-il de la glace ou non...

Inutile de dire que c'est un problème extrêmement complexe, devant en prendre en compte une multitude de facteurs physiques, chimiques, et même biologiques. Disons le tout de suite : malgré l'immensité de nos connaissances, nous sommes très loin de pouvoir modéliser de façon assez exacte un système comme la Terre pour prédire avec certitude tout ce qui se passe et va s'y passer à la surface. J'insiste sur ce point parce qu'il m'apparait, au cours des discussions que j'ai autour de moi, qu'il y a en général une perception approximative dans le grand public de ce que sait et ne sait pas faire la Science, et de ce que nous savons ou ne savons pas. Je peux d'ailleurs moi-même me tromper sur certains points, je préfère le dire tout de suite ! Je ne suis pas climatologue, je ne présenterai que l'état présent de ce que j'en ai compris. Il y aura sans doute des lecteurs plus compétents pour me corriger à l'occasion, et je les en remercie. J'insiste encore, ce blog n'est PAS destiné à défendre un camp plutot qu'un autre, il est l'occasion d'exprimer l'avis d'un scientifique sur des domaines qui ne sont pas les siens, mais qui le concerne en tant que citoyen.

Donc que sait-on faire ou pas, en climatologie ?

On sait décrire les grands mouvements d'énergie et de matière, les blians globaux entre l'atmosphère et l'océan. Mais nous n'avons pas une explication très précise des détails, à la précision où nous savons les mesurer. Par exemple, les instruments mesurent la température moyenne de la Terre à quelques dixièmes de degré près (c'est l'ordre de grandeur des variations d'une estimation à l'autre). Mais les modèles sont bien incapables d'expliquer cette valeur avec cette précision, c'est à dire de faire un gros calcul par ordinateur qui nous redonne le bon résultat, à quelques dixièmes de degré près. L'incertitude est plutot de plusieurs degrés. Nous avons une explication qualitative des mouvements à grande échelle de la circulation océanique, mais nous sommes très loin de savoir la décrire dans le détail, et ses possibles variations à grande échelle dans le passé. Nous savons expliquer pourquoi il y a des zones équatoriales humides, des zones tropicales sèches, des zones tempérées humides, des zones polaires froides, mais nous sommes bien incapables de prévoir année après année où il va pleuvoir et où il y aura des sécheresses. 

A l'inverse, sur des courtes périodes de temps, nous avons un certain pouvoir prédictif assez précis , mais limité à des périodes assez brèves. C'est la base des prédictions météo. La mesure précise de l'état de l'atmosphère par toute une panoplie d'instruments au sol et de satellites permet de calculer avec une précision raisonnable son évolution sur quelques jours, quelques semaines au mieux pour les grandes masses. Mais le caractère chaotique des mouvements atmosphériques empêche d'avoir un pouvoir prédictif au-delà de cette période.

 

Au total donc, comme toute science, nous avons un noyau de choses bien comprises , une frontière grise de choses approximatives, et des territoires inconnus où nous ne savons pas dire grand chose. Bref, comme je disais , une science normale ....

 

Mais une science dont les résultats ont pris une importance énorme dans la société, et c'est là que le bât blesse. Parce que les décideurs ne peuvent se satisfaire des incertitudes, ils ont besoin de décider.  La question centrale est donc : les résultats des modèles climatiques sont-ils assez précis pour que nous puissions en déduire réellement ce qu'il faut faire ? 

le discours dominant chez les climatologues et dans la société parait répondre : oui. J'essayerai d'argumenter que selon moi, la réponse est : non. Ce qui ne signifie naturellement pas que les climatologues ne sont pas sérieux et qu'ils ne connaissent pas la physique (angle d'attaque de nombreux "sceptiques", à mon avis non justifié), mais que la réalité est bien trop complexe pour que les prédictions puissent nous permettre de déterminer une "meilleure" attitude à suivre. 

 

Partager cet article
Repost0
18 juin 2011 6 18 /06 /juin /2011 19:23

Nous allons maintenant aborder l'explication de l'effet de serre, qui est un peu compliqué à expliquer et à comprendre (il y a encore des controverses sur sa nature même, et les climatosceptiques utilisent souvent des arguments de mauvaise foi pour le nier - ce qui ne veut pas dire non plus que toutes les critiques sont infondées, j'y reviendrai). 

Nous avons vu que la Terre, si elle rayonnait comme un corps noir, devrait avoir une température moyenne d'au plus - 20 °C, très différente de celle observée. Pour comprendre la différence, il faut aller un peu plus loin et s'interesser à ce qu'on appelle la distribution spectrale de rayonnement, et non simplement à la puissance totale émise. 


Si la Terre rayonnait comme un corps noir, la distribution spectrale devrait être la suivante : une partie vient de la lumière du Soleil pratiquement entièrement réfléchie par l'albedo (en fait avec quelques distorsions donnant une "couleur" différente, par exemple l'eau bleue ou la végétation verte), donnant une partie du spectre visible, de courte longueur d'onde (Short Wavelength Radiation ou SWR en anglais), qui fait que la Terre brille comme les autres planètes ou la Lune. Cette partie représente énergétiquement l'albedo, donc environ 30 % du rayonnement. Les 70 % restant devraient etre un spectre de corps noir à la température de la Terre , soit pour une Terre isotherme, un corps noir à - 20 °C, ou plus précisément, une superposition de corps noirs à la température des différents points. Globalement la loi de Wien donne une distribution spectrale autour de 10 à 15 micromètres (10 millièmes de mm) caractéristiques d'un corps entre 200 et 300 K. C'est donc un rayonnement dans l'infrarouge, de plus longue longueur d'onde (Large Wavelength radiation ou LWR )  . Cette distribution devrait etre une courbe en cloche assez régulière. Le spectre total émis par la Terre serait donc la superposition du rayonnement solaire réfléchi dans le visible, de courte longueur d'onde, et du rayonnement thermique propre de la Terre, dans l'infrarouge, de grande longueur d'onde : un chameau à deux bosses. Autrement dit le spectre devrait ressembler à ça :

 Corps-noirs

Spectres de corps noir théoriques pour la lumière solaire réfléchie (à gauche) et le rayonnement infrarouge thermique de la Terre (à droite).Source: Richard Tuckett, Climate change: observed impacts on planet Earth

 

 Par conservation de l'énergie, l'ensemble de la puissance émise par ces deux bosses doit compenser presque exactement la puissance incidente sur la Terre - presque exactement parce que si le contenu énergétique de la Terre varie (ce qui est le cas dans un réchauffement), il peut y avoir un très léger déséquilibre. En ordre de grandeur, l'estimation actuel du déséquilibre correspondant au réchauffement climatique est de l'ordre de 1 W/m^2 sur 1360, donc moins de 0,1 %.

 

 

Mais en réalité , le spectre émis dans l'infrarouge est très différent de celui d'un corps noir: voilà à quoi ressemble le spectre émis par la Terre vue de l'espace, dans l'infrarouge.

 

bookchap7-15

Exemple de spectre émis par la Terre en infrarouge, vu par un satellite (Source de l'image)

Les pointillés représentent les lois du corps noir à différentes températures, et la courbe chaotique le spectre réel. Manifestement, ce dernier est très loin d'un corps noir. On voit de nombreux "creux" , ce que les physiciens nomment des "raies d'absorption".

 

Pourquoi ces raies ? elles sont précisément dues à la présence de molécules de certains gaz dans l'atmosphère, les fameux gaz à effet de serre, que nous appellerons GES dans la suite. Ces gaz sont composés de molécules à trois ou plus d'atomes : la vapeur d'eau H20, le dioxyde de carbone CO2, l'ozone O3, le méthane CH4, etc ... Chaque "raie" est due à un des gaz, noté sur le graphique, mais elle peuvent aussi se recouvrir partiellement. Ces molécules sont comme des billes attachées par des ressorts qui ont une certaine flexibilité et peuvent vibrer de différentes  façons. La mécanique quantique nous dit qu'elles sont capables d'absorber des photons (donc du rayonnement) dont la fréquence correspond exactement à celle d'une de leurs vibrations. Elles peuvent également changer d'état rotationnel , et peuvent faire tout un tas de transitions correspondant à différents états vibrationnels et rotationnels, ce qui les fait absorber à un ensemble de fréquences possibles; chaque molécule sera ainsi caractérisée par une sorte d'empreinte digitale qui lui est propre, son "spectre d'absorption" (cette propriété découverte au XIXe siecle, et utilisée bien avant qu'on sache l'expliquer par la mécanique quantique,  est à la base de ce qu'on appelle la "spectroscopie"  qui est d'une importance essentielle dans toutes les études de la matière). Il se trouve que les fameux "gaz à effet de serre " (GES) sont précisément ceux dont le spectre d'absorption présente des raies dans la partie de l'infrarouge thermique émis par la Terre, au voisinage de 10 micromètres. 

La présence de ces gaz va faire que les photons rencontrent beaucoup d'obstacles avant de sortir de l'atmosphère : ils seront constamment absorbés par des molécules , mais seront aussi réémis. la présence de ces gaz va donc gêner considérablement le parcours des photons vers l'espace, et qui plus est , un certain nombre seront renvoyés vers le sol. 

Je vais prendre l'analogie suivante. Je suppose un jeu dans lequel on fait rentrer des gens à un rythme constant dans une pièce, et on les fait sortir par une porte en leur bandant les yeux (c'est plus drole ) et en leur demandant de traverser une cour avant de sortir. Si il n'y a aucun obstacle, il sont raisonnablement capables de traverser la cour en ligne droite (il n'y a pas de barrière à la sortie) et le jeu n'est pas très amusant : il y a en permanence autant de gens qui sortent que de gens qui rentrent dans la pièce au départ.

 

Maintenant imaginons qu'on parsème la cour de mares de boue gluante dans laquelle ils s'empêtrent un moment avant de repartir, en général dans n'importe quelle direction vu les efforts qu'ils ont fait pour en sortir. Vous aurez une image à peu près correcte de l'effet des molécules de GES. Le résultat est d'une part qu'il y aura bien plus de gens dans la cour à un moment donné, parce qu'ils y restent plus longtemps, et même il y aura plus de gens dans la pièce parce que certains y retourneront aléatoirement après s'être complétement perdus. La densité de gens va donc augmenter, mais à partir d'un certain moment il y aura autant de gens qui trouveront la sortie que ceux qu'on fait rentrer dans la piece. Il est important de réaliser que mettre des obstacles dans la cour augmente la densité de gens, mais ne changera finalement pas le rythme auquel il s'en échappent. 

 

Cependant la situation de l'atmosphère est plus compliquée. La première chose, c'est que les photons ne sont pas tous sensibles à l'absorption. Pour reprendre l'analogie, c'est comme si certains joueurs étaient munis d'échasses leur permettant de traverser sans probleme les mares de boues, et continuaient à traverser la cour sans même se rendre compte de leur présence. C'est l'équivalent des longueurs d'onde où l'atmosphère est transparente (à noter que ces "fenêtres" sont très utiles aux astronomes qui peuvent ainsi "voir" à travers dans l'atmosphère dans l'infrarouge, alors que dans les raies d'absorption, ils sont dans le brouillard complet). La présence d'une absorption différente suivant la longueur d'onde va donc moduler le spectre et gêner plus certains rayonnements que d'autres.

 

La seconde complication est que contrairement aux gens, le nombre de photons ne reste pas constant. Ils sont en effet constamment absorbés et réémis par les molécules, ils ne sont pas juste "stockés" comme des gens dans une pièce: ils disparaissent réellement et réapparaissent aléatoirement. Ca semble donc très compliqué à décrire, mais fort heureusement, les lois de la mécanique quantique et de la thermodynamique nous prédisent une chose extraordinairement simple : quelle que soit la situation, le nombre de photons présent doit tendre vers celui prédit par le rayonnement de corps noir à la température locale de la matière avec laquelle ils interagissent. 

Lorsque les photons interagissent de nombreuses fois avec la matière, le milieu est dit optiquement épais (c'est le cas du brouillard ...). Dans ce cas les photons ont une densité d'énergie très proche de celle du corps noir, et ils finissent par s'échapper avec une intensité caractéristique de la température à la surface dite de dernière diffusion, c'est à dire l'endroit où en moyenne , ils interagissent pour la dernière fois avant de s'échapper. Si les absorptions sont peu nombreuses, le milieu est dit optiquement mince, et les photons gardent l'intensité qu'ils avaient au départ. Ce phénomène est fondamental pour comprendre l'existence des raies d'absorption ou d'émission. Si on a une source de rayonnement en arrière plan, et un milieu qui est optiquement épais à certaines longueurs d'onde, mais pas à d'autres, si ce milieu est plus froid que la source initiale, il produira des raies en absorption, dans les longueurs d'onde où il est optiquement épais,  et si il est plus chaud, des raies en émission. 

 

Dans le cas de notre atmosphère, la surface de dernière diffusion est située très haut dans l'atmosphère dans les raies des GES, alors qu'elle est bien plus basse (voire même , au sol) dans les autres longueurs d'onde. Or l'atmosphère est de plus en plus froide quand on monte : l'intensité du rayonnement dans les raies est donc plus faible parce que les photons proviennent d'une partie supérieure plus froide que ceux qui s'échappent directement du sol. C'est donc la différence, ou gradient de température,  entre le sol et le haut de l'atmosphère qui est fondamental : dans une atmosphère isotherme, il n'y aurait pas de raies (malgré la présence des GES ! ). Notons que cette différence de température est entretenue à la fois par le rayonnement, les couches plus basses recevant plus de rayonnement des couches supérieures que les hautes, et par les mouvements de convection qui brassent la partie inférieure de notre atmosphère, la troposphère (là où tous les phénomènes météo, les nuages, etc... se forment). En effet les mouvements de convection ascendante provoquent une baisse de pression et une détente du gaz, qui se refroidit en même temps. Au dessus de la troposphère, et séparée par une surface appelée tropopause, on trouve la stratosphère où la convection est bloquée. Parce qu'elle est essentiellement optiquement mince et chauffée directement par les UV du Soleil, la stratosphère est quasiment isotherme dans sa partie inférieure, puis la température augmente avec l'altitude quand l'influence du chauffage par les UV solaires devient de plus en plus important. Dans la stratosphère, le CO2 a un effet refroidissant car les photons ne sont plus piégés : au contraire, le CO2 sera chauffé par collision et réemettra de l'énergie sous forme de photons. Une augmentation de CO2 va donc refroidir la stratosphère (ce qui a été effectivement observé). 

Nous pouvons donc finalement comprendre l'effet de serre comme un piégeage momentané des photons, l'atmosphère les laissant finalement s'échapper avec une intensité inférieure à celle qu'ils avaient au sol. Mais le bilan énergétique doit etre équilibré : ceci impose que l'émission des photons du sol doit se faire à une température supérieure , ce qui peut se comprendre puisque le sol est également "chauffé" par les photons réémis vers l'arrière. Ainsi, l'effet de serre "réchauffe" le sol, et donc augmente l'intensité en dehors des raies, et réduit cette intensité dans les raies. Le bilan est finalement une température au sol nettement supérieure à celle qui est évaluée sans GES, mais pour une puissance totale finalement identique ...

Reste à calculer exactement cet effet. Et là, c'est loin d'être simple ....

 

Partager cet article
Repost0
16 juin 2011 4 16 /06 /juin /2011 10:09

Dans la page précédente, nous avons calculé une température d’équilibre de la Terre comme si elle était isotherme et se comportait comme un corps noir. Cependant, une objection évidente vient à l’esprit : la Terre n’est pas du tout isotherme ! après tout, il fait quand même bien plus chaud à l’équateur qu’aux pôles. L’approximation d’une température uniforme est manifestement très exagérée.

Nous allons donc refaire le calcul de la température moyenne en supposant cette fois que chaque élément de surface du sol est chauffé localement par le Soleil, sans du tout interagir avec les autres, et donc que la conduction thermique de la Terre est nulle : ce que nous appellerons la Terre parfaitement isolante.

Une difficulté qui se présente alors est que, comme chacun sait, la Terre tourne ! un point particulier du sol est donc éclairé de manière différente au cours de la journée , et plus du tout la nuit, ce qui fait que sa température est variable au cours du temps ! Le problème ne se posait pas pour la Terre isotherme car tous les points partageaient la même température moyenne qui restait constante quelle que soit la rotation de la Terre (l’éclairement global étant le même). Mais ici, ça peut changer :  comment garde-t-il sa chaleur qu’il a emmagasiné dans la journée, par exemple ?

 

 La réponse est : c’est très compliqué ! là encore, pour simplifier, nous allons faire une hypothèse ultra-simple : qu’il se met instantanément à l’équilibre thermique en « oubliant » tout ce qui s’est passé avant. Tout ce calcul ne sera de toutes façons pas physique – il est juste intéressant pour en comprendre certains enseignements.

Dans ce cas, la réponse est assez simple : par suite d’une projection géométrique , la puissance reçue par unité de surface sur la Terre est égale à la puissance reçue par unité de surface perpendiculaire au Soleil, multipliée par un facteur cos θ que nous avons évoqué précédemment.

La température locale, en l’absence d’albedo, serait alors

σ T(θ) ^4 = Csol. cos θ = L cos θ /(4π.a^2) 

soit

T (θ) = (Csol. cos θ/ σ )^(1/4) = (L cos θ /( σ 4π.a^2) )^(1/4)

Si on tient compte de l’albedo supposé constant partout , on trouve alors

 

T (θ) = [Csol (1-A) cos θ/ σ ]^(1/4) = [L (1-A)cos θ /( σ 4π.a^2) ]^(1/4)

 

Cette fois la température dépend du lieu , comme l’indique la notation T (θ) (θ représente donc , rappelons-le, l'angle du Soleil par rapport au zénith).

Qualitativement, on voit que la température baisse si cos θ baisse, ce qui veut dire des rayons plus inclinés par rapport à la verticale: ce qui est la raison essentielle pour laquelle il fait plus chaud à midi que le matin et le soir, à l’Equateur qu’aux pôles, ou en été qu’en hiver (la différence de température suivant les saisons n’est absolument pas liée à une variation de la distance de la terre au Soleil, comme le savent probablement beaucoup de lecteurs) : simplement plus le Soleil est haut dans le ciel, plus il fait chaud – en général.

La température maximale mesurable est celle où le Soleil est au zénith, elle vaudrait Tmax= [Csol (1-A)/ σ ]^(1/4) = 357 K = 84°C. Le même calcul fait sur la Lune, à peu près à la même distance que le Soleil, mais avec un albedo bien plus faible (0,05, comparable à la peinture noire), donnerait une température de 388 K = 115°C, ce qui n'est pas loin de la valeur donnée par le wiki, rapportée par un de nos lecteurs (mais je ne sais pas si cette estimation est théorique ou réellement mesurée). Du coté de la nuit, et dès la tombée du jour, la Terre n’est plus du tout éclairée et dans ce modèle, la température la nuit devrait tomber instantanément au zéro absolu dès que le Soleil se couche ! Ce n’est bien sur pas du tout le cas, mais comprendre pourquoi est n’est pas inintéressant…

A cause de la rotation de la Terre sur son axe, l’angle θ en un lieu donné varie de manière compliquée au cours du temps (c’est l’inclinaison des rayons solaires par rapport à la verticale), suivant l’heure de la journée et la saison. La loi exacte de T en fonction du temps est donc tout aussi compliquée (mais elle est calculable). Cependant, il est inutile de la chercher en chaque point : en effet, nous ne nous intéressons qu’à sa valeur moyenne sur toute la Terre. Mais même si la Terre tourne, elle est globalement eclairée de la même manière à chaque instant (pour une distance supposée constante). La moyenne ne dépend donc pas du tout de son état de rotation : pour la calculer il faut simplement prendre la moyenne du facteur cos θ^1/4 (le seul facteur dans l’équation dépendant du lieu), sur toute la sphère.

Les lecteurs un peu scientifiques feront ce calcul sans problème ; les autres me feront confiance. La moyenne cherchée vaut :

< cos θ^1/4 > = 2/5= 0,4

Et donc la température moyenne vaut dans ce modèle :

T  = 0,4 [Csol (1-A)/ σ ]^(1/4) = 0,4 [L (1-A) /( σ 4π.a^2) ]^(1/4)

La comparaison avec l’expression pour la Terre isotherme est instructive : elle revient à remplacer le facteur numérique ¼^1/4 = 1/racine(2) = 0,707 par le facteur 0,4 , soit une réduction de la température absolue par un facteur environ 4/7 = 0,57.

Ceci fait quand même une grosse différence à la fin puisqu’avec un albedo de 0,32, supposé constant sur toute la surface , on aurait finalement une température de 144 K = - 128 °C, au lieu de – 21 °C !

Le fait de supposer une conduction thermique ou non à la surface de la Terre donne donc un résultat très différent, par 100 °C de différence !

En réalité aucun de ces deux modèles n’est acceptable. La Terre n’est NI isotherme, NI parfaitement isolante . Il existe des échanges d’énergie considérable entre l’équateur et les pôles, et sa capacité thermique est suffisante pour ne pas se refroidir instantanément pendant la nuit. Aucun de ces calculs n’est donc satisfaisant, mais ils ont un interêt :

·      * d’abord on peut montrer qu’ils traitent deux cas extrêmes ; c’est à dire qu’avec des transferts de chaleurs partiels, mais pas parfait, entre l’équateur et les pôles, la température devrait être quelque part entre les deux extrêmes calculés (si l’émission locale est bien celle d’un corps noir). La température isotherme est la valeur maximale qu’on peut avoir avec une émission de corps noir.

 

* ils montrent qu'il est impossible de calculer précisément le résultat final d’après des principes simples de la physique. La température moyenne de la Terre va dépendre de manière compliquée de la façon dont la chaleur excédentaire dans les régions tropicales va être transportée aux hautes latitudes, principalement par les mouvements de l’atmosphère et les circulations océaniques. Elle va également être dépendante de la courbe temporelle de l’éclairement et du stockage de chaleur, de la distribution d’albedo à la surface, etc, etc…

En résumé, il est impossible de calculer précisément la température moyenne de la Terre sans des modèles très sophistiqués. Et en réalité, comme nous le verrons, aucun modèle n’est assez précis pour la calculer de façon exacte.

 

La raison fondamentale est qu’une quantité comme une température moyenne de surface ne joue aucun rôle important dans aucune équation fondamentale : ce n’est pas comme l’énergie, la charge électrique, ou d’autres quantités importantes de la physique. Ce n’est qu’une moyenne indicative mais sa valeur n’est pas fortement contrainte. Je ferai quelques commentaires plus tard sur la différence fondamentale qu'il faut faire entre température effective et température moyenne.

Reste néanmoins un problème central : l’estimation la plus haute possible est celle de la Terre isotherme, de – 20 °C, alors qu’en réalité, la température superficielle est nettement supérieure. Or jouer avec la conductivité et la différence de température ne produira que des températures plus basses que –20°C. Il manque donc un ingrédient essentiel, qui doit nécessairement impliquer que la Terre émet un spectre sensiblement différent de celui d'un corps noir, et cet ingrédient, c’est l’effet de serre.

Partager cet article
Repost0
15 juin 2011 3 15 /06 /juin /2011 08:13

Je commence à publier une série de pages sur le climat. Les pages restent consultables de façon fixe, mais ne permettent pas de commentaires. Je fais donc une copie en post, afin de permettre eventuellement des questions et des commentaires apparaitre. Les premières pages sont très classiques et ne devraient pas donner lieu à trop de remarques - à part des erreurs factuelles que je peux toujours commettre. Ce ne sera peut être pas le cas quand nous aborderons des questions plus complexes liées au climat. Je ne remets pas en post la première page sur la loi de corps noir, voilà la seconde :

******

 

Après avoir rappelé dans une première partie quelques lois fondamentales du rayonnement, je vais commencer à présenter petit à petit la façon dont nous pouvons comprendre la température superficielle de notre planète. Le premier modèle est extrêmement simple, et est couramment traité en exercice dans les cours de physique et d'astronomie à l'Université. Il consiste à faire l'approximation très grossière d'une Terre de température uniforme sur toute sa surface, ce qui serait le cas si elle était infinimement conductrice (comme une grosse boule de cuivre, ou mieux, de supraconducteur ! ). La Terre est essentiellement chauffée en surface par le rayonnement solaire (le flux géothermique provenant du manteau, essentiellement entretenu par la désintégration progressive des éléments radioactifs qu'elle contient depuis sa naissance, a une contribution mesurable mais très faible, que nous négligerons).

 

Le principe gouvernant le calcul de sa température d'équilibre est simplement d'écrire que :

 

puissance absorbée par sa surface = la puissance qu'elle réémet dans l'espace.

 

Prenons une autre hypothèse simplificatrice : qu'elle se conduit comme un corps noir, c'est à dire qu'elle absorbe tous les rayonnements incidents, ce qui implique, comme nous l'avons vu, qu'elle émet également une puissance caractéristique par unité de surface donnée par la loi de Stefan.


Il suffit alors de calculer les puissances incidentes et réémises pour trouver la température.

 

La puissance qu'elle reçoit du Soleil dépend de sa distance à celui-ci. Les lois de la Mécanique céleste nous apprennent que son orbite est une ellipse, et que sa distance varie entre un maximum ou aphélie Ra et une minimum ou périhélie Rp.

 

Ra et Rp peuvent s'exprimer en fonction de deux autres grandeurs géométriques, le demi-grand axe a et l'excentricité e, suivant les relations 

Ra = a (1+e)

Rp = a (1-e) 

 

pour la Terre, a définit ce qu'on appelle "l'unité astronomique" ou u.a., très couramment utilisée par les astronomes pour mesurer les distances dans le système solaire (ou celles des planètes extra-solaires à leur étoile). Numériquement, a est très proche de 150 millions  de km , soit 1,5. 10^8 m 

 

L'excentricité de l'orbite terrestre vaut e = 0,0167 soit 1,67 %. Cette faible valeur signifie que Ra est proche de Rp, et donc que l'ellipse est en fait proche d'un cercle. Cependant la variation n'est pas complétement négligeable, les deux différant d'environ 3 %. Je ferai quelques remarques à ce sujet un peu plus tard.

Pour le moment, nous allons ignorer l'excentricité et supposer que l'orbite est simplement un cercle de rayon a , une unité astronomique.

Pour évaluer la puissance arrivant sur la Terre, il est utile d'introduire une quantité fondamentale : le flux d'énergie, c'est à dire la puissance reçue par unité de surface (c'est à dire sur un m^2) , en provenance du Soleil, à la distance de la Terre. C'est la puissance que recevrait un panneau solaire de 1 m^2 placé perpendiculairement à la direction du Soleil. Le "perpendiculairement" est important, car si le panneau fait un angle θ avec la direction du Soleil, la puissance est réduite par un facteur cos θ.

 

Pour une incidence perpendiculaire, ce flux, à la distance de la Terre,  définit ce qu'on appelle la constante solaire. Assez curieusement, sa valeur n'est pas si bien connue que ça. Des mesures donnaient des valeurs entre 1366 et 1370 W/m^2, mais des résultats plus récents par le satellite SORCE, lancé pour réduire les incertitudes, n'a fait qu'apporter une nouvelle perplexité  en indiquant des valeurs plus faiblesd'environ 1361 W/m^2. La différence (5 sur 1300 ) peut paraitre minime, mais il faut savoir qu'elle est largement supérieure, par exemple , au déséquilibre radiatif actuel prévu par les modèles climatiques, ce qui fait que la vérification expérimentale directe de ce déséquilibre est, pour l'instant, impossible, la précision sur le flux incident n'étant pas suffisante.

 

A noter que cette valeur doit redonner la luminosité solaire si on la multiplie par la surface entière de la sphère de rayon a. On a donc :


Lsol = Csol*4 π a^2 = 3,8 . 10^26 W 

(une centrale nucléaire a une puissance thermique d’environ 3 GW (pour 1 GW électrique), soit 3.10^9 W. Le Soleil émet donc autant de puissance qu'environ 10^17, soit 100 millions de milliards de centrales nucléaires).

 

 

 

 Evidemment la Terre est sphérique, et justement donc, sa surface n'est pas partout orientée perpendiculairement au Soleil (un détail qu'un célèbre géophysicien - et climatosceptique, Vincent Courtillot, aurait un peu oublié dans un de ses articles, ce qui lui vaut désormais le surnom un peu ironique de "chevalier de la Terre Plate", mais l'erreur est humaine ... et nous verrons que les climatologues peuvent être parfois aussi un peu "terraplatistes" quand il s'agit d'évaluer les réserves fossiles, mais ne dérivons pas).

 

Néanmoins, il y a une manière élégante d'oublier la sphéricité de la Terre dans le calcul, c'est de remarquer qu'elle intercepte exactement le même rayonnement qu'un disque plat de rayon Rt (le rayon de la Terre), placé perpendiculairement au Soleil. La surface de ce disque est π.Rt^2, c'est ce qu'on appelle la "section efficace" : A noter que ce n'est PAS la surface de la Terre elle-même, qui est 4 fois plus grande.

 

En conséquence, l'insolation moyenne de la surface Terrestre n'est que 1/4 de celle qui aurait lieu si le Soleil était partout perpendiculaire au sol (c'est à dire si le Soleil était partout au zénith, ce qui est naturellement impossible). La moitié de ce facteur 4 vient de l'alternance jour-nuit, l'autre moitié vient de la valeur moyenne de l'angle d'inclinaison qui varie entre l'équateur et le pôle. Au total, la Terre reçoit en moyenne par unité de surface Csol/4 = 340 W/m^2. 

 

Si on suppose la Terre isotherme, le calcul est alors assez simple : la puissance reçue doit être égale à celle réémise , qui est donnée par la loi de Stefan, par unité de surface :

σ T^4 = Csol/4 = Lsol/(16π.a^2) 

d'où Teq = [Lsol/(16 π σ a^2)]^(1/4)

le calcul numérique fournit 

Teq = 278 K = 5 °C 

Cependant, nous avons oublié un phénomène important dans le calcul, c'est que la Terre n'est pas un corps noir. Elle réfléchit une partie non négligeable de la lumière incidente, soit dans l'atmosphère (par les nuages), soit par le sol, avec un coefficient appelé l'albedo, qui dépend de la nature de la surface (c'est pour ça qu'on la voit briller de l'espace , de la même façon que la Lune et les planètes sont éclairées par le Soleil). Les surfaces glacées ou enneigées,  blanches et brillantes, ont un albedo bien plus grand que les surfaces sombres. L'estimation est complexe, mais on estime que sur 340 W/m^2 incidents, environ 100 sont directement réfléchis, ne laissant que 240 W/m^2 absorbés par le sol et l'atmosphère (2/3 - 1/3 environ). L'albedo moyen A est le rapport de la fraction réfléchie sur l'incidente

A = 100 /340 = 0,32 environ

 

le calcul doit être donc modifié en remplaçant la constante solaire Csol par Csol(1-A) , ce qui donne finalement :

 

 Teq = [(1-A).Csol/4]^(1/4) = [(1-A).Lsol/(16 π σ a^2)]^(1/4)

 

soit numériquement


Teq = 252 K = - 21 °C

 

En réalité il faudrait aussi tenir compte du fait que la Terre n'émet pas non plus comme un corps noir, dans la partie du spectre émis (l'infrarouge). Mais elle est plus proche du corps noir dans l'infrarouge que dans le visible, et on peut garder cette approximation pour le spectre émis.

 

 

Cette valeur, bien qu'elle ne soit pas déraisonnable en ordre de grandeur,  est nettement plus faible que la valeur observée, qui est autour de 15 °C (ou 288 K). L'explication de la différence tient précisément dans la présence de gaz à effet de serre dans l'atmosphère terrestre. Mais avant d'aborder ce point, il est instructif de faire une autre évaluation : celle de la Terre totalement isolante. 

Partager cet article
Repost0