Overblog
Suivre ce blog Administration + Créer mon blog
17 mai 2013 5 17 /05 /mai /2013 07:39

Une étude publiée rapportée sur le site "réchauffiste" Skeptical Science montre un consensus de 97 % des articles scientifiques sur l'origine anthropique du réchauffement.

Les auteurs ont fait des recherches par mot-clés sur les articles dont l'abstract parle du réchauffement climatique ("Global warming" ou "Global climate change" ) et ont ensuite classifié les abstracts selon le critère de prendre position ("endorsement" ) , explicitement ou implicitement, sur l'origine anthropique du réchauffement.

La recherche par mots-clés a fourni environ 12 000 articles. Sur ces 12 000, seuls 4000 ont exprimé une position sur l'origine du réchauffement, les 2/3 ne se prononçant pas. Les 97 % ne concernent que les 4000 abstracts ayant exprimé une position : il s'agit donc plutot de 32 % des articles que 97 %. Mais attention : exprimer une position ne signifie absolument pas que l'article apporte un élément de preuve de l'origine anthropique du réchauffement, simplement que l'auteur en parle comme si il était acquis qu'elle existait. 

http://skepticalscience.com//pics/C02_TCP_social_media_image_97.jpg

Que dire de ce résultat ? à vrai dire il n'a rien de surprenant et ne fait que confirmer des études antérieures, et la simple observation de la littérature scientifique.Il est d'autre part tout à fait plausible qu'un auteur d'article qui travaille sur le réchauffement n'ait aucun interêt à contester l'origine anthropique dans son abstract, et fasse une référence au GIEC qui suffit à le classer comme "d'accord'. Personnellement si on me demande si il est probable que le réchauffement actuel ait une origine anthropique, je réponds oui sans hésiter.  Comme je l'ai déjà expliqué, mes problèmes avec le discours climatique ne sont pas à ce niveau : ils sont sur l'estimation de l'ampleur de ce réchauffement, sur l'extrapolation indue grâce à des chiffres de réserves irréalistes, et sur l'absence de considération du coût qu'aurait la réduction des fossiles par rapport à celui du réchauffement. Ces réserves n'ont donc rien à voir avec la remise en cause de l'effet de serre.

Cependant, d'un point de vue épistémologique, il est intéressant de se demander un peu ce que mesure au juste ce "consensus". Après tout, c'est une idée un peu bizarre de penser que c'est le consensus qui fixe la vérité scientifique. Si le consensus avait toujours raison, il n'y aurait jamais eu de révolution et donc de progrès scientifique ! Les scientifiques célèbres sont justement célèbres parce qu'ils ont brisé un consensus ou apporté des éléments nouveaux qui ne se trouvaient pas (ou très peu) dans la littérature avant eux ! la validité d'une théorie se mesure à la rigueur des arguments, non au nombre de personnes (même de scientifiques) y croyant. L'héliocentrisme, la théorie atomique, la dérive des continents, ont du combattre des représentations bien plus majoritaires avant de s'imposer. Il y a eu des épisodes malheureux de l'histoire des sciences même récente, comme l'époque où le biologiste Lyssenko interdisait toute référence à l'évolution darwinienne en URSS, où des communautés scientifiques entières se sont fourvoyées pour des raisons politiques.

Employer l'argument du consensus pour prouver une théorie est donc plutot attristant, puisque ce même argument aurait tout aussi bien pu être employé de la même façon pour prouver des théories fausses ! cela ne veut évidemment pas dire que tout consensus est faux, et que l'homme n'a pas d'influence sur le climat. Seulement que ce n'est pas comme ça qu'on va le prouver, et encore moins le mesurer précisément.

Une autre nouvelle rapportée cette fois sur le site "sceptique" Wattsupwiththat (WUWT) relève la publication d'un article scientifique dans Geophysical Research Letters . Son titre est "Emerging selection bias in large-scale climate change simulations" L'article relève que les modèles climatiques , en s'affinant au cours du temps, tendent à converger les uns vers les autres (ce qui pourrait apparaître comme rassurant), mais .. à rendre de moins en moins bien compte des données. L'article en lui-même ne remet pas en cause l'origine anthropique du réchauffement (il serait probablement classé dans les 97 % qui l'admettent !). Mais il alerte sur le fait que les modèles peuvent très bien être d'accord entre eux ... mais pas avec les données. Par rapport aux anciens modèles qui avaient une incertitude assez grande et englobaient la courbe réelle des températures dans leurs prédictions, les nouveaux ont une fourchette plus resserrée, mais n'incluent plus bien les vraies courbes observées !

L'origine du problème suggérée par l'auteur est que les modèles sont biaisés par le fait de vouloir reproduire le réchauffement de l'Arctique, au détriment de la température moyenne de la Terre qui n'évolue pas de la même façon : alors que l'Arctique s'est sensiblement réchauffé depuis 10 ans avec des épisodes de fonte spectaculaire de la banquise, la température moyenne elle n'a pas évoluée significativement. Apparemment les modèles sont incapables d'expliquer cette divergence et doivent "sacrifier" une des évolutions pour expliquer l'autre, ce que l'article décrit comme un biais de sélection. 

Ceci doit alerter sur la valeur des modèles et de leur "accord". Le "consensus" entre les modèles s'est amélioré .. au détriment de leur accord avec les observations. Cela relativise fortement l'argument du consensus. Et pour finir, il faut rappeler qu'etre d'accord avec une contribution anthropique ne signifie pas être d'accord avec toutes les extrapolations, les calculs de coûts associés de probabilités fantaisistes, les extrapolations de croissances irréalistes, et pour finir le principe de politiques basées sur ces calculs fantaisistes ...

 

 

Partager cet article
Repost0
3 décembre 2012 1 03 /12 /décembre /2012 05:31

Pendant que la conférence de Doha se poursuit dans une indifférence à peu près générale, un certain nombre de nouvelles sur le climat sont diffusées et reproduites dans les grands médias. Sur le forum futurasciences, votre serviteur n'a plus le droit de s'exprimer sur le climat, sauf quelques erreurs de manipulation de modérateurs étourdis acceptant des messages qui leur paraissent sensés, conduisant à des posts faisant des citations à des messages ... dont l'original est introuvable ! (il a été effacé peu après, dans la plus pure tradition soviétique consistant à "gommer" les opposants éliminés des photographies officielles.)

Quelques actus concernant le climat ont été publiées en rafale. L'une d'elle concerne la parution d'un article de Grant Foster et Stefan Rahmstorf , prouvant que les modèles climatiques estiment bien les températures, mais sous-estiment la montée des eaux. Comme preuve ces graphiques (pour le température, j'ai utilisé une image tirée du blog de Tamino (Grant Foster, un des co-auteurs de l'article )

http://tamino.files.wordpress.com/2012/12/fig1.jpg

 

et pour la montée des eaux :

http://www.futura-sciences.com/uploads/RTEmagicC_elevation-niveau-mers_RahmstrofEtAl2012-ERL_txdam33657_ec9a92.jpg

La courbe rouge caractérise l’augmentation mesurée par satellite du niveau des mers en cm en fonction du temps. Elle est comparée aux données récoltées par des marégraphes (en orange). Les traits bleus et verts correspondent aux projections établies par le Giec, respectivement dans ses 3e et 4e rapports, sur la base de différents scénarios d’émissions de gaz à effet de serre. Les océans montent bien plus vite que prévu. © Adapté de Rahmstorf et al. 2012, ERL, Crédit : Futurasciences

Le message est clair : les températures sont bien reproduites par les modèles, mais pas la montée des eaux. Cependant, un examen un peu plus attentif des courbes conduit à nuancer cette vision.

D'abord, si on regarde la courbe des températures, on s'aperçoit que la courbe REELLE des observations, représentée en rose pâle, ne colle pas si bien que ça avec les modèles. On voit bien que depuis 10 ans, elle oscille au gré des variations océaniques (principalement l'ENSO) mais ne monte quasiment plus, un phénomène qui fait couler beaucoup d'encre et provoque des débats intenses entre climato réchauffistes, qui n'y voient qu'une fluctuation passagère, et climatosceptiques, qui y voient la preuve que le réchauffement s'est arrêté pour de bon (si vous me demandez mon avis, je réponds : je n'en sais rien, je ne parierais avec confiance sur aucune des deux assertions).

Mais bref, ce qui colle bien avec les modèles, ce sont non pas les températures réelles mais les températures "corrigées" des fluctuations, selon un autre travail de Foster et Rahmstorf, qui ont soustrait l'influence de l'activité solaire, des oscillations ENSO et des volcans pour arriver à une courbe bien plus régulière, croissant linéairement avec le temps. C'est la courbe en rouge vif, bien plus apparente sur le graphique que la courbe rose pâle des vraies températures. 

Cependant, il faut garder un peu de distance avec cette courbe. Notons qu'il est inhabituel en sciences de présenter le résultat d'une "correction" qui n'est pas très bien validée de façon plus apparente que les données brutes : c'est toujours un peu suspect. La courbe rouge est le résultat d'une procédure mathématique visant à "effacer" l'influence des oscillations de court terme, mais ça reste un "magouillage" qui peut introduire lui même des artefacts.

Pourquoi? parce que Grant et Foster calculent l'influence des oscillations et des volcans en POSTULANT que la courbe de température se met sous la forme d'une croissance linéaire A*t + B ,PLUS un coefficient proportionnel à l'activité solaire, PLUS un coefficient proportionnel à l'indice ENSO , PLUS un coefficient proportionnel aux volcans. Ils cherchent ensuite par une régression linéaire les meilleurs coefficients , puis ils soustraient ensuite les oscillations naturelles. Par cette méthode, ils sont certains de finir avec une loi proche de la loi linéaire, puisqu'ils l'ont imposée au départ. Le danger c'est que si il y avait une courbure dans les données, elles pourrait être incorporée dans les indices oscillants (l'ENSO en particulier qui ne semble pas avoir la même intensité depuis les années 2000 que pendant les années 90)... puis soustraite par le traitement, et devenir ensuite invisible. Ainsi ce petit "trafic" mathématique va tendre à effacer de la courbe tout signe d'inflexion, même réel ! Au vu des écarts de la courbe réelle avec la courbe corrigée, il semble prématuré de considérer comme "prouvé" que la température continue réellement à grimper, étant donné que basiquement le traitement mathématique appliqué serait incapable de montrer l'inverse, si ça arrivait, au moins sur le court terme. Bien sûr si les températures continuent à stagner, la pente va finir par devenir moins forte, mais vu l'éventail assez large des modèles, on est tranquille pour quelques décennies pour dire que les modèles ont "bien prédit" une hausse ... qui reste toujours quand même une fraction de °C ! Notons par ailleurs qu'il me semble incorrect de comparer les données avec l'éventail de tous les scénarios d'émission possible, alors qu'on connait lequel a été suivi depuis 1990. Si le but est de valider la sensibilité des modèles, il faudrait ne comparer qu'aux scénarios reproduisant les courbes d'émission déjà connues. Or les émissions ont été plutôt dans la fourchette haute (ce qui ne veut absolument pas dire qu'elles vont le rester dans les 100 ans qui viennent, contrairement à ce que prétendent beaucoup de climatologues !!) : il faudrait donc comparer les données avec la fourchette haute des simulations, et l'accord serait alors moins bon. 

La petite manipulation mentale habituelle consiste ensuite à extrapoler sur un ordre de grandeur,  en disant en gros "puisque quand on corrige à notre sauce des données pour les comparer à des modèles de toutes façons assez imprécis , et que ça colle à peu près, vous pouvez nous croire pour les 100 ans à venir !" 

pour la montée des eaux , on note une petite curiosité cosmétique : le zéro des modèles est pris en 1990, mais pas celui des données ! il n'y a aucune raison claire à cela, pour les températures , ils ont bien calé les zéros au même endroit. Ce n'est donc pas un problème de lisibilité de la figure, qui conduirait à décaler les courbes pour éviter qu'elles se mélangent :  celle des températures est tout à fait lisible.

J'ai fait des remarques d'abord en MP à Yves25, climatologue "officiel" sur FS, puis j'ai tenté de poster ces remarques, qui n'ont pas été validées. Je les reproduis in extenso afin que le lecteur puisse être juge de ce qui est considéré comme "politiquement incorrect" , voire du "trollage", sur Futurasciences

 

 je me suis posé la même question que Bioben (posée d'ailleurs d'abord en MP à Yves), et je n'ai pas compris les réponses : pour tracer les observations, il faut bien choisir une date pour le zéro, donc comment a-t-elle été choisie, et pourquoi pas en 1990 ?

      une différence de 1 cm sur le total n'est quand même pas du tout négligeable par rapport à l'écart, ce n'est pas "un quart de poil de mouche" mais pratiquement 50 % de la différence :  je suis très étonné que quelqu'un d'aussi pointilleux sur la statistique que Grant Foster (Tamino sur le blog "OpenMind") n'explique pas mieux comment il a procédé, surtout après toutes les affaires en particulier sur "l'arrangement" de certaines courbes. Il me semble que soustraire 1 cm dans la différence rendrait les observations plus compatibles avec les intervalles d'erreur.

 

 D'autre part même si l'article dit que la période est trop courte pour mesurer une accélération , il semble aussi à l'oeil que l'accélération n'est pas dans le sens prévu par les modèles (ça semble plutot décélerer puisque sur la courbe du JPL les derniers points sont en dessous de la droite moyenne). Or les modèles de Rahmstorf qui prévoient une hausse supérieure aux prévisions du GIEC impliquent forcément une accélération plus importante ...

par ailleurs je suis un peu surpris de cette assertion 

[quote] Les océans se seraient ainsi élevés de 3,2 mm par an ces 5 dernières années[/quote]

si on regarde la courbe du JPL encore une fois 

 

 

http://sealevel.colorado.edu

 

 

on voit que 

* la pente est 3.1 mm/an et non 3.2 mais c'est un détail.

* mais elle inclut la compensation isostatique (contrairement à il y a quelques années), qui soustrait l'influence du rebond post-glaciaire, qui provoque un effet inverse d'environ - 0.3 mm /an : la montée réelle est donc plutôt de 2.8 mm/an 

* et surtout cette pente est calculée sur 30 ans et non sur les 5 dernières années : on voit que de 2007 à 2012, la courbe est plutot passée en dessous de la droite moyenne, en partant du dessus. La pente sur 5 ans doit donc être logiquement inférieure , peut etre 2.5 mm/an, mais pas 3.2. Le fait qu'il y ait une légère décélération est montrée par le fait que la pente moyenne a repris la même valeur qu'en 2009, mais en 2009, on ne faisait pas la correction du rebond post-glaciaire, donc en réalité elle a baissé d'environ 10 % en 5 ans. Ca ne semble donc pas corroborer une accélération supplémentaire. 

Les remarques que je faisais sur la compensation isostatique sont un peu techniques et je ferai un post plus complet sur le problème de la montée des eaux, mais je signale sur le même sujet un post sur le blog Watts Up With That, alertant sur l'imprécision des calibrations des mesures par satellite du niveau des mers et de la fonte des calottes glaciaires.

Partager cet article
Repost0
26 novembre 2012 1 26 /11 /novembre /2012 11:12

A l'heure où s'ouvre la 18e conférence de l'ONU sur le climat dans la capitale du (très fossile-intensif) Qatar, et que vont commencer les débats sur la soi-disant "transition énergétique " en France, la Banque Mondiale vient de sortir un rapport alarmant (iste ?) sur les conséquences d'un réchauffement climatique de 4°C ou plus, d'ici 2060. Les titres des médias rendant compte de ce rapport sont assez illustratifs de l'image véhiculée dans le grand public.

Climat : le scénario noir de la Banque Mondiale ("Elle met en garde contre un réchauffement du thermomètre mondial de 4°C dès 2060). (Nouvel Obs et même titre pour Les Echos )

Réchauffement climatique : la Banque Mondiale s'inquiète d'une catastrophe majeure

La banque Mondiale prédit un cataclysme climatique pour 2060  (20 minutes)

La Banque Mondiale redoute le "cataclysme" d'un réchauffement climatique de 4°C  (Le Monde)

A la lecture de ces titres et du contenu des articles, le lecteur peu averti ne peut qu'avoir l'impression que la perspective d'atteindre 4°C en 2060 est très probable, sinon inéluctable, et que les conséquences en seraient cataclysmiques. Les lecteurs de ce blog connaissent mon scepticisme sur l'éventualité d'un réchauffement catastrophique au cours du XXI e siècle. Cette annonce est donc une très bonne occasion de se livrer à un exercice de "déconstruction" et montrer comment passer subrepticement d'une éventualité improbable à une quasi-certitude, en accumulant toutes les approximations, exagérations, voire contradictions déjà relevées sur ce blog.

Le rapport lui même est téléchargeable ici, en anglais. Je ne ferai quasiment que me référer à son contenu ou aux détails donnés dans les rapports du GIEC - je ne contredis donc pas ce qui est écrit dedans, je me contente de le lire VRAIMENT - ce qui n'est pas forcément le cas de tous les journalistes. 

PREMIER POINT : quelles sont les probabilités réelles que le réchauffement dépasse 4 °C d'ici la fin du siècle, ou même en 2060 ?

Nous avons déjà vus que les prévisions climatiques ne pouvaient être faites que sous l'hypothèses de scénarios d'émission, puisqu'elles ont besoin de connaître la quantité de GES (gaz à effet de serre) émise pendant tout le XXIe siecle. Ces scénarios ont fait l'objet de différentes moutures. Ceux présents dans l'AR4 ont été présentés dans le SRES ("Special Report on Emission scenarios"), contenant une quarantaine de scénarios différents,  que nous avons regardés en détail dans un précédent billet. Pour la nouvelle mouture de l'AR5 , les scénarios ont été considérablement simplifiés en résumant leur effet par 4 courbes typiques, non pas en détaillant les émissions et les conditions économiques qui existeraient partout dans le monde , mais simplement en agglomérant le résultat final de tout ça , représenté par le forçage radiatif global évoluant au cours du temps (rappelons que le "forçage radiatif" est l'augmentation du flux de chaleur arrivant sur terre par rapport à la situation préindustrielle). Ces courbes sont maintenant appelées "representative concentration pathways" (RCP) , suivie de la valeur du forçage atteint à la fin du siècle en W/m^2 .   Ainsi les modélisateurs ont sélectionnés 4 courbes typiques, notées RCP 3 , 4.5, 6 et 8.5. 

Notons la différence de philosophie entre les deux approches : dans l'approche du SRES, les modélisateurs essayaient de prédire les émissions à l'aide de modèles détaillés de toutes les parties du monde, de choix énergétiques, etc .. et en déduisaient ensuite des courbes de foçage global pour les climatologues. Dans la deuxième approche, on se borne à paramétriser le forçage global, en essayent ensuite d'imaginer (eventuellement) à quelle société ça correspondrait, mais en fait les climatologues n'ont pas besoin de savoir le détail des émissions, seul le bilan compte. Quelle est la meilleure approche ? en fait pour les climatologues, seul le bilan suffit, et on peut effectivement penser que les modèles détaillés à la base du SRES avaient très peu de justification, et d'utilité. Mais pour imaginer à quelle société on aurait affaire, il faut revenir aux scénarios détaillés. Néanmoins, un point absolument fondamental doit être souligné : dans aucune de ces approches, on n'affecte une probabilité aux scénarios (ou aux RCP). Ce ne sont que des "storylines", des "what if" - on pourrait tout aussi bien rajouter des scénarios avec invasions d'extraterrestre ou chute de météorite ! dans ces conditions, il est absolument impossible de les qualifier de "probables" ou même de "plausibles", si on n'a pas un estimateur de plausibilité. Mais, j'insiste, cet indicateur de plausibilité n'est nulle part donné, ni dans le SRES, ni dans le rapport de la banque mondiale. Il faut l'estimer à partir d'autres informations, qui n'y figurent pas. Des phrases comme "un rapport publié hier par la Banque mondiale, qui alerte sur le risque élevé que la température moyenne mondiale augmente de 4°C " sont forcément incorrectes, puisqu'il n'existe aucune méthode affichée d'évaluer le risque que ça arrive (à la rigueur il aurait fallu dire "les risques élevés qu'entraînerait une hausse de 4°C").

 

Quels sont donc les scénarios qui prévoient une hausse de plus de 4°C ? et bien voilà les graphiques figurant dans le rapport :

rcp.png

Evolution des températures dans les différents RCP (source, Rogelj, Meinshausen et al., 2012 voir ref dans le rapport)

projections.png

Comparaison de différents scénarios et RCP.

On voit que le seuil de 4°C à la fin du siècle ne peut être atteint que dans les scénarios les plus intensifs : A1FI dans la terminologie SRES, ou RCP 8.5, qui correspondent à 1000 ppm à la fin du siècle environ. Or nous sommes actuellement à 400 ppm, avec un rythme d'augmentation d'environ 2 ppm/an. Il faut donc une forte accélération pour y arriver. De fait, dans le scénario A1 FI (en fait A1G -MINICAM) , les consommations annuelles atteindraient (le GIEC donne ses chiffres en EJ soit 10^18 J, 1 Gtep = 42 EJ) :

pour le pétrole : 471 EJ soit 11 Gtep en 2080, puis retomberaient à 248 EJ (environ 6 Gtep)  - contre 4 actuellement.

Pour le charbon : toujours croissante à 607 EJ, soit 14 Gtep - contre 3 actuellement

Pour le gaz : plafond à environ 600 EJ soit 15 Gtep par an, contre 2,5 par an actuellement.

On voit donc que dans ces scénarios, la production des différents hydrocarbures seraient plusieurs fois l'actuelle, alors que toutes les réserves prouvées auraient disparu depuis bien longtemps ! ce scénario imagine donc un monde où la production mondiale de pétrole pourraient atteindre 200 millions de baril par jour en 2080, alors que tous les gisements conventionnels de pétrole seraient à sec depuis des décennies ! combien d'Arabie Saoudite y aurait-il avec ce chiffre, et où seraient elles localisées ? mystère. Pareil pour le gaz naturel, dont les réserves ne constituent que 40 ou 50 ans de consommation actuelle au mieux. Et en plus le calcul s'arrête en 2100 mais les consommations ne vont pas s'arrêter brutalement, l'intégrale consommée serait même bien supérieure à celle consommée pendant le siècle. Evidemment personne dans le monde de l'énergie ne croit à des chiffres aussi absurdes. Mais comme on dit familièrement "plus c'est gros, plus ça passe !!" 

Le rapport lui même ne quantifie pas les probabilités des différents scénarios, en revanche, il donne des probabilités que les températures atteignent un certain seuil, une fois un scénario donné. Par exemple, dans le paragraphe "How likely is a 4°C world?', il dit ceci :

"The emission pledges made at the climate conventions in Copenhagen and Cancun, if fully met, place the world on a trajectory for a global mean warming of well over 3°C. Even if these pledges are fully implemented there is still about a 20 percent chance of exceeding 4°C in 2100." 

Traduction : les engagements climatiques pris aux conventions de Copenhague et de Cancun, si elles étaient complétement remplies, placeraient le monde sur une trajectoire vers un réchauffement moyen bien au-dessus de 3°C. Meme si ces engagements sont complétement respectés,il y a encore une chance d'environ 20 % d'excéder 4°C en 2100".

Il faut réfléchir un peu attentivement à ces phrases pour réaliser la manipulation mentale à l'oeuvre. Première subtilité : les engagements de réduction "placeraient le monde sur une trajectoire" qui devrait dépasser 3°C en 2100. Or les engagements ne sont que jusqu'en 2020, et parfois de vagues promesses jusqu'en 2050. Qu'est ce que c'est que cette notion de "placer sur une trajectoire" ? On voit sur les graphiques ci-dessus qu'il y a très peu de différence entre les scénarios avant 2050. Qu'est ce qui permet d'extrapoler les "trajectoires" après 2050 sur des engagements pris pour 2020 ? RIEN, ABSOLUMENT RIEN. Nous n'avons AUCUNE théorie prédictive de ce qui se passerait après 2050 SI on prenait des mesures en 2020, c'est une grosse farce que de prétendre le contraire . Tout ce qu'ils ont probablement fait, c'est de regarder les scénarios du SRES et de calquer le début des courbes, pour ensuite extrapoler - mais ces courbes n'ont aucune valeur prédictive de l'aveu même de leurs auteurs !! bref, on aurait pu aussi bien demander à des enfants de maternelle de dessiner des courbes ou de prendre des entrailles de volaille, et regarder ce que ça donnait au début , pour en déduire la fin, ça n'aurait eu ni plus ni moins de valeur. 
Deuxième subtilité (si l'on peut dire ...)  : un scénario d'émission "extrapolé" (selon la méthode précédente) étant donné, il reste à le convertir en température. Or les "probabilités" sur la température sont en réalité calculées avec une statistique sur les résultats des différents modèles climatiques. Là encore, cette méthode n'a strictement pas de justification scientifique. Elle suppose que les modèles sont équiprobables et représentent une probabilité "objective" que les choses se passent ainsi, mais cette manière de voir les choses est tout à fait critiquable. Un modèle est juste ou faux, mais pas "probablement " juste, ou en tout cas personne n'a jamais non plus donné de méthode pour calculer une "probabilité " qu'un modèle soit juste. Il se pourrait tout aussi bien que tous les modèles soient faux, tant qu'ils n'ont pas été réellement validés. 
Sous des formules apparemment rationnelles et objectives se cache en fait une pensée irrationnelle et subjective, qui confond des scénarios imaginaires réalisées avec des méthodes inconnues et certainement non validées, avec des estimations objectives de probabilités.
Passons maintenant aux conséquences d'un réchauffement de 4°C. Le rapport liste consciencieusement la liste de tous les problèmes prévus dans la multitude d'articles qui paraissent sur le sujet : montée des eaux, sécheresses, canicules, inondations, mauvaises récoltes, etc, etc .. tout y passe. Il est très plausible qu'une montée des températures provoque un certain nombre d'inconvénients, voire des catastrophes (pour le réaliser, il suffit de réfléchir à la probabilité inverse : qu'un RC ne provoque AUCUN inconvénient nulle part). Je ne vais pas discuter de la précision et de la fiabilité des modèles, tout le monde s'accordera pour leur accorder une certaine marge d'incertitude, mais néanmoins le risque existe. Mais ce qu'oublie totalement le rapport, comme tous les articles sur le sujet, c'est de rappeler que la croissance de consommation de fossiles s'accompagne obligatoirement d'une croissance très grande de la richesse mondiale. Pour le scénario A1 FI, le PIB / habitant du monde passserait de 5500 $(1990) par habitant en 2010 à 73 000 $(1990) par habitant en 2100, soit une multiplication par 15 de la richesse moyenne. Pour la zone dite "ALM" , agglomérant l'Afrique, l'Amérique Latine et le Moyen Orient, des régions en général considérées comme les plus fragiles face au RC, la croissance ferait passer d'un PIB moyen de 2400 $/hab en 2010 à 68 000 $/hab en 2100, alors que l'OCDE passerait lui de 26 000 $/hab en 2010  à 105 000 $/hab en 2100.
Autrement dit dans ce monde, non seulement les inégalités se seraient considérablement réduites, en passant d'un facteur 10 actuellement à un facteur 1,5 entre les pays les plus pauvres et les pays riches, mais la richesse globale aurait tellement augmenté que les pauvres de 2100 seraient plus de deux fois plus riches que les riches de 2010 !! tout ceci dans un ruissellement de fossiles qui permettraient probablement de vivre aussi confortablement que les américains du Névada ou les saoudiens, au milieu d'un désert. Avec des fossiles et de l'argent, on peut tout faire, se proteger contre les ouragans, dessaler l'eau de mer, faire de l'agriculture intensive, et même reconstruire des villes ailleurs si la mer monte un peu trop, après tout toutes les villes modernes que nous connaissons n'ont pris que quelques décennies à prendre leur forme actuelle. 
Il y a d'autres détails intéressants dans les scénarios : par exemple dans l'utilisation des sols, on s'aperçoit que les pays pauvres réduiraient drastiquement les surfaces cultivables, surement par augmentation très sensible de leur productivité. Cela veut dire qu'on pourrait bien supporter une réduction sensible des surfaces (à supposer qu'elle arrive), sans que cela ne conduise à des famines. En fait il n'est jamais clair dans les prévisions des impacts cilmatiques si on tient compte des modifications énormes des potentiels d'adaptation par l'augmentation de la richesse : on s'apitoie la plupart du temps sur l'impact sur les "populations pauvres", en oubliant que les pauvres auraient en fait essentiellement disparu, tout simplement parce que pour consommer beaucoup de fossiles, il faut etre très riche !!!
Bref le tableau final est celui d'un rapport faisant des extrapolations indues de consommations de fossiles, pour oublier ensuite les conséquences économiques bénéfiques qu'auraient cette consommation sur la richesse et ne regarder que des inconvénients,en eux même incertains. Ce rapport est une illustration magnifique de mon diagnostic sur le discours climatique, qui s'appuie selon moi sur trois piliers :
* des modèles climatiques incertains
* des réserves de fossiles improbables
* des théories économiques absurdes.
Bien sûr, la banque mondiale oublie, comme bien d'autres, que la crise actuelle nous montre que nous serons bien loin d'un tel monde, et que, bien plus probablement, l'essentiel des problèmes du XXIe siècle viendront des difficultés économiques entraînées par la limitation des fossiles, et non pas de leur excès. 
Partager cet article
Repost0
28 octobre 2012 7 28 /10 /octobre /2012 03:27

Hier soir, au sortir d'une soirée, la neige s'est mise à tomber sur Grenoble, avec une chute des températures de 10 °C, une situation jugée par Meteo France digne d'un mois de janvier. 

Ca m'a rappelé une de mes premières interventions sur Realclimate, un forum tenu par des climatologues professionnels, où je posais en substance la question suivante : "bon, je suis tout à fait à m'inquiéter pour les conséquences d'un changement climatique, mais pourriez vous me les expliquer en termes concrets pour quelqu'un qui vit en Europe comme moi, qui a une profession intellectuelle payée par l'Etat : qu'est ce que ça changerait au quotidien, dans sa vie de tous les jours, si le monde prenait entre 2°C ou 3°C de plus ?"

Les réponses à cette question quand même plutôt simples sont étonnament vagues et dilatoires. Certes, certains forumeurs agitent le spectre d'une baisse massive de la production agricole et d'une famine généralisée, mais il semble quand même que cette perspective soit assez éloignée de ce que prévoient les modèles climatiques pour une variation de cet ordre.  Une des réponses qui revenaient le plus souvent, c'est "les stations de montagne n'auront plus de neige".

On peut discuter de savoir si un pays comme la France serait vraiment incapable de s'adapter en 100 ans à la catastrophe économique incommensurable que serait l'absence de neige des pays de moyenne montagne, mais aussi, on peut s'interroger si l'économie du ski pourrait résister aux efforts qu'on devrait faire pour diviser notre consommation carbone par quatre. Parce qu'il faut bien avouer que partir en vacances, en faisant plusieurs centaines de kilomètres, pour habiter une semaine dans des endroits loin de tout, totalement artificiels, sous perfusion d'énergie fossile, pour le plaisir de glisser sur des pentes neigeuses, ça n'a pas un bilan carbone extraordinaire. Il est quand même assez surprenant de voir justifier des efforts pour conserver une activité, que ces mêmes efforts auraient probablement pour effet de supprimer de toutes façons. Incidemment le même genre de problème se pose pour des pays comme les Maldives, qui se prétendent victimes du réchauffement climatique, mais dont l'économie est entièrement basée sur les activités qui sont censées le produire , mais c'est un autre sujet que je traiterai plus tard. 

Mais même l'idée que la neige disparaîtrait de nos montagnes ne semble plus aussi évidente. Dans la décennie 90, il y avait plusieurs hivers très doux (je me souviens une année de températures de plus de 20°C en janvier), et il était à la mode de prévoir la disparition prochaine rapide de la neige en hiver. Ainsi l'office météorologique britannique avait prévu au début dans les années 2000 que "la neige est maintenant juste une chose du passée", avec une description larmoyante de tous les effets : plus de ski, de patinage, de boules de neige pour les enfants, voire, ô sacrilège, les changements de représentations culturelles liés à Noël. 

Petit problème, dans la décennie qui a suivi, il y eut plusieurs années bien enneigées, avec un particulier des chutes de neige abondantes sur la Grande Bretagne, paralysant à plusieurs reprises le pays.

En 2001, la Grande Bretagne connut sa nuit de mars la plus froide depuis 1965.

En janvier 2003, une vague de neige et de froid s'abattit sur la Grande Bretagne, en causant un chaos gigantesque. 

La situation se répéta en 2004.

En 2005, la Grande Bretagne connut 25 grosses chutes de neige, une situation décrite dans le Wiki comme l'année record de neige depuis .. 1876.

En février 2007, de nouvelles chutes de neige plongèrent à nouveau la Grande Bretagne dans le chaos.

En 2008, Londres connut ses premières chutes de neige en octobre depuis 74 ans,(une situation qui se reproduit cette année donc) provoquant un mort et des milliers d'habitants privés de courant . Un peu plus tard en février 2009, la Grande Bretagne connut un nouveau chaos avec les plus grosses chutes de neige depuis 18 ans.

L'hiver 2009-2010 a été décrit comme "inhabituellement froid sur toute l'Europe" avec des chutes de neige en janvier jusqu'à Grenade en Espagne. La Grande Bretagne fut totalement recouverte de neige à cette époque, l'hiver étant qualifié de plus froid depuis 30 ans.

http://upload.wikimedia.org/wikipedia/commons/5/5d/Great_Britain_Snowy.jpg

C'est cette année qu'eut lieu le sommet de Copenhague sur le réchauffement climatique, sous le blizzard... 

 

2011 connut aussi ses belles chutes de neige, qui se poursuivirent jusqu'au mois ... de mai , et donc, l'hiver 2012 s'annonce plutot en avance !

En lisant cette compilation, on se dit que les représentations culturelles de Noël des petits britanniques n'ont pas l'air de s'apprêter à changer ....

Notons que ces évènements eurent lieu alors que l'Europe venait de connaître un réchauffement significatif de près de 1°C dans les décennies précédente, supérieur à la moyenne mondiale. 

http://berkeleyearth.lbl.gov/auto/Regional/TAVG/Figures/europe-TAVG-Trend.pdf

 

Ce réchauffement a été qualifié de "cataclysmique" après la canicule de 2003, bien visible comme un pic sur le graphe ci-dessus... avant qu'une vague d'étés pourris ne déçoive à maintes reprises vacanciers ... et prévisionnistes, comme dans l'affaire de l'été 2009 annoncé comme un "barbecue summer" par le Met Office et terminé piteusement dans la pluie.

Evidemment, face à une situation aussi contraire aux prévisions, les climatologues ont eu une réponse : ah non finalement le réchauffement climatique n'allait pas forcément réchauffer, il pouvait aussi refroidir, en modifiant la circulation atmosphérique circumpolaire ! en effet ces vagues de froid semblent dues à un affaiblissement du courant circumpolaire qui protège d'habitude l'Europe du froid trop intense, laissant l'air des pôles déferler sur ce pauvre continent. On a aussi évoqué la faiblesse de l'activité solaire, ou la fonte de la banquise ...Maintenant les hivers froids sont annoncés comme "la preuve du réchauffement climatique", n'en déplaise aux climatosceptiques !! 

Hum, il y a de quoi rester perplexe ... dans ce cas,  des hivers chauds devraient être considérés comme la preuve qu'il n'y a pas de réchauffement ?

Bon, peut être, admettons que le RC provoque des hivers froids ... mais ...  ils ne le savaient pas en 2000 ? 

Manifestement, les climatologues sont incapables de le dire précisément. Tout comme ils sont incapables de dire si le RC provoquerait plus ou moins de pluie en Afrique de l'Ouest, une question pourtant essentielle quand on veut évaluer les conséquences humaines du réchauffement. Finalement revenons à notre question de départ : c'est QUOI les conséquences concrètes sur la vie des gens du réchauffement climatique ? pas de neige ? d'avantage de neige ? autant de neige ? est ce que les évènements de la première décennie du 3e millénaire sont exceptionnels? ou rester la norme ? apparemment personne ne peut le dire précisément.

Pourtant bien sûr, nous le savons tous, les modèles climatiques sont fondés sur de la physique rigoureuse et bien connue ! oui mais ... voilà, la Terre est un système complexe, bien trop complexe pour que nos belles équations, même entrées dans les programmes de plus gros ordinateurs du monde, puissent en sortir des prédictions fiables. En réalité on voit bien que les climatologues ne font que suivre l'actualité des dix dernières années, mais que l'extrapolation à la décennie suivant est plus qu'hasardeuse. Qui sait les surprises que la prochaine décennie nous prépare ...

Partager cet article
Repost0
28 juillet 2012 6 28 /07 /juillet /2012 09:05

L'histoire commence par un communiqué de la NASA intitulé : "Satellites see Unprecedented Greenland Ice sheet Surface Melt"  (Les satellites voient une fonte sans précédent de la surface de la couche de glace du Groenland), illustrée par cette image saisissante :

http://www.nasa.gov/images/content/670398main_greenland_2012194-673.jpg

A gauche : l'état de la surface le 8 juillet. A droite : l'état 4 jours après, le 12 juillet. L'article dit qu'alors que la fonte ne concerne que 40 % de la surface normalement, cette année, pendant quatre jours, elle a concerné 97 % de la surface.

Il n'y a aucune erreur dans le communiqué, bien sûr, mais la rédaction est telle qu'elle laisse l'impression aux lecteurs inattentifs que "97 % de la glace du Groenland aurait fondu". Ce qui est évidemment totalement absurde, la couche de glace sur le continent atteignant plusieurs milliers de mètres, et la fonte de cette glace provoquerait une montée de 7 mètres du niveau des océans. Un tel évènement est bien évidemment impossible en quatre jours, et ne serait pas passé inaperçu ! 

alors de quoi s'agit -il ? simplement de fonte superficielle. Tous les ans, en été, la température de surface d'une partie de la glace atteint 0°C et elle fond superficiellement à certains endroits. L'essentiel de cette eau va couler comme sur la Terre et former des "mares", qui regèleront en hiver.

http://msnbcmedia3.msn.com/j/MSNBC/Components/Photo/_new/091022_GreenlandMeltPonds.grid-6x2.jpg

Les satellites sont capables de distinguer la glace de l'eau liquide en surface car elle renvoie différemment les ondes radar, et peuvent donc cartographier les régions où cette fonte apparaît. Ce phénomène est normal et concerne donc environ 40 % de la surface tous les ans. La quantité de glace fondue est ridicule par rapport aux milliers de mètre d'épaisseur de l'indlandis. Mais cette année, et pour la première fois depuis les satellites (30 ans environ) , elle a concerné pratiquement toute la surface, y compris le "sommet" de la calotte.

Est-ce pour autant "sans précédent" ? d'après les glaciologues,  en fait, ces évènements se produisent rarement, mais on a des traces dans l'enregistrement des carottes glaciaires d'évènements de fonte au sommet, le dernier datant de 1889. Dans le passé, ils se sont produits en moyenne une fois tous les 150 ans depuis 10 000 ans, mais de façon irrégulière, car il n'y a pas eu d'évènements de ce genre pendant 700 ans autour du "petit âge glaciaire", en revanche , il y en a eu quatre pendant l'optimum médiéval.

Il s'agit donc d'un évènement rare à l'échelle humaine, mais pas à l'échelle géologique, plus courant dans les périodes chaudes bien sûr et absent dans les périodes froides. Indéniablement, la période actuelle est plutôt chaude, mais le retour de cet évènement une centaine d'années après le précédent n'est pas anormal (ce qui le serait, c'est qu'il se multiplie à l'avenir).

Le réchauffement du Groenland est-il géologiquement exceptionnel? il y a quelques années, un bloggueur avait représenté l'enregistrement des températures telles qu'on peut les lire sur les carottes glaciaires, d'après les données GISP2 publiées par Alley en 2000 

voila sur les 600 dernières années :

http://www.foresight.org/nanodot/wp-content/uploads/2009/12/histo61.png

Effectivement, on voit une montée spectaculaire en "crosse de hockey" de l'époque moderne - ça semble bien pointer une origine anthropique ! notons quand même que la montée, comme souvent avec les proxies, semble démarrer plutot au milieu du XIXe siècle et non à l'époque moderne, qui n'apparait pas de toute façon dans les courbes puisque les glaces ne commencent à être fiables qu'avant 1900. A priori il n'y a donc pas de lien directe entre cette montée et le CO2.

Que se passe-t-il si on remonte le temps ?

voici la courbe depuis 800 

http://www.foresight.org/nanodot/wp-content/uploads/2009/12/histo5.png

oups, la montée du XIXe siecle semble tout à coup assez ridicule devant celle autour de l'optimum médiéval de l'an 1000. Rappelons que c'est à cette époque que le Groenland a été découvert et colonisé par le viking Erik le Rouge, qui lui a donné ce nom de "pays vert" - même si évidemment il n'était surement pas couvert de prairies, le climat était probablement plus doux et chaud que maintenant, jusqu'à ce que le petit âge glaciaire extermine les colonies vikings qui s'y étaient installées. Meme en tenant compte de la période 1900-2000 qui n'est pas sur ce graphique, l'optimum médiéval était probablement plus doux que maintenant, au moins au Groenland.

Si on remonte le temps, on s'aperçoit que les fluctuations d'amplitude et de vitesse comparables à l'actuelles étaient courantes dans les derniers millénaires :

 

depuis - 3000 :

http://www.foresight.org/nanodot/wp-content/uploads/2009/12/histo4.png

même l'optimum médiaval semble petit maintenant par rapport aux périodes plus chaudes du passé, dans un contexte de refroidissement général depuis 5000 ans, probablement lié aux variations astronomiques d'ensoleillement (cycle de précession des équinoxes qui modifie l'ensoleillement relatif en été et en hiver). En revanche la variabilité en dent de scie est trop rapide pour être astronomique : elle signe de mécanismes internes de variabilité (cycles océaniques ?) qui ne sont pas encore bien déterminés. Et la variabilité moderne n'a rien de spécial à cette échelle.

Sur les périodes plus grandes, on voit que l'époque actuelle (appelée par les géologues "l'holocène") est globalement une période chaude interglaciaire, de durée d'ailleurs plutôt anormalement longue (là encore, pas d'explication connue sur cette durée à ma connaissance). Voilà à quoi ressemble l'holocène depuis la fin de la dernière glaciation (marquant l'apparition de l'agriculture et la transition vers le néolithique, il y a environ 12000 ans) :

http://www.foresight.org/nanodot/wp-content/uploads/2009/12/histo2.png

 

et sur les derniers 400 000 ans :

http://www.foresight.org/nanodot/wp-content/uploads/2009/12/vostok.png

Evidemment la crosse de hockey initiale est devenue un détail insignifiant de la courbe. La fonte "sans précédent" de cette année est probablement un phénomène "très courant" des périodes interglaciaires, à cette échelle. Et il n'y a rien dans ces courbes qui montrent que les températures actuelles soient exceptionnelles par rapport au passé. Ca ne signifie pas bien évidemment que le CO2 ne soit pas un gaz à effet de serre et qu'il ne contribue aucunement au réchauffement. Ca prouve seulement qu'il y a d'autres causes de variabilité et que le CO2 n'a pas (ou pas encore) eu d'effet significativement supérieur à ces causes naturelles, d'après en tout cas ces observations. 

Partager cet article
Repost0
11 juin 2012 1 11 /06 /juin /2012 13:55

Dans une actualité climatique plutôt calme (il semble que le sommet de Rio+20 n'attire pas vraiment la passion des commentateurs, qui sont plus concernés par les mauvaises nouvelles économiques de la zone euro, que par un nième sommet dont il apparait de plus en plus qu'il ne servira pas à grand chose), une petite polémique est arrivée autour d'un nouvel article tendant à "prouver" la réalité du changement climatique. Cette publication (J. Gergis, R. Neukom, S.J. Phipps, A.J.E. Gallant, and D.J. Karoly, "Evidence of unusual late 20th century warming from an Australasian temperature reconstruction spanning the last millennium", Journal of Climate, 2012) , annoncée en particulier sur Realclimate, a connu une drôle de mésaventure. Un lecteur du site "climatosceptique" (ou , je préférerais dire, "climatocritique") ClimateAudit a signalé qu'il ne parvenait pas à retrouver les résultats de la publication. Après vérification, il s'est trouvé que les auteurs n'avaient pas suivi la méthodologie qu'ils avaient eux même décrite, et du coup leurs résultats étaient faux (ou du moins pas conforme à ce qu'ils annonçaient). Le problème a été jugé suffisamment grave pour que la publication soit momentanément retirée du journal, ce qui est exceptionnel (il y a parfois des errata mais il est très rare qu'une publication soit supprimée, même momentanément, après parution).

 

De qui s'agit-il? l'article offre une nouvelle version d'une reconstruction des températures passées en utilisant des "proxies", c'est à dire des indicateurs indirects de température pour remonter aux températures d'avant le XIXe siècle, époque où les thermomètres ont commencé à être largement utilisés. Auparavant, on a peu ou pas de mesures instrumentales, et il faut recourir à des indicateurs indirects, qui peuvent être très variés : cernes d'arbres, sédiments organiques, teneurs isotopiques.. voire date des vendanges ou de floraison. Ces différentes quantités sont plus ou moins corrélées avec la température, et l'idée est qu'en en prenant un nombre suffisant, leur moyenne donnera une indication fiable des températures passées.

Spécifiquement, les auteurs ont utilisé des proxies pour reconstruire les températures de l'Australie depuis 1000 ans, en publiant cette figure

http://www.realclimate.org/images//GergisFigure4.jpg

Cette figure montre la forme caractéristique dite de "crosse de hockey", célèbre depuis la première figure publiée par Mann et al. en 1998, avec une montée rapide au XXe siècle semblant bien plus nette que les variations des siècles passées, ce qui est censé prouver que l'influence anthropique cause des variations sans précédent dans l'histoire depuis 1000 ans.

Cependant, les méthodes statistiques utilisées pour produire ce genre de courbes ont fait l'objet d'une vive et longue polémique, principalement entre les climatologues et l'auteur du blog ClimateAudit, Steve McIntyre, qui a travaillé avec un économiste, McKitrick, pour montrer que les résultats de Mann et al. étaient entachés de bien plus d'incertitude que ce qu'il prétendait. Ces deux auteurs n'étant pas climatologues (l'un est ingénieur retraité des mines et l'autre économiste),  mais néanmoins versés en statistiques, cela a conduit à l'une des controverses les plus spectaculaire du débat climatique, chaque camp accusant l'autre d'incompétence.

D'où vient le problème selon McIntyre et McKitrick? sans entrer dans les détails techniques, je vais essayer de l'expliquer (en tout cas comme je l'ai compris). Un "proxy" n'est pas une mesure directe de température T. C'est un indicateur d'une autre quantité, par exemple l'épaisseur , ou la densité d'un cerne d'arbre, ou tout autre quantité utilisée. Soit X cette grandeur. Il faut donc à un moment ou à un autre , convertir cette quantité X en une température T. Pour cela, on a forcément besoin de déterminer un coefficient de proportionnalité entre la variation de X et la variation de température (par exemple 1 mm de plus = 1°C , ou 2°C , etc..). Bon mais comment déterminer ce coefficient ? 

La façon la plus sensée, et en fait la seule utilisable, c'est d'utiliser une période où on peut mesurer à la fois X et T, et calibrer l'un en fonction de l'autre. Evidemment, cette période ne peut être que la période moderne, celle où on mesure à la fois les températures et X. La manière la plus simple est de porter alors T en fonction de X, et de déterminer la pente par une regression linéaire entre les deux. A priori cette méthode semble censée, et satisfaisante.

Où est le "hic" ? le "hic" est le suivant. Dans la mesure où on établit le coefficient par une comparaison entre X et T, forcément, et par construction, la courbe des températures est bien reproduite par la courbe des proxies dans la période de calibration. C'est forcé, puisque on a ajusté l'une sur l'autre "au mieux". Notons aussi que pour considérer que le proxy est un "bon" proxy, on va forcément lui demander d'être bien corrélé aux températures. C'est logique, puisque si il n'était pas corrélé aux températures, on ne considérerait pas que c'est un bon indicateur. Tout cela paraît du bon sens ... mais le diable est dans les détails. En effet SI le proxy variait pour une autre raison que la variation de T, mais "dans le bon sens", alors on penserait que c'est un bon indicateur, et on le garde dans l'échantillon ... mais rien ne dit que c'est VRAIMENT un bon indicateur, et en particulier que la corrélation reste bonne dans le passé ! 

Autrement dit la procédure sélectionne automatiquement les proxies dont la corrélation avec T est bonne dans le présent, mais n'assure nullement que ce soit vrai dans le passé. Que se passe-t-il alors si on "pollue" l'échantillon avec des mauvais proxies ? ces mauvais proxies ne vont pas perturber la courbe récente, en revanche, ils vont aléatoirement varier dans le passé, ce qui fait qu'en en faisant la moyenne, on aura facilement une courbe "plate" dans le passé, alors qu'elle sera bien montante dans le présent (ce qu'on appelle techniquement une"perte de variance" dans le passé). Bref, une belle crosse de hockey .... même avec des indicateurs faux ! en particulier McIntyre et McKitrick ont montré qu'ils pouvaient retrouver une crosse de hockey avec des "proxies" totalement faux (générés aléatoirement) mais sélectionnés sur le fait que par hasard ils variaient correctement dans la période (moderne) de calibration. Ceci explique aussi que la montée moderne paraisse bien plus "précise" que le reste de la courbe.

Evidemment, ça ne prouve pas que la courbe soit fausse; ça la rend juste ..douteuse. S'en est suivi une décennie de polémiques pour savoir si ce phénomène était marginal , ou fondamental. Dans la foulée, McIntyre a scruté en détail plusieurs proxies utilisés par les climatologues (dont les cernes d'arbres des "bristlecones" , ceux de la région de Yamal) pour montrer que les échantillons retenus étaient douteux. Dans un cas (les sédiments d'un lac finlandais publiés dans Tijlander et al..), il a même repéré que le proxy variait en sens inverse à l'époque moderne , par rapport au passé : en effet normalement les périodes chaudes correspondait à une teneur plus grande en matière organique, et plus faible en matières minérales (ces dernières étant analysées aux rayons X). Mais à l'époque moderne, probablement à cause des travaux de voirie autour du lac, une pollution minérale avait augmenté la teneur , alors que l'époque se réchauffait. La non prise en compte de ce phénomène a conduit à calibrer le proxy avec le mauvais signe, ce qui l'a "retourné" dans le passé, en donnant le signal opposé à la réalité. La polémique entre McIntyre et Mann a conduit le premier à donner le surnom de "upside-down Mann" au second. Celui-ci n'a jamais reconnu publiquement l'erreur, mais en réalité elle a été corrigée dans des articles subséquents (mais pas tous ..).

http://climateaudit.files.wordpress.com/2009/09/tiljander_rotated.gif

Densité en sédiments minéraux du lac Korrtajarvi, publié dans Tiljander et al. 2003 (échelle à l'envers vers le bas). La densité est corrélée négativement dans le passé (moins de densité en période chaude autour de l'an 1000), mais positivement actuellement (plus de densité) à cause des pollutions modernes. 

Revenons à Gergis et al. Quelle a été leur erreur ? en fait curieusement il semble qu'elle soit parti d'une bonne intention, c'est d'essayer d'éliminer les mauvais proxies en ne considérant pas vraiment la corrélation "tout compris", mais la corrélation entre les variations corrigées de la tendance linéaire. C'est à dire, au lieu de considérer X et T, on considère uniquement les résidus une fois qu'on soustrait leur variation linéaire; a priori, ceci devrait donner des indicateurs plus fiables : en effet si la corrélation est dominée par la simple croissance linéaire au cours du XXe siecle (ce qui est souvent le cas), alors le risque de confusion est plus grand parce que des tas de phénomènes différents peuvent produire des tendances linéaires. Par exemple, les cernes d'arbre peuvent grossir non pas à cause de T mais à cause de l'augmentation du CO2, ce qui ne prouverait pas du tout la montée en température. En raisonnant sur les variations plus fines , une fois la tendance linéaire soustraite, on peut penser que la corrélation est plus significative, car moins probablement obtenue par un autre effet. 

Cette méthode était donc bonne en principe, mais il semble malheureusement que Gergis et al... ne l'ont simplement pas appliquée ! c'est à dire qu'ils ont en fait testé des corrélations avec la tendance linéaire, contrairement à ce qu'ils annonçaient dans l'article. McIntyre remarque malicieuement que si ils avaient juste fait comme d'habitude, en gardant la corrélation linéaire comme les autres, personne n'aurait rien trouvé à redire (à part lui ...). Mais voilà, ayant annoncé une meilleure méthode, on pouvait quand même s'attendre à ce qu'ils l'appliquent ! 

Pour le moment, l'article est "retenu", et on ne sait pas quelle nouvelle version va sortir. Vont-ils essayer en ne gardant que les "bonnes corrélations" sans la tendance linéaire ? (ce qui risque d'en éliminer un paquet, et ne garantit peut être pas qu'ils retrouvent la courbe !!). Ou bien vont-ils revenir à la bonne vieille méthode .. qui sera alors tout autant critiquée que les autres ? en tout cas, ça semble confirmer que les crosses de hockey sont de façon générique douteuses et soumises à critique. Rappelons que le fameux "hide the decline" était précisément une opération pour "cacher" la fin d'une courbe de proxies,  qui avait le mauvais goût de ne plus varier dans le même sens que les températures ... tout cela ne laisse quand même pas l'impression de résultats rigoureux et fiables ! 

 


Partager cet article
Repost0
16 janvier 2012 1 16 /01 /janvier /2012 17:30

Dans un article récent, le climatologue J. Hansen présente une étude quantitative des événements climatiques extrêmes et de leur évolution au cours du XXe siècle. Pour cela, il étudie la distribution de températures moyennes sur des régions de taille limitée du globe (des carrés de 250 km de côté), pendant quelques mois, et trace la courbe représentant la distribution de ces événements, décennie par décennie. Pour une période de référence donnée, la courbe obtenue est proche de la distribution dite "normale de Gauss", qui donne une courbe en cloche autour d'une valeur moyenne. Une distribution gaussienne de probabilité est complétement déterminée par 2 valeurs

* la valeur centrale (la valeur la plus probable) x0

* la dispersion ou "écart type" autour de cette valeur, c'est à dire, l'écart moyen que les valeurs prennent autour de cette moyenne, notée usuellement σ

La connaissance de ces deux valeurs permet de calculer la probabilité d'avoir la variable x entre deux valeurs proches, x et x +dx (où dx est un petit intervalle, par exemple entre 2  et 2,1 ) : 

C'est la représentation de cette fonction dite "densité de probabilité" qui est donnée par la célèbre "courbe de Gauss", pour une distribution dite "normale" (A noter que contrairement à ce qu'on croit souvent, rien n'oblige une distribution de probabilités à être "normale". Le théorème central limite assure simplement que c'est le cas limite quand on regarde la moyenne d'un grand nombre de distributions quelconques indépendantes, ce qui est le cas quand une grandeur dépend d'une multitude d'influences différentes indépendantes - mais ce n'est pas forcément le cas).

Si on mesure l'ecart de la variable x, soit x-x0,  "en nombre de fois l'écart type σ ", ce qui revient à poser u = (x-x0)/s , alors  c'est une courbe universelle, le pourcentage de valeurs s'écartant d'un certain nombre de fois σ étant toujours le même. Ainsi

* 68 % des fois environ, la valeur x est écartée de x0 à moins de 1 σ

* 95 % des fois environ , la valeur x est écartée de x0 à moins de 2 σ

* 99,7 % des fois environ , la valeur x est écartée de x0 à moins de 3 σ

 sd.gif

il y a donc moins de 0,3 % de chance de s'écarter de la valeur centrale de plus de 3σ, et que la moitié (0,15 %) de chaque coté : un évènement écarté de plus de 3σ est donc considéré comme "exceptionnel". 

Pour en revenir aux températures, donc, Hansen et al. choisissent une période de référence dont ils calculent la moyenne et l'écart type σ (les résultats vont dépendre de la période choisie) pour chaque zone. Puis, pour les autres périodes, ils tracent l'écart par rapport à la moyenne de la période de référence, divisé par l'écart type de la période de référence. Autrement dit, ils comparent les histogrammes des températures des différentes périodes à celle de référence, en les normalisant sur les paramètres de la période de référence. Il est à noter qu'en normalisant une distribution normale sur ses propres valeurs, on retombe toujours sur la même courbe standard et donc on ne peut voir aucune variation ! il faut la normaliser sur une autre période pour la comparer à elle.

Hansen.jpg

Si il n'y avait pas de variation climatique, les histogrammes devraient évidemment être constants, aux incertitudes statistiques près. En fait, ils notent une variation sensible de l'histogramme, à la fois dans la valeur moyenne, mais, ce qui est plus surprenant, également dans la largeur de la distribution σ . Cela rend les évènements "extrêmes" plus probables, à la fois à cause du déplacement moyen et de la largeur plus grande. Ainsi, ils concluent que les évènements extrêmes comme la canicule de Russie ou la sécheresse du Texas sont "vraisemblablement " attribuables au changement climatique.

Il n'est évidemment pas question de refaire ici l'étude de Hansen et al., qui sont experts dans le traitement des données climatiques. Cependant, un détail curieux m'a frappé en regardant ces courbes. L'élargissement est bien sûr notable, et il peut facilement être perçu en regardant la baisse de la valeur maximale centrale de la distribution. En effet, une propriété mathématique d'une courbe de Gauss est que sa surface est directement proportionnelle au produit de son amplitude par sa largeur σ . (La valeur exacte est racine(2π)*A*σ mais le coefficient constant n'a pas d'importance). Comme les histogrammes sont normalisés à 1 (ce sont des probabilités), il en résulte que l'amplitude maximale est inversement proportionnelle à la largeur (A = 1/(racine(2π)*σ), ce qu'on peut vérifier de visu : plus le pic est large, moins son maximum est élevé.

La chose un peu curieuse, c'est que l'élargissement semble s'etre produit assez tot, dans les années 80-90 (baisse de l'amplitude, mais peu de décalage en température), et qu'il a été ENSUITE suivi d'un décalage en température, à largeur à peu près constante.

hansenzoom.jpg

Qu'est ce que cela signifie? je n'en sais rien, mais ça ne semble pas avoir été relevé par les auteurs. Ca semble en tout cas montrer que l'élargissement n'est pas directement imputable au même phénomène que le réchauffement. Est ce que c'est due à une autre cause (variation naturelle) ? est ce que ça pourrait être dû à des artefacts de mesures de température dans la période moderne par rapport aux plus anciennes ? aucune idée, mais il serait souhaitable de creuser un peu la question pour savoir si toutes les variations observées sont vraiment imputables aux mêmes causes.... et donc extrapolables dans le futur.

[PARTIE INUTILE , LA FIGURE EN QUESTION A ETE SUPPRIMEE DANS UNE NOUVELLE VERSION ]

Une autre chose également curieuse est que ce phénomène semble dépendre de la période de référence sur laquelle on calcule le σ. Là encore il y a sûrement une subtilité statistique (la discussion dans le papier n'est pas très explicite), et en particulier j'ai du mal à voir la différence entre leur figure 4 (ci-dessus) et leur figure 9, où la variation de l'écart type n'apparait pas quand on prend comme référence les 30 dernières années :

 

HansenFig9.jpg

Je n'en ai pas très bien compris la raison (il est évident que changer de période de base change l'écart type, mais pourquoi ça influe sur la DIFFERENCE d'écart type entre différentes périodes ?), si un lecteur plus perspicace pouvait nous éclairer ...

[FIN DE LA PARTIE INUTILE]

Dans l'ensemble, une impression que j'ai souvent eue est que les études statistiques sur le climat s'accompagnent souvent de points peu clairs de statistique, mal exposés ou mal compris, et sont souvent "interprétées" assez sommairement. Les discussions sur les reconstructions par proxies ont montré quand même qu'il y avait facilement des possibilités d'artefacts dans les traitements statistiques, il est utile de garder ça en mémoire ...

 

 

 

 

 

 

Partager cet article
Repost0
29 décembre 2011 4 29 /12 /décembre /2011 09:26

La nouvelle vient de tomber : 2011 est l'année où la température moyenne a été la plus chaude en France depuis les mesures instrumentales. La température moyenne de l'année à atteint 13,6 °C, soit 1,5 °C de plus que la moyenne des années depuis 100 ans. De manière un peu atypique cependant : ce sont les saisons intermédiaires, printemps (très beau mois d'avril et de mai) et automne (en particulier novembre) qui ont été particulièrement chaudes, alors que l'été a été plutôt maussade, avec un mois de juillet dont les vacanciers ne gardent pas spécialement un bon souvenir. Pas de canicule donc comme en 2003, plutot un souvenir de printemps et d'automne doux, voire chaud.

http://www.futura-sciences.com/uploads/RTEmagicP_2011-annee_la_plus_chaude_ide_02_txdam26615_80f506.jpg

 

Autre curiosité : si la France a battu des records, il n'en est pas de même pour le monde dans sa globalité, l'année 2011 ne se place qu'en dixième position, phénomène sans doute explicable par une phase "La Niña" correspondant à des années plutôt froides au niveau mondial. Notons quand même que 2011 est l'année "La Niña" la plus chaude.

Alors que penser de tout cela? manifestement le record annuel de la France n'est pas typique du monde entier, il n'est donc pas la preuve d'une accélération du RC. On peut plutôt y voir la confirmation d'un RC moyen mesuré depuis 30 ans, superposé à des fluctuations naturelles aléatoires qui ont, cette année, touché plutôt l'Europe occidentale (alors que l'année 2010 avait, elle, été nettement plus fraîche). Il n'y a donc aucune information réellement nouvelle du point de vue cilmatique : on sait que l'Europe s'est réchauffé en moyenne de plus de 1°C depuis 30 ans, et qu'il y a en plus des fluctuations naturelles , et donc il est normal que des records soient battus, la probabilité d'atteindre des niveaux élevés augmentant naturellement quand la moyenne augmente. Mais cela ne modifie en rien l'estimation de la hausse moyenne sur 30 ans , bien sûr.

Ce qui est plus intéressant, c'est de considérer ça comme une année "test" de ce que veut dire 1,5 °C de plus. Contrairement à 2003, ça n'a pas été accompagné d'une canicule en été, et donc, finalement, les gens ont trouvé plutôt agréable de se promener en T shirt en avril ou en novembre. A ma connaissance, ça n'a pas bouleversé l'agriculture, les vendanges ont été plutôt bonnes. La neige n'est pas tombée avant le 20 décembre, certes, mais des chutes de neige abondantes ont redonné le sourire aux stations de ski juste avant le début des vacances. Bref, difficile de déceler cette année des catastophes climatiques devant plonger la France dans le chaos, voire signer la disparition de sa population comme certains le prévoient parfois.

Il faut rappeler que effet mesurable ne signifie pas forcément effet catastrophique. Que les mésanges charbonnières gagnent 100 mètres en altitude, ça peut être mesurable, sans que ça bouleverse la vie des gens (ça aurait fait quoi que les mésanges charbonnières vivent déjà 100 mètres plus haut en altitude,  AVANT le RC,  au fait ?). Donc on aimerait quand même une justification un peu plus convaincante des dégâts potentiels dus au RC. A noter que les 1,5 °C de plus ne sont nullement négligeables par rapport à l'amplitude moyenne du RC prévu au XXIe siecle, de plus mesuré par rapport à la moyenne du XXe siecle. Si on mesure par rapport à son début, on est autour de 2°C, donc déjà le même ordre de grandeur de ce qu'on nous prévoit pour le prochain siècle (rappelons que la pente moyenne mondiale des 30 dernières années n'est toujours que de 0,15°C / décennie,  donc 1,5 °C par siècle).

La méthode la plus simple pour estimer des effets "au premier ordre" est la bonne vieille règle de trois, la règle de proportionnalité qui revient à appliquer une hypothèse linéaire; évidemment les choses peuvent être modifiées par des effets non linéaires, des effets de seuil, des rétroactions, mais en premier ordre de grandeur, on peut commencer par des approximations linéaires, quitte ensuite à étudier d'un peu plus près les effets non linéaires.

Alors au premier ordre, quels ont été les effets d'un RC de 2°C depuis le début du siècle en France ? j'avoue que j'ai beau me creuser la tête, j'ai du mal à en donner une estimation en terme de coûts et de catastrophes. En fait soyons francs : je ne vois pas du tout en quoi avoir 2°C de moins il y a 100 ans faisaient que nos ancêtres vivaient mieux, et donc pourquoi avoir 2°C de plus maintenant nous gêne vraiment. Les différences de vie que je vois, elles sont bien sûr dues essentiellement au changement total de mode de vie dû à l'industrialisation, et donc à l'emploi des énergies fossiles - et ces différences de vie sont considérées en général comme POSITIVES. Après tout, quand on dit qu'on ne va quand même pas revenir au Moyen Age, ça suppose quand même qu'on préfère vivre maintenant qu'il y a quelques siècles... bien que le taux de CO2 soit nettement supérieur. Ca semble prouver que c'est quand même loin d'être le principal problème, non ?

En revanche, si on applique la simple "règle de 3" aux conséquences d'une diminution des fossiles, qu'elle soit imposée ou volontaire,  alors là on trouve tout autre chose  ! la corrélation linéaire entre fossiles et niveau de vie est évidente, même si il y a une certaine dispersion. On peut estimer que la richesse mondiale a été environ mutlipliée par 100 LINEAIREMENT (en premiere approximation) avec la consommation d'énergie (se répartissant environ en un facteur 10 pour l'augmentation de la population et un autre facteur 10 pour la consommation par habitant). Se passer de fossiles actuellement, reviendrait, au bas mot, à supprimer 90  % de la richesse mondiale, dans l'approximation linéaire.

Alors là viennent bien sûr les arguments de non linéarité. Ce que je dis est complétement stupide, bien sûr, parce que j'oublie totalement les rétroactions climatiques, le méthane, la fonte des glaces, tout ça va s'accélérer, ça va être une catastrophe, c'est sûr, d'ailleurs tous les journaux le disent. Pareil pour les fossiles, c'est idiot, parce qu'il y a plein de moyens pour s'en passer, suffit de développer la technologie, de faire de la recherche, de développer des renouvelables, on ne peut pas du tout appliquer la règle de proportionnalité, ça n'a aucun sens (je résume ici en quelques lignes les arguments qu'on m'a opposés quand j'ai présenté ce genre d'estimation à d'autres occasions).

Je ne vais pas démontrer que ces arguments sont faux, il est tout à fait possible que toutes ces non linéarités existent et inversent finalement totalement les conclusions. Parce que finalement, le fond du discours climatique, ça revient à dire qu'il serait bien plus grave d'avoir quelques °C de plus que se passer de fossiles, ou encore, de façon symétrique, qu'il serait bien plus facile de faire face à la dépletion fossile qu'aux conséquences de quelques °C de plus.  Alors qu'en réalité les estimations linéaires à la louche de ce qui s'est produit au XXe siècle disent exactement le contraire. Ce qui est intéressant ici, c'est que l'inversion des conclusions ne peut venir que de l'invocation de phénomènes fortement non linéaires modifiant les conclusions linéaires, mais en sens inverse pour les deux : des phénomènes fortement non linéaires sont nécessaires pour justifier les catastrophes climatiques; Mais ils sont aussi nécessaires pour éviter les catastrophes liées à la dépletion fossile. La dissymétrie est absolument frappante : adopter le discours climatique actuel revient donc à supposer que des hypothèses de non linéarité hasardeuses,  et non fondées sur des connaissances actuelles,  permettent de tirer des conclusions plus robustes et plus fiables, que des simples constatations linéaires fondées sur les données actuellement connues - qui disent simplement que le niveau de vie de l'humanité est bien plus sensible à sa consommation de fossiles qu'à la température moyenne à laquelle elle vit, dans des limites raisonnables de quelques °C.

 

Est-il besoin de préciser que mon esprit de physicien est légèrement heurté par cette assertion ? 

Partager cet article
Repost0
18 décembre 2011 7 18 /12 /décembre /2011 09:20

Je fais un aparté sur le problème des réserves pour rapporter une petite péripétie qui illustre bien, sur un exemple en réalité anodin, l'état actuel des travaux et discussions climatiques sur la toile. C'est une "analyse de cas" qui me parait instructive.

 

Le point de départ est un article paru récemment écrit par Grant Foster et Stefan Rahmstorf (téléchargeable ici) . G Foster est au départ statisticien et s'est engagé à fond dans la défense des climatologues, en ouvrant un blog sous le nom de Tamino, blog appelé, assez ironiquement selon moi, "Open Mind" car il ne brille pas particulièrement par sa tolérance aux contradicteurs (il s'est lui même attribué le titre de "bulldog" du climatologue James Hansen, avant de le supprimer en réalisant le côté un peu ridicule de ce titre). Il est très affûté sur les questions statistiques, en revanche, il est beaucoup plus léger à mon avis sur les questions de physique et d'attribution - en concluant à peu près systématiquement que toute variation non explicable par des facteurs connus est donc entièrement attribuable à l'influence anthropique. S. Rahmstorf est climatologue et s'est fait en particulier connaître pour avoir réévalué assez nettement à la hausse les prédictions de la hausse du niveau des océans, prévoyant plutot un mètre que les 30 à 50 cm figurant dans le rapport du GIEC - je ferai sans doute un post futur sur ce problème. 

Le contexte du travail est, que depuis 10 ans, les températures ne semblent plus vraiment augmenter, sur les courbes "brutes".

 

http://www.cru.uea.ac.uk/cru/info/warming/gtc.gif

 

C'est l'origine d'un débat acharné entre climatosceptiques, qui prétendent que le RC "s'est arrêté", et les climatologues qui arguent (avec raison ) que l'intervalle de 10 ans n'est pas significatif et que les données actuelles ne sont pas incompatibles avec la poursuite du RC, une fois tenu compte des barres d'erreur. Par exemple Tamino avait montré dans son blog que la pente calculée sur les N dernières années était certes plus faible, mais n'était jamais incompatible avec la poursuite de la pente des 30 dernières années, une fois pris en compte les incertitudes. 

http://tamino.files.wordpress.com/2011/07/rates.jpg

Courbe traçant la pente des température entre l'année N et 2010, en fonction de N. La valeur "centrale" de la pente décroit, mais l'incertitude augmente, ce qui fait que la valeur "constante" de 0.15 °C /décennie est toujours dans les barres d'erreur. Notons cependant qu'aucune accélération n'est mesurable.

On peut très bien d'ailleurs comprendre cet argument : la pente moyenne étant de l'ordre de 0,15 °C/ décennie, la variation attendue sur 10 ans est - logiquement - de 0,15 °C environ. Or les fluctuations d'une année sur l'autre sont bien supérieures à cette valeur (on peut avoir 0,5 °C de différence entre une année El Niño et La Niña par exemple). Quand on moyenne sur N années, les statistiques élémentaires nous apprennent que les fluctuations sont divisées par racine(N). En moyennant sur 10 ans, on s'attend donc à des fluctuations "de l'ordre" de 0,15 °C, comparable à la dérive moyenne (le trend). Il est donc parfaitement logique que les moyennes sur 10 ans soient "à la limite" de la significativité. Et donc on peut pinailler longtemps sur la significativité de cette non-hausse, on sera toujours dans les barres d'erreurs. 

Qu'ont donc fait ces auteurs? ils ont publié une courbe de températures "ajustée" en corrigeant les données de facteurs connus pour influencer à court terme l'évolution des températures :

* l'oscillation océanique du Pacifique connue sous le nom de "El Niño/La Niña", connue pour provoquer des alternances de saisons humides ou sèches sur l'Amérique du Sud et l'Océanie (en balance) et influencer le climat mondial, les années "El Niño" étant globalement plus chaudes et "La Niña" plus froides (les années les plus chaudes connues, 1998, 2005, 2010  étant toutes des années "El Niño"").

http://www.esrl.noaa.gov/psd/enso/mei/ts.gif

L'indice composite "MEI" basé sur un certain nombre d'indicateurs climatiques (températures, pression, etc...) et traçant l'oscillation El Niño (en rouge) / La Niña (en bleu). 

* L'activité solaire, qui a aussi une certaine influence (les dernières années ont été "anormalement" calmes, le cycle solaire actuel ayant pris plusieurs années de retard sur son redémarrage, pour des raisons totalement inconnues bien sûr - un exemple de phénomène "inexpliqué" mais certainement pas dû à l'influence anthropique, n'en déplaise à Tamino, ça existe !)

http://www.spaceweather.com/swpod2007/27apr07/prediction_big.jpg

Graphique montrant l'intervalle de prédictions faites en 2007 sur le prochain cycle solaire (le 24) 

http://upload.wikimedia.org/wikipedia/commons/1/12/Hathaway_Cycle_24_Prediction_%28Feb_2011%29.png

La courbe observée, et les prédictions réactualisées, en Février 2011.. nettement plus faibles ! 

 

* Les éruptions volcaniques majeures, qui ont eu lieu deux fois en 30 ans : El Chichón en 1982 et le Pinatubo en 1991. 

 

Les auteurs ont donc corrigé les influences des facteurs précédents pour extraire le comportement à long terme, et voici ce qu'ils obtiennent

http://sciences.blogs.liberation.fr/.a/6a00e5500b4a64883301675ea85282970b-pi

La courbe obtenue est bien plus régulière, parce qu'elle fait disparaître les composantes précédentes, et en particulier les pics importants de température dus à El Niño en 1998. L'interprétation qui en est faite est que donc ça "prouve" que le RC continue et ne s'est pas arrêté, et même que ça "prouve" que c'est dû à l'effet de serre.

J'ai posté quelques commentaires sur la prudence qu'il convenait, selon moi, d'avoir face à cette courbe. La remarque que je fais est essentiellement que la méthode mathématique suivie a une tendance naturelle à gommer toute les variations et à "lisser" la courbe résiduelle le plus possible : c'est simplement dû au fait que les différents facteurs sont pondérés par des coefficients dont la valeur est en elle-même calculée pour minimiser les écarts par rapport à la moyenne. Ainsi, on est quelque part assuré, en les corrigeant, d'avoir la courbe "la plus régulière" possible. Mais ceci PEUT (je dis bien PEUT - je ne dis pas que c'est forcément le cas) introduire un biais en "minimisant" une possible variation sous-jacente , en l'attibuant (de façon erronnée) à un des facteurs qu'on a soustrait, et donc en la faisant "disparaitre" du résultat. Autrement dit la méthode choisie peut conduire à masquer une variation sur la courbe résiduelle.

Ceci dit, je ne pense pas que le résultat monté soit déraisonnable. Personnellement, je n'ai jamais mis en doute que le CO2 devait contribuer au réchauffement, et le CO2 n'a jamais cessé d'augmenter. Mais le point important que je veux soulever est qu'il n'est nullement prouvé que la courbe résiduelle ne contient que l'influence du RC anthropique, contrairement à ce que les commentaires semblent prétendre. Et si il y avait d'autres influences que le CO2 anthropique qui agissaient sur le long terme (comme des oscillations océaniques de longue période), elles peuvent tout autant contribuer à la courbe finale. Ce n'est donc en rien une preuve "d'attribution". 

En fait cette courbe serait intéressante dans un but qui n'est pas développé par les auteurs : la comparaison avec les modèles numériques. On peut penser qu'en gommant les influences externes (volcans, soleil) et le oscillations mal reproduite (ENSO), la courbe obtenue serait un bon point de comparaison avec les modèles, mais cette comparaison n'est pas discutée. Un caractère intrigant , pour moi, est l'absence notable d'accélération de la pente : la courbe est "toute droite". Or ça ne me parait pas être une prédiction naturelle des modèles, qui donnent plutot des courbes incurvées , le forçage radiatif augmentant linéairement avec le temps. L'accélération est d'ailleurs nécessaire si on est censé dépasser 2°C à la fin du siècle, parce qu'avec à 0,15 °C par décennie, c'est finalement la valeur qu'on atteindrait entre 1970 et 2100. Il est un peu curieux de clamer que la trajectoire actuelle nous emmènerait bien au dessus de ce seuil, et de ne pas le voir sur les 40 premières années, une durée nullement "petite" par rapport aux 130 ans totaux (30% environ). L'absence d'accélération  visible de la plupart des changements climatiques est d'ailleurs un phénomène peu discuté et qui me semble important à comprendre. 

Venons-en maintenant aux aspects désagréables de l'histoire, la façon dont cette courbe a été présentée puis discutée sur un blog comme celui de Sylvestre Huet, journaliste à "Libé", 

Sciences2.  (par ailleurs très bien fait sur le plan de l'actualité scientifique, même si il essuie souvent des critiques pour son côté jugé partisan sur des sujets comme le climat et le nucléaire).

 

Il y a quelques mois, le blog de S. Huet n'était pas prémodéré, les commentaires étaient publiés librement. Si les commentaires étaient peu nombreux et relativement sages sur la plupart des sujets, les posts sur le climat, eux, étaient plutôt enflammés et dérivaient souvent en attaques personnelles. M. Huet intervenait peu dans les commentaires, mais il a, comme on dit vulgairement, "pété un câble", en publiant en particulier un commentaire mettant nommément en cause un des posteurs et l'accusant, sous son vrai nom, de poster des insultes à son égard sous un double pseudo. Or il se trouve que je connais un peu les deux pseudos en question, dont l'un que j'ai eu l'occasion de rencontrer personnellement (celui dont le nom apparaissait en clair), et que je suis quasiment certain que ce ne sont pas les mêmes personnes. La personne mise en cause nommément (alors qu'elle ne postait plus depuis un certain temps) m'a prié d'intervenir et j'ai écrit à M. Huet pour lui dire que selon moi, mettre en cause nommément, et à tort, quelqu'un sur son blog relevait de la diffamation. Après quelques échanges aigre-doux, M. Huet a retiré sa mise en cause personnelle, mais aussi décidé de prémodérer systématiquement tous les commentaires sur son blog.

Bon, il en a le droit, il est chez lui. Le problème que j'ai pu expérimenter est ce que cette prémodération s'exerce maintenant bien au delà de la censure des posts injurieux, hors sujets, et illégaux. En réalité M. Huet laisse  toujours passer des posts attaquant directement les posteurs, mais censure certains (dont les miens) qui cherchent simplement à discuter le fond du problème, comme celui-ci. Il a par exemple laissé un de mes commentaires, posté sous "Gilles", mais y a répondu publiquement en mettant en cause le fait que je poste comme scientifique sur un forum au lieu d'écrire des articles. Je trouve la réponse très bizarre, d'abord parce que je n'avais pas posté explicitement comme scientifique - M. Huet s'est permis de "dévoiler" cet aspect, même si il n'est pas secret, vu que je ne l'ai pas particulièrement caché, je ne vois pas en quoi ça m'interdit de poster sur des forums grand public. Ensuite en se permettant de décider où et comment je dois exprimer mes opinions, et finalement, en supprimant purement et simplement des posts de ma part dans lesquels j'expliquais ma position. Tout cela participe selon moi d'une ambiance fort désagréable où le débat de fond est obscurci, détourné, et finalement annihilé en le transformant en des attaques personnelles, des considérations extrascientifiques, et des attitudes relevant plus de la défense d'une idéologie que du débat scientifique (l'honnêté demande quand même de préciser que cet aspect est tout aussi présent chez les climatosceptiques !). 

Pour la petite histoire, je me suis fait aussi "virer" purement et simplement (interdit de poster sur les sujets climatiques) d'un autre forum pour avoir écrit ceci :

"Quand on en est à systématiser la censure et interdire de discuter des sujets sur des forums, au lieu de répondre , je n'appelle plus ça un débat scientifique sain. Pour moi la vraie discussion scientifique est un débat ouvert où tous les arguments peuvent être échangés (même les foireux qui logiquement devraient appeler des réponses montrant à quel point ils sont foireux), et ne devrait pas se produire sous la censure potentielle. Ca concerne bien évidemment tous les domaines de la science, y compris le mien."

Ce post a été jugé inacceptable, ce qui semble montrer que pour certains, la phrase correcte aurait sans doute dû être :

Quand on en est à systématiser la censure et interdire de discuter des sujets sur des forums, au lieu de répondre , j'appelle ça un débat scientifique sain...

Quoi qu'il en soit, elle a abouti... à mon exclusion.

Pour l'autre petite histoire, j'ai moi aussi supprimé quelques commentaires sur mon blog, soit que je trouvais inutilement insultants, soit dont le seul but était (encore une fois) de mettre en cause l'identité personnelle d'un des posteurs. Ca me permet donc de remettre les choses au point :

Apparemment contrairement à l'attitude jugée normale sur d'autres blogs, ce blog n'est PAS destiné au défoulement et à la mise en cause des posteurs, mais aux discussions scientifiques ouvertes et franches. Il n'y aura PAS de censure des commentaires portant sur le fond de problèmes, de quel côté qu'ils viennent. Il y aura, en revanche, suppression des posts mettant en cause nommément les personnes sans rien apporter au débat. Je ne sais pas si ce blog sera très supérieur aux autres par le niveau des posts et des commentaires - j'espère au moins qu'il tranchera au niveau des règles qui s'y appliquent. Et j'en profite pour remercier les lecteurs et les commentateurs pour le niveau général des discussions, très intéressant et correspondant parfaitement à l'esprit dans lequel je l'écris. 

 

 

 

Partager cet article
Repost0
26 novembre 2011 6 26 /11 /novembre /2011 19:18

Deux ans presque jour pour jour après la publication dans des circonstances toujours non élucidées de correspondances électroniques et de différents documents en provenance du Climate Research Unit, affaire décrite couramment comme un "climategate", une nouvelle fournée d'environ 5000 emails a été rendue publique il y a une semaine. Ces mails ont été placés sur un serveur russe. Il se pourrait qu'il s'agisse originellement du même "vol" qui seraient distillé par paquets, années après années : le site indique que 250 000 documents seraient stockés sur un site protégé.

L'affaire du climategate est décrite, selon les sources, comme un des plus gros scandales scientifiques de notre temps, ou comme une péripétie sans importance. La nouvelle livraison n'a pas provoqué un émoi médiatique extraordinaire, et à vrai dire, il ne semble pas qu'elle recèle de révélations fracassantes. Il est d'ailleurs difficile de trouver aussi des révélations " fracassantes" dans la première livraison d'emails; des commission d'enquête officielles ont "blanchi" les scientifiques impliqués (Phil Jones, Keith Briffa, Michael Mann en particulier) de l'accusation de "mauvaise conduite" scientifique, mais ces commissions ont été elles-mêmes jugées partiales par le camp adverse. Une affaire donc somme toute confuse et qui n'aura pas fait évoluer les positions ni dans un sens, ni dans l'autre.

Encore une fois, je vais donner mon avis personnel sur ce que j'ai pu en lire. Tout d'abord, si il est vrai que la méthode de voler des emails est plutot désagréable et peu orthodoxe, on peut admettre qu'on puisse se résoudre à cette extrémité s'il s"agit de révéler un scandale scientifique. Il n'y a pas eu de démenti de l'authenticité de ces emails, et à ma connaissance, aucune action juridique contre ceux qui les ont publiés et commentés sur la toile. Je prendrai donc ces mails comme un matériau d'historien, qu'on peut utiliser comme n'importe quelle source. Que peut-on en tirer?

D'abord, certainement pas des preuves de manipulation organisée des données, d'un complot entre scientifiques visant à falsifier volontairement des résultats. L'argument des climatologues est que ces emails prouvent bien que la science s'est faite "honnêtement". Cependant, le sens général de beaucoup de messages laisse quand même l'impression d'une communauté qui a cherché à "défendre sa salade" en minimisant systématiquement toutes les causes d'incertitude, et en organisant plutot méthodiquement les contre-attaques, y compris en contrôlant l'accès aux publications scientifiques. Plutot qu'une communauté sans a priori , faisant un travail objectif qui pourrait finalement aboutir à n'importe quelle conclusion, les climatologues confirment l'impression d'une communauté "défendant une cause", avec une mentalité de bunker, impression fortement corroborée par le ton général des commentaires de ses supporters. 

Le plus étonnant est cependant la présence dans de nombreux mails de doutes et de critiques que la communauté s'adresse à elle-même, doutes tout à fait honorables et nécessaires dans la démarche scientifique, mais qui tranchent singulièrement avec l'assurance affichée vis à vis de la société que "tout est compris". La plupart des critiques des climatosceptiques trouvent un écho dans certains mails,  où les climatologues expriment les mêmes doutes que ceux qu'ils considèrent comme des "négationnistes". Quelques exemples :

* bien sûr le célebre "hide the decline" (cacher le déclin) de Phil Jones.  Il ne s'agit pas du tout, comme certains l'ont hâtivement commenté, de cacher le déclin des températures qui seraient observé actuellement. Il n'y avait pas de déclin observé dans les températures instrumentales au moment où le mail a été rédigé. Le problème concerne les courbes de reconstructions des températures passées, à l'aide d'indicateurs indirects (les "proxies"). Ces indicateurs, reposant sur des données souvent biologiques comme les cernes d'arbres et la densité des sédiments organiques, sont censés reproduire la température moyenne du globe. Mais ils montrent une fâcheuse tendance  à ne pas coller aux courbes modernes instrumentales. En particulier la dendrochronologie, basée sur les cernes d'arbres, a tendance à montrer une courbe déclinante depuis 1960 alors que les températures instrumentales, elles, montent ! c'est le problème dit de la "divergence", reconnu et discuté parmi les climatologues.

 http://i.dailymail.co.uk/i/pix/2009/12/12/article-0-07949B82000005DC-809_634x447.jpg

Une représentation de la courbe publiée dans le rapport du GIEC superposant la courbe instrumentale (en rouge) à différentes re constructions, dont la celle de Briffa en vert. A droite la courbe verte prolongée après 1960, jettant un doute sur sa capacité à reproduire réellement les températures. Crédit : Daily Mail

le mail de Phil Jones expliqué comment il avait appliqué le "truc" de Michael Mann pour établir un graphique des températures: le "truc" était double, en réalité : effacer la courbe des proxies postérieure à 1960 qui montrait la divergence, et tracer une seule courbe joignant celle des proxies à la température instrumentale moderne, donnant l'impression d'une montée régulière.

Si ce n'est pas une falsfication de données, c'est quand même, pour le moins, une indélicatesse scientifique. L'argument que le "truc" était un "truc mathématique", une astuce de calcul, ne tient pas du tout : ce n'était qu'un "truc" de présentation des résultats, pas du tout un traitement mathématique des données. Et l'argument que c'était "sorti du contexte" ne veut lui non plus rien dire : le contexte et la controverse sur la validité des proxies est parfaitement clair, et tous les commentateurs réellement au courant de l'histoire ne s'y sont pas trompés. Steve McIntyre a fait des analyses détaillées de ce qui avait été effacé, et a montré que d'autres périodes qui ne "collaient pas" avaient aussi été délibérément effacées. Tout ceci donne quand même l'impression d'une présentation "arrangée" pour ne pas susciter trop d'interrogation sur la validité des indicateurs employés pour reconstruire les températures passées, validité justement contestée par plusieurs "sceptiques".

D'autres emails révèlent bien les états d'âmes des climatologues. Ainsi Ken Trenberth se plaignant de ce qu'il ne pouvait pas expliquer l'absence de réchauffement des océans depuis 10 ans, qui ne colle pas aux résultats des modèles, et que c'était une "mascarade". Keith Briffa se plaignant assez méchamment de la tendance à "régresser le verbiage non borné" de son collègue Michael Mann, et critiquant assez vertement ses reconstructions. Tom Wigley se plaignant qu'il y ait eu "un certain nombre de présentations malhonnêtes des modèles", avec un accord "fictif" avec les données, des erreurs se compensant.Dave Shimel mettant en garde qu'il ne s'agit pas de prendre des scénarios d'émissions réalistes , mais seulement illustratifs de certaines situations, qu'elles soient plausibles ou pas. Et que les conseils à donner doivent tenir compte du fait que nous n'avons pas une grande confiance dans les scénarios d'émissions, ni dans les conséquences prévues par les modèles..(!).

De plus de nombreux mails adressent le problème de la demande de communication des données et des algorithmes, avec des stratégies élaborées pour y échapper et détruire les traces (emails, documents), s'y référant.

Tout cela, même si il n'y a pas de preuve de falsification consciente des données, donne quand même l'impression d'un travail rempli d'incertitudes qu'on cherche au maximum à dissimuler. A cet égard, une des phrases qui m'a paru la plus étonnante est celle présente dans un autre mail de Phil Jones, que je reproduis in extenso :

"As you know, I'm not political. If anything, I would like to see the climate change happen, so the science could be proved right, regardless of the consequences. This isn't being political, it is being selfish.

"

Traduction : "comme vous savez, je ne suis pas un politique. Si je voulais quelque chose, ce serait de voir le changement climatique arriver, pour que la science puisse être confirmée, quelles qu'en soient les conséquences. Ce n'est pas être politique : c'est être égoiste".

On s'est un peu gaussé de l'attitude "égoïste" de Phil Jones désirant le changement climatique , quelles qu'en soient les conséquences. Mais le plus étonnant, pour moi, n'est pas là. C'est qu'il "souhaite" que le changement climatique "arrive" , et que la science puisse être "confirmée" (proved right). Mais Phil... vous voulez dire ... que ce n'est pas encore le cas ? 

Partager cet article
Repost0