Bien qu'elle soit rarement posée comme cela, c'est probablement la question qui devrait être primordiale dans les discussions climatiques. J'ai déjà eu l'occasion de souligner que la plupart des efforts que l'on préconisait pour "limiter le CO2" n'avait en réalité aucune action réelle, si ils ne s'accompagnaient pas d'une limitation forcée (par l'interdiction pure et simple d'utiliser les fossiles) de la quantité ultime consommée. En effet, limiter la consommation signifie en général "seulement " limiter la consommation par unité de service : par exemple préconiser l'usage des voitures hybrides qui émettent "moins de CO2" par km ; sauf que personne ne dit
* si on doit limiter le nombre de voitures (au niveau mondial , il y a environ 1 voiture pour 7 êtres humains, alors que c'est plutôt une pour 3 en Europe et une pour deux aux USA : doit-on décider d'interdire aux chinois ou aux indiens de s'offrir des voitures pour se les garder pour nous ? ou doit-on autoritairement diviser par 2 le nombre de voitures en France, et comment et à qui les réserve-t-on ?). On ne dit d'ailleurs pas non plus si on doit limiter le nombre de km ...
* et surtout, combien de temps on va utiliser des voitures. Evidemment on peut toujours espérer qu'on fera rouler des voitures à autre chose que des fossiles, mais ce n'est nullement garanti. Autrement dit, être économe maintenant n'assure pas du tout qu'on soit sûr de limiter la quantité totale de fossiles extraite dans le futur. On ne fera peut être que les laisser à nos descendants. Si c'est vraiment un danger mortel que nous courrons, alors il faudrait s'assurer de moyens un peu plus contraignants....
Bref la seule solution efficace à 100 % serait de limiter autoritairement l'accès aux fossiles. Mais de combien? quelle est la quantité à laquelle vous avons droit au juste ?
Vous trouverez une réponse "magique" sur certains sites. Cette quantité serait de ...
565 Gt (milliards de tonnes ) de CO2 d'ici 2050,
correspondant à environ 150 Gt de carbone (la formule chimique du CO2 implique qu'il y a 44g de CO2 pour 12 g de carbone). Le contenu énergétique est un peu délicat à évaluer car cela dépend de la composition en hydrocarbures, le gaz naturel produisant plus d'énergie que le pétrole, qui lui même en produit plus que le charbon, mais en gros cela correspond à 1 Gtep pour 3 Gt CO2 soit environ 200 Gtep, en arrondissant.
En ordre de grandeur, cela correspond à 20 ans de consommation mondiale actuelle, à raison de 10 Gtep/an, mais 2050, c'est dans 40 ans ..
Oups, 20 ans, c'est pas beaucoup : si on veut entrer dans les clous, soit on continue à émettre la même chose pendant 20 ans et après on ferme le rideau, fini, basta, plus de fossile. Le sevrage risque d'être délicat .... Ou alors on prévoit une décroissance progressive dès maintenant, et le plus "doux" est de programmer une descente à taux constant par an, ce qui correspond à une courbe décroissant exponentiellement (nous retrouvons notre vieille amie l'exponentielle) , à un taux constant de 1/20 = - 5 % /an. Avec une exponentielle décroissante à - 5 %/an, la production totale décroîtrait régulièrement vers zéro avec une quantité ultime finie correspondant à 20 fois la production actuelle.
- 5 % /an, ce n'est pas rien, sachant que la crise économique de 2008 n'a produit une baisse des émissions mondiales de CO2 "que" de - 2,5 % . Il faudrait manifestement soit accepter une décroissance économique rude, soit trouver un miracle énergétique permettant de remplacer 5 % de fossiles par an sans perte d'efficacité économique. Pour ceux qui n'ont pas tous les chiffres en tête, je rappelle que les énergies renouvelables type solaire et éolien ne représentent toujours que 1 % de la production énergétique, et ce malgré un développement de plusieurs décennies ! elles n'ont donc remplacé "que" moins de 0,1 % par an de la production de fossiles, 50 fois moins que le but qu'on se fixe là.
Inutile de dire que c'est pas gagné ....Mais au fait, d'où sortent donc des 565 Gt ?
Voilà un lien obligeamment fourni par notre ami Robert sur un autre forum, qui explique comment on calcule ça.
Première chose : on ne veut pas dépasser 2°C.
Ah bon ok, pourquoi ? en fait personne ne sait très bien. Déjà 2°C par rapport à quoi au juste ? l'ère préindustrielle ? mais il y a déjà eu des variations aussi avant, donc que prend-on comme référence ? le petit âge glaciaire ? l'optimum médiéval ou romain? même si les variations n'étaient pas énormes, ça atteignait quand même plus ou moins 0.5 °C, donc les 2°C ne doivent pas être plus "précis" que +/- 0,5 °C. Ce n'est pas innocent comme nous allons le voir..
ensuite pourquoi 2 et pas 2,5 ou 3 °C ? d'après ce que j'ai pu comprendre, c'est "à la louche" la température maximale constatée dans les enregistrement paléoclimatiques, comme celui de Vostok remontant à 800 000 ans, par rapport à l'actuelle.
On voit que par rapport au "zéro" moderne (à gauche, l'axe des temps étant inversé), les pics précédents n'ont pas excédé "environ" 2°C, mais bon un peu plus quand même. L'argument (si j'ai bien compris ) étant : bon on sait que 2°C de plus ne provoque pas d'emballement climatique donc c'est prudent de rester en dessous de 2°C.
Evidemment la valeur est un peu pifométrique, d'une part parce que ce n'est pas parce que les variations naturelles n'ont pas excédé 2°C dans les 800 000 dernières années que ça signifie que ça serait catastrophique de les dépasser, et ensuite parce que les 2°C sont eux même assez imprécis, y compris dans le "zéro" moderne qui est assez bruité. Il parait que les enregistrements au sommet du Groenland d'il y a 10 000 ans ne sont pas forcément représentatifs de la température moyenne mondiale, que dire alors de ceux d'il y a 800 000 ans dans l'Antarctique ..
Il apparait donc que ces 2°C sont juste un moyen mnémotechnique facile à retenir pour les politiques (qui n'aiment pas quand ça commence à avoir des chiffres après la virgule), mais de toutes façons il semble illusoire de définir précisément une valeur "maximale" basée sur les données scientifiques; bref on prend 2°C parce qu'il faut bien prendre quelque chose.
A remarquer que certains comme Hansen disent que 2°C c'est déjà beaucoup trop ... ce qui montre que le "consensus" est quand même à géométrie un peu variable.
Bon mais ce n'est que le début. Comment transformer les 2°C en quantité de carbone? ben c'est simple, en connaissant la sensibilité climatique, c'est à dire la façon dont la température change avec le CO2, et qui s'exprime par l'augmentation de température causée par un doublement de la concentration en CO2.
La température variant avec le forçage, et logarithmiquement avec la concentration en CO2, pour ceux intéressé par le calcul mathématique, je donne la formule permettant de calculer le réchauffement total depuis l'époque préindustrielle, à partir d'une concentration initiale de 280 ppm
∆T = S * ln(C/280) / ln(2)
où C est la concentration en ppm et S la sensibilité climatique
Il y a juste un détail : c'est qu'on ne connait pas précisément cette quantité S, c'est en fait l'une des principales questions posées aux climatologues, et l'un des buts essentiels du GIEC, c'est de la préciser ! la valeur actuellement admise par le GIEC est "probablement entre 2 et 4,5°C". Un facteur 2 d'incertitude ne sera jamais considéré dans aucune science comme une valeur "précisément connue" bien sûr; evidemment, une telle incertitude ne peut que se répercuter sur la quantité de CO2 correspondant à une valeur de la température donnée. Si elle est de 2°C par doublement, on peut doubler la quantité de CO2 préindustrielle, qui était de 280 ppm, pour atteindre 560 ppm en restant dans les 2°C. Et si elle est de 4,5 °C, pour rester dans les 2°C, on ne peut se permettre que "environ" 2 fois moins de variation de CO2 (en réalité la dépendance est logarithmique, la valeur exacte est de 2^(2/4,5) = 380 ppm ... valeur déjà dépassée (on est presque à 390 ppm).
Mais me direz vous , avec une sensibilité de 4,5 °C, si on a déjà dépassé 380 ppm, pourquoi n'a-t-on pas déjà atteint les 2°C (on est toujours qu'à 0.8 °C) ? le problème est qu'il s'agit là de la sensibilité "à l'équilibre" atteinte au bout d'un temps infini. Or dans les modèles, le climat met un certain temps pour se stabiliser. On n'observerait actuellement qu'une partie du réchauffement final. Comme on est contraint par les observations actuelles à seulement 0,7 °C de réchauffement environ, cela veut dire que plus la sensibilité est élevée, plus le temps mis à l'atteindre doit être long (pour expliquer qu'on en a qu'une partie).
Le problème est que ces estimations sont terriblement dépendantes des modèles et pas du tout certaines. Comment va-t-on faire pour en déduire une valeur utile alors ? Et bien on va calculer des "probabilités" pour que ça dépasse ou non 2°C en fonction de la quantité émise de CO2, et imposer une "probabilité maximale" à ne pas dépasser.
Et le verdict tombe : la quantité à ne pas dépasser pour avoir 80 % de chances de ne pas dépasser 2°C est, nous l'avons dit, ces fameux 565 Gt de CO2 avant 2050.
Quand on écoute ce que disent les climatologues, ça paraît tout à fait sérieux :
The 565-gigaton figure was derived from one of the most sophisticated computer-simulation models that have been built by climate scientists around the world over the past few decades. And the number is being further confirmed by the latest climate-simulation models currently being finalized in advance of the next report by the Intergovernmental Panel on Climate Change. "Looking at them as they come in, they hardly differ at all," says Tom Wigley, an Australian climatologist at the National Center for Atmospheric Research. "There's maybe 40 models in the data set now, compared with 20 before. But so far the numbers are pretty much the same. We're just fine-tuning things. I don't think much has changed over the last decade."
"Le chiffre de 565 Gt a été trouvé par un des modèles les plus sophistiqués simulés par ordinateur qu'on construit les climatologue du monde entier [whouaah !]. Et ce nombre est confirmé par les derniers modèles climatiques finalisés à l'avance pour le prochain rapport du GIEC. "En les regardant comme ils viennent, ils diffèrent à peine entre eux, dit Tom Wigley, un climatologue australien au Centre National pour la recherche atmosphérique. Il y a peut etre 40 modèles maintenant, comparé aux 20 qu'il y avait avant. Mais pour le moment les chiffres sont toujours les mêmes. Nous ne faisons que raffiner les choses. Je ne pense pas que les choses ont beaucoup changé pendant la dernière décennie".
Evidemment quand on lit ça on ne peut être qu'impressionné ! les calculs les plus sophistiqués ont abouti au chiffre magique de 565 Gt, c'est donc sérieux !
Je préfère prévenir le lecteur que c'est à peu près à ce niveau du raisonnement que je trouve qu'il s'écarte totalement de la rigueur scientifique et emploie à tort et à travers les notions de "probabilités", pour aboutir à des résultats qui "font sérieux" mais n'ont à peu près aucune légitimité utilisable.
Pour calculer des probabilités, il faudrait être sûr d'une loi de probabilité des modèles. Or il n'y a aucune méthode scientifiquement sérieuse pour estimer des probabilités que les modèles soient justes. Ce n'est pas une notion définie scientifiquement. Un modèle est juste, faux, approximatif, mais il n'y a rien de tel qu'une loi de probabilité pour le définir. On peut à la rigueur estimer des probabilités numériquement en comparant un grand nombre de prédictions répétitives avec la réalité, comme on le fait en météo, mais il n'y a rien de tel bien sûr sur les prévisions climatiques à 50 ou 100 ans. "Compter les modèles" en supposant une équiprobabilité de chaque modèle n'est pas plus satisfaisant, si il y a des erreurs systématiques dans les modèles, elles peuvent aller toutes dans le même sens. Et ce n'est pas rajouter 20 modèles de plus à 20 autres qui change le "sérieux" des estimations. L'ensemble de la méthode revient à supposer que les modèles sont statistiquement aléatoirement distribué autour de la réalité et qu'il suffit de faire la moyenne pour avoir une bonne prédiction. Mais c'est une confusion totale avec le fait (connu) que des erreurs de mesure aléatoire se compensent. Rien ne dit que les erreurs des modèles sont ALEATOIRES !
Et si la moyenne est peut être toujours la même, ça n'empêche pas que les différents modèles sont quand même assez en désaccord sur la sensibililté, comme le montre la distribution des températures finales prédites par différents modèles pour le même scénario d'émission :
Le résultat de ces estimations, c'est qu'on va artificiellement baisser la valeur admissible du CO2 à cause des modèles prévoyant une grande sensibilité, par "sécurité". Autrement dit , inclure dans l'échantillon des modèles des modèles faux, surestimant la sensibilité climatique, va automatiquement faire baisser la limite à laquelle on a droit - même si ces modèles sont faux. On va donc se décider selon la quantité plus ou moins grande de modèles faux qu'on va considérer, et pas sur celui qu'on considère le plus juste !!!
Si vous appliquez cette méthode dans la vie courante, vous devez croire toutes les superstitions vous disant de ne pas passer sous une échelle, s'embrasser sous une porte, etc .. "au cas où ce serait juste" (bon d'accord c'est ce que font beaucoup de gens .. :) ).
Un autre problème est qu'aucune incertitude n'est donnée sur ces 565 GtC. C'est juste le résultat mathématique du calcul, et c'est tout. Or c'est absurde. Déjà la précision avec trois chiffres significatifs est absurde. Ensuite on ne donne pas la dépendance de l'écart par rapport à la valeur centrale. Par exemple si on rajoute 100 GtC pour en émettre 665 GtC, de combien on dépasserait 2°C "en moyenne dans les modèles" ? de 0,1 °C ? de 0,5 °C ? de 1 °C ?
Ne pas donner cette sensibilité , c'est estimer que les 2°C sont "un mur infranchissable" et que les coûts de les dépasser deviennent infinis (ou plus exactement, deviennent infinis par rapport au coût de réduire les fossiles). C'est à dire que l'hypothèse sous-jacente est , soit que le coût de dépasser 2°C est infini, soit que le coût de supprimer les fossiles est nul.
Or aucune de ces propositions n'est tenable. Le coût de dépasser 2°C n'est évidemment nullement infini - sinon ce serait criminel d'accepter une chance de 20 % qu'ils soient dépassés , et le coût de se débarrasser des fossiles n'est pas nul - sinon autant s'en débarrasser tout de suite complètement . La valeur de 2°C , on l'a vu , est le résultat d'un compromis politique assez arbitraire - ce qui implique justement qu'il y ait compromis et balance entre avantages et inconvénients. On ne peut en aucun cas se fixer une limite infranchissable comme si rien d'autre ne comptait. Justifié ou pas, le fait même de décider d'un "compromis" implique bien qu'il y ait aussi un coût à supprimer les fossiles, coût qui n'apparaît nulle part dans l'estimation.
On peut quand même estimer la sensibilité du résultat à la quantité totale émise. On émet environ 30 Gt de CO2 pour 2 ppm de plus annuellement. Chaque Gt émis augmente donc de 1/15 ppm la concentration dans l'atmosphère. Comme elle a augmenté de 110 ppm environ, on a donc déjà émis 1600 Gt de CO2.
Les 565 Gt CO2 "en plus " correspondent un total de 2200 Gt CO2. On a donc la correspondance "en moyenne sur les modèles" (avec les caveat ci-dessus sur la validité des modèles)
2200 Gt CO2 <-> 2°C <-> 150 ppm injectés dans l'atmosphère (soit une concentration finale de 430 ppm environ )
soit une sensibilité de 3,2 °C / doublement ( 3,2 = 2 * ln(2) /ln(430/280) ), une valeur plutôt "haute", qui vient comme nous l'avons vu de la marge de sécurité qu'on s'est donné un peu arbitrairement.
Que provoquerait une émission de 100 GtCO2 en plus ? eh bien ces 100 Gt CO2 produiraient 100/15 = 6 ppm de plus soit une concentration finale de 436 ppm au lieu de 430 ppm, et le surcroit de température ne serait que de
3,6 * ln(436/430)/ln(2) = 0,07 °C en plus !
il est évident que la Terre ne va pas mourir de 0,07 °C en plus. les 565 Gt sont donc très approximatifs ! Même prendre 1000 au lieu de 500 ne rajouterait que 0,35 °C en plus. On peut penser que 2,35 °C sont insupportables alors que 2°C le sont, mais qui l'a démontré et comment ?
Par ailleurs, puisque le coût de renoncer aux fossiles n'est jamais pris en compte, comment comparer l'effet de ces 0.07 °C au coût de renoncer à ces 100 Gt de CO2 ?
la précision sur ce résultat de 565 Gt CO2 est donc totalement illusoire. On aurait pris 2,1 °C ou 1,9 °C , on aurait changé les probabilités limites, on aurait pris d'autres modèles, le résultat peut fluctuer au moins du simple au double.... mais ce chiffre est "vendu" comme étant "scientifique".
Bref en résumant : on a pris une limite arbitraire. On a utilisé un ensemble de modèles incertains pour estimer une "probabilité" sans réelle signification. On s'est fixé une limite arbitraire de probabilité à ne pas dépasser. On a calculé un résultat "par ordinateur" avec tout ça sans donner de barre d'erreurs ni de sensibilité. Et on sort un nombre qui a des conséquences absurdes, dont il est évident qu'il ne sera pas respecté.
Dans 20 ans, on aura probablement émis ces 565 Gt, et le plus probable est que la température n'aura monté que de 0.3 °C au rythme actuel, donc bien loin des 2°C. Les 2°C seront toujours une prédiction des modèles non vérifiés - personne ne va arrêter les fossiles totalement à ce moment là, pour un évènement hypothétique arrivant - peut -être- dans 100 ans. D'autant plus que comme nous l'avons vu, il est probable que le pic de fossiles conventionnels soit arrivé, et qu'on se batte comme des chiffonniers non pas pour l'accélérer, mais pour le ralentir .... Notons aussi que les 565 Gt ne sont valables que jusqu'à 2050, et que les comparer au chiffre total des réserves d'environ 2800 Gt de CO2 n'est pas très pertinent, parce que personne ne dit que ces 2800 Gt seront émis d'ici 2050 : ils correspondent à environ 100 ans de consommation actuelle. Pour estimer ensuite l'évolution des température, il faut faire des scénarios plus fins incluant la façon dont le CO2 sera finalement absorbé - un autre problème pas très bien connu.