22/12/2017

Les calamités que nous réserve ce siècle

Après la température, je vais lister une série de calamités dont on nous rabâche les oreilles jour après jour. Je me propose de les analyser de manière mesurée, de ne pas céder ni au négationnisme ni au catastrophisme et de les confronter de manière rationnelle à la réalité. Car indépendamment de la cause du réchauffement, une augmentation importante de la température a eu lieu dans les années 80 et 90 et si ces calamités en sont la conséquence, cela doit pouvoir se mesurer de manière objective.

  1. Les cyclones tropicaux vont augmenter en nombre et en intensité

Cette année 2017 a été marquée par une série de cyclones ravageurs dans les Antilles. D’aucuns considèrent cela comme la preuve ultime que nous nous dirigeons vers un cataclysme climatique d’une ampleur sans précédent. Mais il s’agit avant tout d’événements météorologiques de grande ampleur et ils sont le fruit d’une situation particulière, sans doute héritée d’El Niño, qui a perturbé les courants océaniques durant 2 ans. En effet, il s’agit ni plus ni moins que de l’ouverture d’une soupape de sécurité après l’accumulation de beaucoup de chaleur dans l’Atlantique. Rien ne permet de dire que cette situation se reproduira à court terme ni que ça a quelque chose à voir avec le réchauffement.

Il existe un indicateur, calculé tous les ans, qui devrait exploser si c’était le cas : il s’agit de l’énergie totale des cyclones. En effet, cet indicateur est l’addition de l’énergie calculée de tous les cyclones qui se sont déroulés durant une année. Logiquement, si les cyclones augmentent en nombre, l’indicateur augmente. Si les cyclones augmentent en intensité, il augmente aussi. Et bien sûr, s’ils augmentent à la fois en nombre et en intensité, il augmente bien plus encore.

global energy.jpg

Or que voit-on ? Dans les années 90, il y avait de bonnes raisons de croire à une telle corrélation entre augmentation de la température et de l’énergie totale des cyclones. Pareil au début des années 2000. Et on observe également un pic pour les dernières deux années, ce qui n’a rien d’étonnant. Il faut toutefois remarquer que ce pic n’a rien d’exceptionnel et qu’il est surpassé par plusieurs autres.

 Par contre, ce pic fait suite à une période de calme de pas loin de 10 ans que rien ne permet d’expliquer ! On a en effet affaire à la période la plus chaude depuis le début de la mesure des températures mondiales et pourtant il y a un calme plat au niveau des cyclones. En sciences, une théorie est considérée comme solide tant qu’on n’a pas trouvé d’argument contraire. Mais si un seul argument contraire est trouvé, alors la théorie est infirmée. C’est donc le cas de celle qui met en corrélation directe la température et l’énergie cyclonique. A-t-on tenu compte de cette période de calme pour au minimum modifier la théorie ? Non bien sûr. Comme toujours dans cette affaire climatique, on fait comme si on n’avait rien vu et on continue simplement à asséner les mêmes vérités. (ce qui encore une fois n’est pas une pratique scientifique mais dogmatique)

D'une manière générale en tout cas, on ne peut pas dégager une tendance claire. L'activité cyclonique semble chaotique, comme le sont tous les phénomènes météorologiques. Le site allemand ci-dessous (dont j'ai tiré le graphique) montre d’ailleurs à quel point il n’existe absolument aucune corrélation entre la température des océans et l’intensité des cyclones. Visiblement, la théorie dominante ne se confirme absolument pas.

http://www.wetter-center.de/blog/?p=1970

  1. Le niveau de la mer va monter et plusieurs pays auront disparu en 2100

C’est ce qu’a annoncé encore une fois Emmanuel Macron devant ses invités pour la conférence de Paris. Quelques chefs d’état sont donc rentrés chez eux la peur au ventre. Pas étonnant que ces pays soient les meilleurs contributeurs à la cause climatique, puisqu’ils sont les premières victimes attendues.

Maintenant comment peut-on affirmer cela ? Comme le montre les mesures par satellites du niveau moyen des océans, le rythme actuel d’élévation des eaux est de 3.5 cm par décennie. Si l’élévation continue sur le même rythme, nous aurons donc près de 35 cm de montée des eaux sur un siècle. (ou une trentaine de cm en plus par rapport à maintenant) C’est plus ou moins la hauteur d’une vague un jour de mer très calme et bien moins que l’amplitude des marées. Bref, rien de catastrophique qu’on ne puisse gérer avec 82 ans devant nous !

sl_ns_global.png

Donc il est clair que pour que la prévision de Macron se réalise, il faut que le taux d’augmentation du niveau de la mer augmente fortement. Et cela devrait se voir sur le graphique du niveau moyen des océans en fonction du temps. Mais ça n’est pas le cas. Ce taux est pratiquement invariable dans le temps. Les petites variations sont d’ailleurs surtout corrélées aux cycles El Niño (en rouge sur le graphique ci-dessous) / La Niña (en bleu), ce qui tombe sous le sens, puisqu’un océan plus chaud se dilate alors qu’un océan plus froid se contracte.

elnino.gif

Bref, encore une fois, la théorie alarmiste ne semble pas se concrétiser. Nous pouvons donc sans crainte continuer à visiter les Seychelles ou les Maldives. N'en déplaise à Macron, elles continueront à exister longtemps encore.

A suivre…

12:25 Publié dans Monde, Science | Lien permanent | Commentaires (4)

21/12/2017

La sensibilité climatique

Pour faire suite à mon précédent billet, je souhaite préciser la notion de sensibilité climatique. Une donnée que les scientifiques du GIEC considèrent comme parfaitement connue et que les décideurs qui se sont réunis pour signer l’accord sur le climat utilisent comme base, puisqu’ils ont choisi de s’accorder sur une température à ne pas dépasser plutôt que sur une quantité de gaz à effet de serre émise à ne pas dépasser. Dans leur tête, c’est exactement identique, car la sensibilité climatique établit une causalité directe, mais dans la pratique ça n’a pas grand-chose à voir. Ce qu’ils ont fait revient à valider les modèles informatiques utilisés, sans doute extrêmement précis, mais comme je vais le montrer, très difficiles à régler. Au passage, je ne suis pas climatologue et je me réfère donc à d’autres personnes dans ce domaine. Par contre, de par ma profession, je pense pouvoir dire que je comprends bien comment fonctionne un programme informatique et comment on le met en œuvre. En particulier, je sais qu’un programme d’ordinateur ne fait que ce qu’on lui demande et que si le créateur souhaite l’amener à faire une prédiction, il la fera sans aucun doute.

Tout d’abord, il faut comprendre que l’atmosphère est un système physique, donc régi par des lois dans l’ensemble bien connues, mais chaotique, donc beaucoup trop difficile à quantifier en se basant sur ces lois. De ce fait, on connait la plupart des processus qui s’y passent, mais on ne sait pas dans quelle mesure ils influent sur l’ensemble. Pire, il reste des phénomènes qui sont assez mal connus, comme la formation des nuages par exemple.

Donc si on veut faire une prédiction concernant l’atmosphère, on doit avoir recours à de l’approximation, à savoir des « modèles mathématiques » sur ordinateur. Beaucoup de branches scientifiques ou techniques utilisent des modélisations et on ne pourrait sans doute pas faire grand-chose sans. Mais les modèles nécessitent un réglage pour bien fonctionner. Ils utilisent une série de constantes qu’on va pouvoir faire varier de manière à recréer un modèle de la réalité le plus fidèle possible. On le comprend donc : pour que le modèle soit fiable, on a avant tout besoin de recul. Il faut pouvoir comparer le modèle à la réalité dans le plus grand nombre possible de situations connues. Plus il fonctionne dans un nombre important de situations passées, plus il a de chances d’être précis à l’avenir.

Le problème de la climatologie, c’est que c’est une branche assez jeune de la science. Les données passées sont assez peu nombreuses et plus on remonte dans le passé, moins elles sont fiables. C’est là que se trouve le premier problème : depuis la fin des années 70, deux constellations de satellites mesurent quotidiennement les températures terrestres selon une grille très précise et je pense qu’on peut faire confiance aux données récoltées depuis lors. Par contre, auparavant on ne se basait que sur des stations météorologiques, sujettes aux pannes, dont la présence sur la surface du globe n’est pas uniforme et surtout, qui se trouvent dans des lieux dont l’affectation a souvent changé. On peut par exemple trouver des photos sur internet, de stations qui se trouvent sur un toit où une unité extérieure de climatisation (donc soufflant de l’air chaud) avait été installée ! Donc le premier problème, c’est que si on règle les modèles mathématiques en fonction de données antérieures à l’existence des satellites, on prend un risque de biaiser le modèle de plus en plus à mesure qu’on remonte loin dans le temps.

Régler un modèle

Comment se déroule ce réglage ? Et bien on fait tourner le modèle avec une série de données et on regarde si le résultat reflète bien la réalité. On recommence ensuite avec d’autres séries de données pour obtenir plus de précision. C’est un travail long et fastidieux, mais nécessaire. Quand on est satisfait, on considère qu’il est réglé et alors on le laisse tourner dans le futur pour faire des prédictions d’évolution.

Vient ensuite la phase de validation. On compare les prédictions à l’évolution réelle et on vérifie ainsi la précision du modèle. S’il y a encore des différences, on affine les données pour obtenir encore plus de précision. C’est ainsi par exemple qu’on améliore sans cesse les modèles de météorologie afin de faire des prédictions précises toujours plus loin dans le temps.

Par contre pour ce qui est de la climatologie, c’est justement là que se trouve le second et principal problème : les prédictions se situent si loin dans le temps que cette phase de vérification ne peut pas avoir lieu. Et c’est si grave que pour moi, cela invalide totalement la méthode. Certes on dispose maintenant d’un peu de recul pour juger des prédictions des résultats obtenus à la fin des années 90, mais on nous rétorquera toujours qu’on travaille avec des données anciennes. C'est vrai, c’est un fait, mais le problème c’est que les résultats récents n’ont pas été validés et ne sont donc pas utilisables.

Il faut comprendre que sans ce travail de validation, une infinité de jeux de données existe pour atteindre le même résultat. On peut par exemple négliger certains phénomènes et en sur-représenter d’autres. Le résultat sera pratiquement identique. Donc dans notre cas, on peut choisir une sensibilité climatique plus élevée et négliger d’autres phénomènes. Cela fonctionnera tout aussi bien. Autrement dit, le résultat qu’on tire du modèle, à savoir la sensibilité climatique, est également une donnée initiale. Tout ce qu’elle reflète donc c’est l’à-priori du régleur…

Afin de faire une simple vérification « à la louche » des modèles, prenons donc ces prédictions débutant autour de l’an 2000 afin de les comparer à la réalité.

modeles.jpg

On arrive très bien à mesurer que la prédiction pour presque tous les modèles, à l’exception de celui qui utilise un taux de dioxyde de carbone constant depuis l’an 2000 ce qui ne s’est de toute façon pas produit, annoncent une augmentation d’environ 0,4 degrés durant les 2 premières décennies du 21ème siècle. Or voici un enregistrement des données réelles tirées des quatre grands indicateurs de la température mondiale, deux étant issus des données satellitaires, les deux autres basés sur les stations météo mais suivant suffisamment bien les données satellitaires pour être considérés comme précis.

températures.PNG

On voit deux grands pics, l’un en 1998 et l’autre l’année passée, avec une période plus ou moins stable entre deux. Les pics sont dus aux phénomènes « El Niño » qui se produisent régulièrement dans le Pacifique. Il s’agit d’une inversion des courants marins qui perturbent le climat mondial pendant une année ou deux. Au passage, si vous entendez que les années que nous venons de vivre sont les plus chaudes enregistrées, c’est juste. Mais ce qu’on ne dit pas assez par contre, c’est que c’est dû justement à El Niño ! On voit d’ailleurs que la température est en train de revenir à la normale et il ne s’agit donc pas d’un changement durable.

Bref, en réalité le phénomène El Niño ne doit pas être pris en compte car c’est un évènement de type météorologique qui affecte l’atmosphère durant une durée trop courte pour être visible dans les modèles. Ces derniers ne cherchent d’ailleurs pas à le prévoir car ils n’ont pas été créés dans ce but et il serait donc erroné d’en tenir compte. (ce que les journalistes ne se privent pourtant pas de faire en disant justement que les dernières années sont les plus chaudes…) Ou plutôt si, j’utiliserai les 2 pics pour mesurer le réchauffement entre eux. Situés à 18 ans d’écart, donc presque 2 décennies, il y a en gros une augmentation de 0.2 degrés.

Si on compare cela aux 0.4 degrés prévus par les modèles, pratiquement du simple au double, on voit qu’il y a un écart si important qu’on peut affirmer que les modèles sont désormais infirmés. En fait, ce qui se produit c’est que la sensibilité climatique a sans doute été surévaluée et d’autres phénomènes négligés. C’est donc tout le modèle qui devrait être revu pour tenir compte de l’évolution réelle.

Au passage, vous constaterez que 0.2 degrés sur 20 ans, ça fait 1 degré sur un siècle. Si on ajoute les 0.7 degrés du 20ème siècle, on arrive à 1.7 degrés, soit moins que les 2 degrés de l’accord sur le climat. Il ne s’agit bien sûr pas d’une prédiction précise, mais il s’agit juste de faire remarquer l’ironie de la situation : si nous continuons sur le même rythme de réchauffement jusqu’à la fin du siècle, (et c'est un grand si) l’objectif de l’accord sur le climat sera atteint… sans rien faire du tout !

11:17 Publié dans Monde, Science | Lien permanent | Commentaires (6)

20/12/2017

Pour sauver la planète, limitons le réchauffement à moins de 2 degrés

C’est officiellement l’objectif fixé par l’accord de Paris signé lors de la COP21. On n’a pas fixé un but en émissions de carbone, ce qui aurait eu un sens objectif, mais un but lié à une augmentation de température supposée catastrophique. En faisant cela, on a gravé dans le marbre la relation numérique entre les émissions de CO2 et l’augmentation de température. Cela signifie donc qu’on considère ce qu’on appelle la « sensibilité climatique », à savoir l’effet du doublement du taux de CO2 sur la température, comme une donnée inscrite dans le marbre.

Je revois avec amusement ces chefs d’états tombant dans les bras des uns et des autres pour la réussite exceptionnelle qu’ils venaient d’accomplir. « Wouhouhou ! Nous sommes les meilleurs ! Nous avons réussi à signer ! Le monde est sauvé grâce à nous ! »

Oui c’était un exploit formidable. Ils ont réussi à tenir un stylo le temps d’apposer un paraphe sur une feuille de papier. Le reste n’est que bagatelle. Les progrès techniques monstrueux et les fonds abyssaux à mettre en jeu, c’est du pipeau. Les dizaines ou centaines de milliers d’ingénieurs qui vont devoir plancher sur les moyens d’atteindre l’objectif fixé ont la tâche facile. Le plus dur était de signer.

 

Lire la suite