21/12/2017

La sensibilité climatique

Pour faire suite à mon précédent billet, je souhaite préciser la notion de sensibilité climatique. Une donnée que les scientifiques du GIEC considèrent comme parfaitement connue et que les décideurs qui se sont réunis pour signer l’accord sur le climat utilisent comme base, puisqu’ils ont choisi de s’accorder sur une température à ne pas dépasser plutôt que sur une quantité de gaz à effet de serre émise à ne pas dépasser. Dans leur tête, c’est exactement identique, car la sensibilité climatique établit une causalité directe, mais dans la pratique ça n’a pas grand-chose à voir. Ce qu’ils ont fait revient à valider les modèles informatiques utilisés, sans doute extrêmement précis, mais comme je vais le montrer, très difficiles à régler. Au passage, je ne suis pas climatologue et je me réfère donc à d’autres personnes dans ce domaine. Par contre, de par ma profession, je pense pouvoir dire que je comprends bien comment fonctionne un programme informatique et comment on le met en œuvre. En particulier, je sais qu’un programme d’ordinateur ne fait que ce qu’on lui demande et que si le créateur souhaite l’amener à faire une prédiction, il la fera sans aucun doute.

Tout d’abord, il faut comprendre que l’atmosphère est un système physique, donc régi par des lois dans l’ensemble bien connues, mais chaotique, donc beaucoup trop difficile à quantifier en se basant sur ces lois. De ce fait, on connait la plupart des processus qui s’y passent, mais on ne sait pas dans quelle mesure ils influent sur l’ensemble. Pire, il reste des phénomènes qui sont assez mal connus, comme la formation des nuages par exemple.

Donc si on veut faire une prédiction concernant l’atmosphère, on doit avoir recours à de l’approximation, à savoir des « modèles mathématiques » sur ordinateur. Beaucoup de branches scientifiques ou techniques utilisent des modélisations et on ne pourrait sans doute pas faire grand-chose sans. Mais les modèles nécessitent un réglage pour bien fonctionner. Ils utilisent une série de constantes qu’on va pouvoir faire varier de manière à recréer un modèle de la réalité le plus fidèle possible. On le comprend donc : pour que le modèle soit fiable, on a avant tout besoin de recul. Il faut pouvoir comparer le modèle à la réalité dans le plus grand nombre possible de situations connues. Plus il fonctionne dans un nombre important de situations passées, plus il a de chances d’être précis à l’avenir.

Le problème de la climatologie, c’est que c’est une branche assez jeune de la science. Les données passées sont assez peu nombreuses et plus on remonte dans le passé, moins elles sont fiables. C’est là que se trouve le premier problème : depuis la fin des années 70, deux constellations de satellites mesurent quotidiennement les températures terrestres selon une grille très précise et je pense qu’on peut faire confiance aux données récoltées depuis lors. Par contre, auparavant on ne se basait que sur des stations météorologiques, sujettes aux pannes, dont la présence sur la surface du globe n’est pas uniforme et surtout, qui se trouvent dans des lieux dont l’affectation a souvent changé. On peut par exemple trouver des photos sur internet, de stations qui se trouvent sur un toit où une unité extérieure de climatisation (donc soufflant de l’air chaud) avait été installée ! Donc le premier problème, c’est que si on règle les modèles mathématiques en fonction de données antérieures à l’existence des satellites, on prend un risque de biaiser le modèle de plus en plus à mesure qu’on remonte loin dans le temps.

Régler un modèle

Comment se déroule ce réglage ? Et bien on fait tourner le modèle avec une série de données et on regarde si le résultat reflète bien la réalité. On recommence ensuite avec d’autres séries de données pour obtenir plus de précision. C’est un travail long et fastidieux, mais nécessaire. Quand on est satisfait, on considère qu’il est réglé et alors on le laisse tourner dans le futur pour faire des prédictions d’évolution.

Vient ensuite la phase de validation. On compare les prédictions à l’évolution réelle et on vérifie ainsi la précision du modèle. S’il y a encore des différences, on affine les données pour obtenir encore plus de précision. C’est ainsi par exemple qu’on améliore sans cesse les modèles de météorologie afin de faire des prédictions précises toujours plus loin dans le temps.

Par contre pour ce qui est de la climatologie, c’est justement là que se trouve le second et principal problème : les prédictions se situent si loin dans le temps que cette phase de vérification ne peut pas avoir lieu. Et c’est si grave que pour moi, cela invalide totalement la méthode. Certes on dispose maintenant d’un peu de recul pour juger des prédictions des résultats obtenus à la fin des années 90, mais on nous rétorquera toujours qu’on travaille avec des données anciennes. C'est vrai, c’est un fait, mais le problème c’est que les résultats récents n’ont pas été validés et ne sont donc pas utilisables.

Il faut comprendre que sans ce travail de validation, une infinité de jeux de données existe pour atteindre le même résultat. On peut par exemple négliger certains phénomènes et en sur-représenter d’autres. Le résultat sera pratiquement identique. Donc dans notre cas, on peut choisir une sensibilité climatique plus élevée et négliger d’autres phénomènes. Cela fonctionnera tout aussi bien. Autrement dit, le résultat qu’on tire du modèle, à savoir la sensibilité climatique, est également une donnée initiale. Tout ce qu’elle reflète donc c’est l’à-priori du régleur…

Afin de faire une simple vérification « à la louche » des modèles, prenons donc ces prédictions débutant autour de l’an 2000 afin de les comparer à la réalité.

modeles.jpg

On arrive très bien à mesurer que la prédiction pour presque tous les modèles, à l’exception de celui qui utilise un taux de dioxyde de carbone constant depuis l’an 2000 ce qui ne s’est de toute façon pas produit, annoncent une augmentation d’environ 0,4 degrés durant les 2 premières décennies du 21ème siècle. Or voici un enregistrement des données réelles tirées des quatre grands indicateurs de la température mondiale, deux étant issus des données satellitaires, les deux autres basés sur les stations météo mais suivant suffisamment bien les données satellitaires pour être considérés comme précis.

températures.PNG

On voit deux grands pics, l’un en 1998 et l’autre l’année passée, avec une période plus ou moins stable entre deux. Les pics sont dus aux phénomènes « El Niño » qui se produisent régulièrement dans le Pacifique. Il s’agit d’une inversion des courants marins qui perturbent le climat mondial pendant une année ou deux. Au passage, si vous entendez que les années que nous venons de vivre sont les plus chaudes enregistrées, c’est juste. Mais ce qu’on ne dit pas assez par contre, c’est que c’est dû justement à El Niño ! On voit d’ailleurs que la température est en train de revenir à la normale et il ne s’agit donc pas d’un changement durable.

Bref, en réalité le phénomène El Niño ne doit pas être pris en compte car c’est un évènement de type météorologique qui affecte l’atmosphère durant une durée trop courte pour être visible dans les modèles. Ces derniers ne cherchent d’ailleurs pas à le prévoir car ils n’ont pas été créés dans ce but et il serait donc erroné d’en tenir compte. (ce que les journalistes ne se privent pourtant pas de faire en disant justement que les dernières années sont les plus chaudes…) Ou plutôt si, j’utiliserai les 2 pics pour mesurer le réchauffement entre eux. Situés à 18 ans d’écart, donc presque 2 décennies, il y a en gros une augmentation de 0.2 degrés.

Si on compare cela aux 0.4 degrés prévus par les modèles, pratiquement du simple au double, on voit qu’il y a un écart si important qu’on peut affirmer que les modèles sont désormais infirmés. En fait, ce qui se produit c’est que la sensibilité climatique a sans doute été surévaluée et d’autres phénomènes négligés. C’est donc tout le modèle qui devrait être revu pour tenir compte de l’évolution réelle.

Au passage, vous constaterez que 0.2 degrés sur 20 ans, ça fait 1 degré sur un siècle. Si on ajoute les 0.7 degrés du 20ème siècle, on arrive à 1.7 degrés, soit moins que les 2 degrés de l’accord sur le climat. Il ne s’agit bien sûr pas d’une prédiction précise, mais il s’agit juste de faire remarquer l’ironie de la situation : si nous continuons sur le même rythme de réchauffement jusqu’à la fin du siècle, (et c'est un grand si) l’objectif de l’accord sur le climat sera atteint… sans rien faire du tout !

11:17 Publié dans Monde, Science | Lien permanent | Commentaires (6)

Commentaires

Vous avez toute à fais raison sur les limites de la simulation. Vous montrez à quel point la réalité est complexe. Le devoir de prudence s'impose.
Mais la simulation est le seul outil qui permet d'approcher la réalité au mieux.
Les simulations faîtes par différents groupes scientifiques continuent à être produite avec toujours le même résultat futur. Les scientifique ne sont pas politiques, ils n'ont aucune raison de manipuler les test pour produire un résultat extrême.
Sans pour autant prendre pour argent comptant, on ne peut ignorer les résultats, et laisser faire les choses en espérant que les simulations sont inexactes.

Les climato sceptiques affirment qu'il n'y a pas de réchauffement sans tenir compte de la complexité, juste par conviction quasi religieuse ou sur des faits isolés.

Nous avons donc 2 oppositions, l'une qui a une approche par la simulation pour apprivoiser la réalité, l'autre qui face à la complexité se conduisent comme des adeptes d'une religion.

Écrit par : motus | 21/12/2017

"Nous avons donc 2 oppositions, l'une qui a une approche par la simulation pour apprivoiser la réalité, l'autre qui face à la complexité se conduisent comme des adeptes d'une religion."
Sauf que c'est très exactement le contraire.
1.- les sceptiques n'ont pas d'objectifs politiques, le GIEC oui. D'où la nécessité de créer une religion...
2.- Il n'y a pas besoin d'être le plus grand des scientifiques pour voir les défauts de la religion du réchauffement :
- les fameux modèles ne semblent pas tenir compte du comportement de l'interface atmosphère - océans d'une manière convaincante. Il faut dire qu'il faudrait déjà produire des modèles convaincants pour les océans eux-mêmes, 70% de la surface terrestre, ce qui n'est pas le cas. Vous vous souvenez des recherches du vol des malaysian airlines ? Vous avez vu avec quelle facilité on a retrouvé cet avion ?
- De nombreux résultats sont donnés pour vrais alors qu'ils sont très douteux. J'ai suffisamment cité l'élévation du niveau des mers, dois-je recommencer une millième fois ? Il n'y a jamais eu d'objection valable à mes critiques...
mais seulement des insultes par des individus à l'évidence parfaitement stupides.

Écrit par : Géo | 21/12/2017

J'ai peur que malheureusement les adeptes de religions se trouvent des deux côtés. Je n'apprécie pas plus les amis de Donald Trump qui l'ont convaincu qu'il n'existe aucun réchauffement, sans doute parce que ça confirmait ses convictions, que les Ayatollahs du réchauffement qui prétendent qu'on va vers la fin du monde. La voie médiane, celle sur laquelle je suis en tout cas, c'est de penser qu'il y a bien un réchauffement, puisque le CO2 est en augmentation et que c'est un gaz à effet de serre, mais qu'on ne sait encore pas grand chose de sa gravité. Comme vous le dites, il faut prendre des mesures pour diminuer les émissions, ce qui d'ailleurs se fera sans doute tout naturellement, mais sans céder à la panique dans laquelle on cherche à nous enfermer au quotidien.

Écrit par : Kad | 21/12/2017

Au fait, comment peut-on dire que les modèles continuent à indiquer le même résultat alors que justement, le temps qui s'est écoulé depuis ne confirme pas ces modèles et donc, soit ils ont été corrigés pour tenir compte de l'évolution réelle et alors on ne peut pas dire qu'ils continuent à montrer la même évolution, soit les auteurs ne tiennent pas compte de la réalité et sont dans un déni quasi-religieux ? Dans ce dernier cas, on ne peut pas les qualifier de scientifiques, mais juste d'escrocs !

Écrit par : Kad | 21/12/2017

La plupart des gens n'ont pas idée à quel point il faut se méfier des modèles. Et beaucoup de scientifiques ont une attitude de soumission à la pensée que tout ce qui sort de l'ordinateur est bel et bon. C'est de la pensée magique, rien de mieux. Je l'ai compris en Afrique, en devant un peu me battre avec les techniciens avec lesquels je collaborais dans la recherche d'eau par l'étude de la résistivité électrique du terrain. Or la résistivité apparente est le produit de la résistivité de ce terrain par son épaisseur en m. 10m à 5 Ohm.m = 50 Ohm.m, comme 25 m à 2 Ohm.m. Mais ces techniciens gobaient tout ce que leur sortait leur petit programme, avec des précisions ridicules sur la profondeur de la nappe, comme l'aurait fait un sorcier sourcier...
J'ai bien peur qu'aux niveaux plus sophistiqués, ce genre de déviances soit encore pire...

Écrit par : Géo | 21/12/2017

Votre histoire Géo me rappelle ce que m'avait raconté un ancien collègue. Il avait un problème avec une ligne de téléphone et il avait appelé les PTT (à l'époque) pour une intervention. Un technicien était venu avec un petit appareil de contrôle de ligne. Il l'avait planté sur la prise et avait dit "C'est bon! Ca marche bien!". Mon collègue lui a demandé comment il peut dire cela alors que manifestement la ligne ne fonctionnait pas. "C'est allumé en vert. Quand c'est pas bon, ça s'allume en rouge!"

Écrit par : Kad | 22/12/2017

Les commentaires sont fermés.