29/10/2018

Le GIEC est-il pro-nucléaire ?

Bien sûr, le dernier rapport du GIEC ne préconise pas ouvertement d'augmenter la part du nucléaire parmi les sources d'approvisionnement mondial, mais il sous-entend implicitement que c'est la seule manière réaliste d'arriver à atteindre les objectifs qu'il fixe. Comme on peut le voir ici, l'objectif de 1,5 degrés d'augmentation maximale de la température ne peut être atteint, selon ses simulations, que dans une série de scénarios, dont les plus réalistes impliquent une augmentation du nucléaire.

Centrale.jpgA la lecture de ce rapport, les industriels du nucléaire ont dû pavoiser. Eux qui gèrent des centrales vieillissantes, dont le remplacement est très difficile et on ne parle même pas d'augmentation de la puissance totale. Un allié tel que celui-ci, c'est inespéré, non ? Enfin pas sûr. Depuis que la théorie du réchauffement climatique est apparue, et malgré la catastrophe de Tchernobyl qui avait rendu leur technologie très impopulaire, l'industrie du nucléaire s'est servie du réchauffement pour balayer toute critique. 'Comment voulez-vous lutter contre le réchauffement sans le nucléaire ?' C'est un argument d'autorité qui prend le dessus sur tous les autres... si on considère la catastrophe climatique comme la principale plaie qui nous guette pour le siècle à venir.

La plupart des écologistes se permettent bien d'être à la fois anti-nucléaires et anti-pétrole. Ils prétendent ainsi qu'on peut à la fois se passer des deux technologies. On tombe ainsi dans les scénarios les moins réalistes des simulations du GIEC. Mais le moins qu'on puisse dire c'est qu'on ne prend pas ce chemin et qu'on n'est pas près de le prendre. Bien entendu, à la fin de ce siècle, d'une manière ou d'une autre nous aurons été forcés d'abandonner ces deux sources d'énergie. Mais la manière dont nous allons nous y prendre dépend des priorités que l'on fixe.

Pour ma part, je suis profondément opposé à la technologie nucléaire, du moins celle employée aujourd'hui et qu'on continue à prôner pour le remplacement des centrales existantes, car elle est dangereuse et extrêmement polluante. Oui j'ai bien dit polluante. Le nucléaire ne produit que très peu de CO2 bien sûr, mais ce gaz inerte et présent naturellement dans l'atmosphère n'est pas à proprement parler un polluant. Ce qui pollue par exemple dans les émissions liées à la combustion de produits pétrolier, c'est les autres émissions telles que le monoxyde de carbone, les oxydes d'azote, les particules fines, car ce sont des émissions dangereuses pour la santé. Pour ce qui est du nucléaire, il produit des produits toxiques extrêmement dangereux et qui resteront dangereux pour certains des centaines de milliers d'années ! En réalité, le nucléaire est la technologie la plus polluante que l'homme n'ait jamais inventée.

Et là je ne parle même pas de la dangerosité grandissante des centrales qu'on cherche par tous les moyens à ne pas fermer, ni de l'impossible démantèlement qui nous attend et qui sera sans doute impossible à financer. En réalité, le plus probable c'est que par manque de crédits la majorité des centrales resteront ainsi, monuments en ruines éternellement radioactifs à la gloire de la bêtise et de la cupidité humaine.

Bref, la transition énergétique d'accord, mais pas à n'importe quel prix. Je disais l'autre jour à une personne qui me disait que les voitures électriques faisaient beaucoup de progrès, que tant que la part du nucléaire était ce qu'elle est et qu'on considérait comme impossible le fait de réduire la consommation de produits pétroliers sans le nucléaire, je continuerai à considérer les voitures électriques comme des voitures nucléaires et je n'en voudrai pas. En fait pour aller vers le tout électrique, il faut se donner le temps des énergies renouvelables ou d'autres solutions que la technologie du futur nous fournira, par exemple la fusion nucléaire. Ce siècle verra bien la fin des énergies fossiles car nous ne pourrons pas en produire plus. Mais vouloir en finir trop vite avec elles va nous forcer à une nouvelle course effrénée vers la construction de nouvelles centrales et ça je ne le veux pas.

09/02/2018

L’espace : une affaire privée

Alors que SpaceX, la compagnie spatiale d’Elon Musk, a réussi à propulser le nouveau roadster décapotable de Tesla, autre compagnie phare du milliardaire, à l’aide de sa fusée géante ‘Falcon Heavy’ sur une orbite qui le fera approcher de la planète Mars et de la ceinture d’astéroïdes, l’année 2018 semble marquer un tournant qui devrait voir le spatial privé peu à peu compléter, sinon supplanter, les grandes agences nationales ou supra-nationales.

La Falcon Heavy, c’est rien de moins que le lanceur le plus puissant du marché, avec laquelle seule la Saturne V des missions Apollo aurait pu rivaliser. A voir ou revoir, le vol impressionnant de la fusée, en particulier la récupération des boosters, (ainsi que du premier étage mais la vidéo est ratée) prouesse technologique inédite dans toute l’histoire de la conquête spatiale, et la mise en orbite de la Tesla sur le ‘Life on Mars’ de David Bowie.

Je trouve aussi d’une grande poésie la Tesla et son conducteur le manequin ‘Starman’ s’éloigner lentement de la Terre pour sa mise en orbite solaire.

starman.jpg

Au fait, pour les adeptes de la Terre plate, ne perdez pas vos croyances, il s'agit bien d'une photo-montage !

Bref, cet événement fait pleinement prendre conscience à quel point l’espace est en train de devenir une affaire privée. Et on peut citer plusieurs autres entreprises qui sont lancées dans la course menée par SpaceX. La compagnie poursuit plusieurs objectifs de front, avec en ligne de mire la planète Mars, véritable obsession d’Elon Musk. Elle développe des lanceurs, des vaisseaux spatiaux capable de relancer le voyage spatial et même le scaphandre spatial du Starman, qui sera sans doute un jour porté par les astronautes de SpaceX.

Outre la capsule spatiale qui prendra place au sommet de la Falcon Heavy, SpaceX développe une fusée géante, dont la finalité sera l’envoi d’un vaisseau spatial, géant lui aussi, vers Mars. Elon Musk prévoit ainsi de coloniser Mars durant les prochaines décennies. Il n’est visiblement pas homme à attendre de voir les crédits nationaux ou internationaux affluer. Il pourrait bien être capable de se lancer seul dans l’aventure. Il suffirait pour cela que les retours sur investissements prévus soient suffisants pour rentabiliser le voyage.

Virgin Galactic

J’avais déjà parlé sur ce blog de Virgin Galactic, la compagnie de Richard Bronson, il y a quelques années. L’entreprise propose pour 200’000$ d’amener de riches touristes en vol sub-orbital, avec une courte séquence d’apesanteur à la clé. La compagnie a construit un ‘spaceport’ dans le désert de Mojave à proximité de Los Angeles. Le vol se fait à l’aide d’une aile portante, avion à réaction à deux corps, portant un avion spatial, le VSS Unity qui se décroche en vol pour se propulser hors de l’atmosphère à l’aide d’un moteur fusée, puis revient atterrir sur la piste du spaceport après un vol en cloche dans l’espace.

Normalement les vols commerciaux auraient dû commencer il y a plusieurs années, mais un tragique accident survenu en 2014 a mis temporairement la société en difficulté. Désormais ces problèmes sont derrière et Richard Bronson espère participer personnellement à un premier vol pour le milieu d’année, pour un début de commercialisation vers la fin d’année.

2013%2F11%2F22%2Faf%2FVirginGalac.e6862.jpg

Blue Origin

La société de Jeff Bezos, fondateur d’Amazon.com, vise elle aussi le tourisme spatial, mais pas seulement. Elle développe d’une part une capsule suborbitale, le ‘New Shepard’, pour de courts vols touristiques, mais avec une technologie plus proche de celle de SpaceX que de Virgin Galactic. La capsule est en effet propulsée par une fusée mono-étage récupérable. On ne sait pas quand les vols commerciaux pourront débuter, mais les technologies sont presque prêtes. En particulier, le lanceur récupérable a déjà effectué un vol réussi de bout en bout en 2015.

160619-blue8.jpg

Blue Origin développe aussi un lanceur lourd réutilisable, le ‘New Glenn’, dont la motorisation maison équipera aussi la nouvelle ‘Vulcain’, lanceur destiné à remplacer les Delta IV et Atlas V vieillissantes.

Mars One

On s'est beaucoup moqué de la société qui prévoit d’envoyer 24 astronautes vivre sur Mars sans espoir de retour. Il est effectivement possible que Mars One ne parvienne jamais à réaliser son plan. Mais l’entrainement et la sélection des astronautes continue. Sur le plan technologique, Mars One entend s’adresser à d’autres entreprises plus expérimentées, en particulier SpaceX dont elle espère utiliser la Falcon Heavy pour propulser ses vaisseaux martiens. Elon Musk ne croit pas à leur projet, mais il est par contre tout à fait d’accord de leur fournir le lanceur, bien entendu.

Mais si Mars One a peu de chances de réaliser ses objectifs, on peut imaginer à terme que la collaboration avec SpaceX aille au-delà de la fourniture de matériel, SpaceX possédant la technologie et Mars One fournissant les astronautes pour les premiers vols. Il s’agit là d’une supposition de ma part car personne n’en a jamais parlé pour l’instant. Mais je trouverais logique que ces deux projets complémentaires finissent par fusionner.

mars-one-2.jpg

Concurrence des agences officielles

Bien sûr, les agences officielles continuent à exister et le spatial ne va pas encore passer définitivement dans le domaine privé. L’Europe développe son Ariane 5, la Chine est lancée dans une nouvelle course à la Lune, suivie par les Etats-Unis dont le programme spatial a été relancé par Donald Trump récemment, visant toujours l'objectif final d'un voyage vers Mars, en passant par la construction d'une nouvelle station spatiale, la 'Deep Space Gateway’, servie par le nouveau lanceur lourd SLS. L'Inde quant à elle est un peu en retard mais entend bien ne pas se laisser distancer, en particulier par son grand voisin. Mais il semble tout de même que les délais fixés par ces agences les placent loin derrière les entreprises privées, si bien sûr les délais annoncés par les privés seront respectés au final. On peut donc légitimement se demander si le 21ème siècle ne verra pas le remplacement des agences officielles par les opérateurs privés.

22/01/2018

Les calamités que nous réserve ce siècle (2ème partie)

Après une longue interruption, je m'atèle à d'autres calamités, à savoir la fonte des glaces. On le sait : les glaces polaires sont en train de fondre à grande vitesse. Bientôt il n'y aura plus de glace en été au pôle nord et les ours polaires n'existeront plus que sous la forme de peluches, qu'on vendra une fortune pour financer la cause de la lutte contre le réchauffement. En 2007, alors que des conditions climatiques exceptionnelles avaient produit une fonte estivale record, des scientifiques avaient d'ailleurs prédit cet événement pour septembre 2016... Pas de chance, ils se sont trompés, comme le montre cet article du Telegraph britannique.

http://www.telegraph.co.uk/science/2016/10/07/experts-sai...

Désolé de ne pas avoir choisi un article en français, c'est juste que... ça n'existe pas ! Pourtant quand cette prédiction grotesque avait été faite, qu'est-ce qu'on en avait entendu parler...

Alors qu'est-ce qu'il s'est passé ? Juste une chose très bête: ces scientifiques ont dérogé à une règle très simple et qu'il faut obligatoirement respecter quand on fait des prévisions en matière de climat: les prévisions que l'on fait ne doivent pas être vérifiables avant plusieurs dizaines d'années, ou en tout cas pas avant d'être à la retraite ! Ici on a affaire à des gens dont les convictions sont si fortes dans la religion de Gaia qu'ils ont cru que la déesse suivrait scrupuleusement leurs prévisions quelque soit leur niveau de niaiserie. Malheureusement pour eux, Gaia est  une déesse capricieuse.

Bref, il ne s'est pas passé grand chose dans l'intervalle, la glace a tenu bon dans l'ensemble en dehors d'une nouvelle crise météorologique durant l'été 2012 et l'effet d'El Niño durant les 2 précédentes années. Pour rappel El Niño est une inversion des courants marins dans le Pacifique, qui se produit régulièrement et qui a pour effet de réchauffer le monde entier. C'est cet effet qui est la cause du réchauffement de 2016 et 2017 et nous en sortons à peine, si bien qu'il est tout à fait normal que ces années soient les plus chaudes enregistrées, ce que la presse, très sélective au sujet du réchauffement, se plait tant à rappeler.

Donc voici un graphique officiel et actualisé quotidiennement, qui montre l'évolution de la superficie de glace flottante dans l'Arctique. J'ai choisi de montrer les années 2007 à 2018, mais le graphique est paramétrable et vous pouvez faire les choix que vous voulez sur le site original. (cliquer sur l'image pour agrandir)

Arctique.PNG

Alors tout d'abord, il faut comprendre que la superficie glacée varie énormément au cours de l'année. Elle passe par un maximum hivernal, au mois de mars, avec près de 15 millions de kilomètres carrés et un minimum estival, au mois de septembre, avec 4 ou 5 millions de kilomètres carrés, soit 3 fois moins. Si cette variation n'entraîne pas de modification de la hauteur des océans, c'est parce qu'il s'agit de glace flottante. Une fois fondue, elle n'altère en rien la quantité totale d'eau dans les océans, puisqu'elle s'y trouve déjà.

Donc si on se concentre sur les minimums estivaux, on voit qu'en dehors du minimum de 2007 (en bleu), celui de 2016 (en rouge) et surtout celui de 2012 (en pointillés), on a une assez bonne régularité de la superficie glacée. On est certes bien en dessous de la moyenne 1981 - 2010, mais c'est surtout dû à la diminution de surface qui a eu lieu dans les années 80 et 90, ainsi qu'au début des années 2000. En tout cas, on n'observe pas de diminution rapide et catastrophique de la surface glacée.

Bref, quand on annonce que la glace arctique va disparaître en été, on peut répondre que c'est possible, mais loin d'être sûr voire peu probable et en tout cas, c'est une perspective plus lointaine qu'on ne l'affirme en général. Cet autre graphique, dont l'échelle de temps est bien plus longue, montre bien la diminution brusque de 2007 qui avait provoqué le pronostic ahurissant de certains scientifiques, mais on voit bien qu'en dehors de 2012, les autres années ne montrent aucune évolution.

arctique 2.PNG

Voyons ce qui se passe en Antarctique maintenant. Ici pas d'ours blancs, mais une masse gigantesque de glace (au coeur du continent, l'épaisseur est de près de 10 km !) qui si elle devait fondre, ferait monter le niveau des océans de 60 m ! Bien sûr tous les écologistes sont certains que cela va se produire et qu'il vaut mieux investir dans l'immobilier de montagne que sur les littoraux. Mais on devrait pourtant s'étonner de cette croyance, car les températures largement négatives ne permettent pas la fonte de la glace. Il faudrait que la température monte de plusieurs dizaines de degrés pour qu'une fonte totale se produise. C'est franchement ahurissant de croire à une chose pareille.

Bref, concentrons-nous plutôt sur une croyance moins extrême, la fonte d'un petit pourcentage de la glace qui produirait une montée des eaux de plusieurs mètres, suffisante pour faire disparaître quelques îles sous les flots. Il faut dire que pour l'instant la simple fonte de glace sur le continent n'est pas possible à grande échelle, vu que les températures ne montent jamais en dessus de zéro. Mais l'effet dont on parle souvent, c'est la fonte des glaces dérivantes entourant le continent, entraînant l'accélération des glaciers l'alimentant. Cet effet devrait se voir sur les mêmes graphiques que ceux que j'ai reproduits pour l'hémisphère nord.

antarctique.PNG

En fait, bien loin de montrer une diminution de la surface océanique glacée, ce graphique (qui malheureusement s'arrête en 2016) montre au contraire une augmentation ! Et si en 2016, la surface a diminué, (ce qui s'est confirmé en 2017) c'est bien sûr un nouvel effet de El Niño qui a un impact direct dans cette région. On confirme cette évolution sur le site cité précédemment. (sélectionner "Antarctic" en haut à gauche)

Antarctic 2.PNG

Ici nous avons bien entendu des maximums et des minimums opposés par rapport à l'hémisphère nord, puisque les étés et les hivers sont inversés. Ce qu'on voit c'est qu'en dehors de 2016 et  2017, on reste bien dans la moyenne de 1981 à 2010, voire au-dessus, avec un maximum hivernal historique pour 2014 ! (la seconde année étant 2013) Et si El Niño a mis fin à cette série, le début de l'année 2018 montre que la superficie glacée revient dans la moyenne. Bref, je ne vois aucune raison de s'inquiéter pour l'Antarctique.

Alors pourquoi les spécialistes s'inquiètent-ils ? Il faut dire qu'ils se concentrent en général sur la partie la plus accessible du continent glacé, la péninsule antarctique, qui subit des conditions climatiques locales assez différentes du reste du continent. C'est en effet une zone relativement chaude, (d'où son accessibilité) mais de ce fait peu représentative. De plus, cette région est riche en volcanisme, ce qui peut aussi avoir une influence. En réalité, les mesures sur l'épaisseur glacée de la partie opposée du continent montrent une augmentation de l'épaisseur de glace. Si bien qu'en moyenne, la quantité totale de glace à tendance à augmenter légèrement.

Au final, voilà une autre raison de ne pas trop s'inquiéter d'une montée catastrophique des eaux. La glace antarctique résiste bien au réchauffement et il n'y a aucune raison pour que ça change dramatiquement durant ce siècle.

11:00 Publié dans Monde, Science | Lien permanent | Commentaires (41)

22/12/2017

Les calamités que nous réserve ce siècle

Après la température, je vais lister une série de calamités dont on nous rabâche les oreilles jour après jour. Je me propose de les analyser de manière mesurée, de ne pas céder ni au négationnisme ni au catastrophisme et de les confronter de manière rationnelle à la réalité. Car indépendamment de la cause du réchauffement, une augmentation importante de la température a eu lieu dans les années 80 et 90 et si ces calamités en sont la conséquence, cela doit pouvoir se mesurer de manière objective.

  1. Les cyclones tropicaux vont augmenter en nombre et en intensité

Cette année 2017 a été marquée par une série de cyclones ravageurs dans les Antilles. D’aucuns considèrent cela comme la preuve ultime que nous nous dirigeons vers un cataclysme climatique d’une ampleur sans précédent. Mais il s’agit avant tout d’événements météorologiques de grande ampleur et ils sont le fruit d’une situation particulière, sans doute héritée d’El Niño, qui a perturbé les courants océaniques durant 2 ans. En effet, il s’agit ni plus ni moins que de l’ouverture d’une soupape de sécurité après l’accumulation de beaucoup de chaleur dans l’Atlantique. Rien ne permet de dire que cette situation se reproduira à court terme ni que ça a quelque chose à voir avec le réchauffement.

Il existe un indicateur, calculé tous les ans, qui devrait exploser si c’était le cas : il s’agit de l’énergie totale des cyclones. En effet, cet indicateur est l’addition de l’énergie calculée de tous les cyclones qui se sont déroulés durant une année. Logiquement, si les cyclones augmentent en nombre, l’indicateur augmente. Si les cyclones augmentent en intensité, il augmente aussi. Et bien sûr, s’ils augmentent à la fois en nombre et en intensité, il augmente bien plus encore.

global energy.jpg

Or que voit-on ? Dans les années 90, il y avait de bonnes raisons de croire à une telle corrélation entre augmentation de la température et de l’énergie totale des cyclones. Pareil au début des années 2000. Et on observe également un pic pour les dernières deux années, ce qui n’a rien d’étonnant. Il faut toutefois remarquer que ce pic n’a rien d’exceptionnel et qu’il est surpassé par plusieurs autres.

 Par contre, ce pic fait suite à une période de calme de pas loin de 10 ans que rien ne permet d’expliquer ! On a en effet affaire à la période la plus chaude depuis le début de la mesure des températures mondiales et pourtant il y a un calme plat au niveau des cyclones. En sciences, une théorie est considérée comme solide tant qu’on n’a pas trouvé d’argument contraire. Mais si un seul argument contraire est trouvé, alors la théorie est infirmée. C’est donc le cas de celle qui met en corrélation directe la température et l’énergie cyclonique. A-t-on tenu compte de cette période de calme pour au minimum modifier la théorie ? Non bien sûr. Comme toujours dans cette affaire climatique, on fait comme si on n’avait rien vu et on continue simplement à asséner les mêmes vérités. (ce qui encore une fois n’est pas une pratique scientifique mais dogmatique)

D'une manière générale en tout cas, on ne peut pas dégager une tendance claire. L'activité cyclonique semble chaotique, comme le sont tous les phénomènes météorologiques. Le site allemand ci-dessous (dont j'ai tiré le graphique) montre d’ailleurs à quel point il n’existe absolument aucune corrélation entre la température des océans et l’intensité des cyclones. Visiblement, la théorie dominante ne se confirme absolument pas.

http://www.wetter-center.de/blog/?p=1970

  1. Le niveau de la mer va monter et plusieurs pays auront disparu en 2100

C’est ce qu’a annoncé encore une fois Emmanuel Macron devant ses invités pour la conférence de Paris. Quelques chefs d’état sont donc rentrés chez eux la peur au ventre. Pas étonnant que ces pays soient les meilleurs contributeurs à la cause climatique, puisqu’ils sont les premières victimes attendues.

Maintenant comment peut-on affirmer cela ? Comme le montre les mesures par satellites du niveau moyen des océans, le rythme actuel d’élévation des eaux est de 3.5 cm par décennie. Si l’élévation continue sur le même rythme, nous aurons donc près de 35 cm de montée des eaux sur un siècle. (ou une trentaine de cm en plus par rapport à maintenant) C’est plus ou moins la hauteur d’une vague un jour de mer très calme et bien moins que l’amplitude des marées. Bref, rien de catastrophique qu’on ne puisse gérer avec 82 ans devant nous !

sl_ns_global.png

Donc il est clair que pour que la prévision de Macron se réalise, il faut que le taux d’augmentation du niveau de la mer augmente fortement. Et cela devrait se voir sur le graphique du niveau moyen des océans en fonction du temps. Mais ça n’est pas le cas. Ce taux est pratiquement invariable dans le temps. Les petites variations sont d’ailleurs surtout corrélées aux cycles El Niño (en rouge sur le graphique ci-dessous) / La Niña (en bleu), ce qui tombe sous le sens, puisqu’un océan plus chaud se dilate alors qu’un océan plus froid se contracte.

elnino.gif

Bref, encore une fois, la théorie alarmiste ne semble pas se concrétiser. Nous pouvons donc sans crainte continuer à visiter les Seychelles ou les Maldives. N'en déplaise à Macron, elles continueront à exister longtemps encore.

A suivre…

12:25 Publié dans Monde, Science | Lien permanent | Commentaires (4)

21/12/2017

La sensibilité climatique

Pour faire suite à mon précédent billet, je souhaite préciser la notion de sensibilité climatique. Une donnée que les scientifiques du GIEC considèrent comme parfaitement connue et que les décideurs qui se sont réunis pour signer l’accord sur le climat utilisent comme base, puisqu’ils ont choisi de s’accorder sur une température à ne pas dépasser plutôt que sur une quantité de gaz à effet de serre émise à ne pas dépasser. Dans leur tête, c’est exactement identique, car la sensibilité climatique établit une causalité directe, mais dans la pratique ça n’a pas grand-chose à voir. Ce qu’ils ont fait revient à valider les modèles informatiques utilisés, sans doute extrêmement précis, mais comme je vais le montrer, très difficiles à régler. Au passage, je ne suis pas climatologue et je me réfère donc à d’autres personnes dans ce domaine. Par contre, de par ma profession, je pense pouvoir dire que je comprends bien comment fonctionne un programme informatique et comment on le met en œuvre. En particulier, je sais qu’un programme d’ordinateur ne fait que ce qu’on lui demande et que si le créateur souhaite l’amener à faire une prédiction, il la fera sans aucun doute.

Tout d’abord, il faut comprendre que l’atmosphère est un système physique, donc régi par des lois dans l’ensemble bien connues, mais chaotique, donc beaucoup trop difficile à quantifier en se basant sur ces lois. De ce fait, on connait la plupart des processus qui s’y passent, mais on ne sait pas dans quelle mesure ils influent sur l’ensemble. Pire, il reste des phénomènes qui sont assez mal connus, comme la formation des nuages par exemple.

Donc si on veut faire une prédiction concernant l’atmosphère, on doit avoir recours à de l’approximation, à savoir des « modèles mathématiques » sur ordinateur. Beaucoup de branches scientifiques ou techniques utilisent des modélisations et on ne pourrait sans doute pas faire grand-chose sans. Mais les modèles nécessitent un réglage pour bien fonctionner. Ils utilisent une série de constantes qu’on va pouvoir faire varier de manière à recréer un modèle de la réalité le plus fidèle possible. On le comprend donc : pour que le modèle soit fiable, on a avant tout besoin de recul. Il faut pouvoir comparer le modèle à la réalité dans le plus grand nombre possible de situations connues. Plus il fonctionne dans un nombre important de situations passées, plus il a de chances d’être précis à l’avenir.

Le problème de la climatologie, c’est que c’est une branche assez jeune de la science. Les données passées sont assez peu nombreuses et plus on remonte dans le passé, moins elles sont fiables. C’est là que se trouve le premier problème : depuis la fin des années 70, deux constellations de satellites mesurent quotidiennement les températures terrestres selon une grille très précise et je pense qu’on peut faire confiance aux données récoltées depuis lors. Par contre, auparavant on ne se basait que sur des stations météorologiques, sujettes aux pannes, dont la présence sur la surface du globe n’est pas uniforme et surtout, qui se trouvent dans des lieux dont l’affectation a souvent changé. On peut par exemple trouver des photos sur internet, de stations qui se trouvent sur un toit où une unité extérieure de climatisation (donc soufflant de l’air chaud) avait été installée ! Donc le premier problème, c’est que si on règle les modèles mathématiques en fonction de données antérieures à l’existence des satellites, on prend un risque de biaiser le modèle de plus en plus à mesure qu’on remonte loin dans le temps.

Régler un modèle

Comment se déroule ce réglage ? Et bien on fait tourner le modèle avec une série de données et on regarde si le résultat reflète bien la réalité. On recommence ensuite avec d’autres séries de données pour obtenir plus de précision. C’est un travail long et fastidieux, mais nécessaire. Quand on est satisfait, on considère qu’il est réglé et alors on le laisse tourner dans le futur pour faire des prédictions d’évolution.

Vient ensuite la phase de validation. On compare les prédictions à l’évolution réelle et on vérifie ainsi la précision du modèle. S’il y a encore des différences, on affine les données pour obtenir encore plus de précision. C’est ainsi par exemple qu’on améliore sans cesse les modèles de météorologie afin de faire des prédictions précises toujours plus loin dans le temps.

Par contre pour ce qui est de la climatologie, c’est justement là que se trouve le second et principal problème : les prédictions se situent si loin dans le temps que cette phase de vérification ne peut pas avoir lieu. Et c’est si grave que pour moi, cela invalide totalement la méthode. Certes on dispose maintenant d’un peu de recul pour juger des prédictions des résultats obtenus à la fin des années 90, mais on nous rétorquera toujours qu’on travaille avec des données anciennes. C'est vrai, c’est un fait, mais le problème c’est que les résultats récents n’ont pas été validés et ne sont donc pas utilisables.

Il faut comprendre que sans ce travail de validation, une infinité de jeux de données existe pour atteindre le même résultat. On peut par exemple négliger certains phénomènes et en sur-représenter d’autres. Le résultat sera pratiquement identique. Donc dans notre cas, on peut choisir une sensibilité climatique plus élevée et négliger d’autres phénomènes. Cela fonctionnera tout aussi bien. Autrement dit, le résultat qu’on tire du modèle, à savoir la sensibilité climatique, est également une donnée initiale. Tout ce qu’elle reflète donc c’est l’à-priori du régleur…

Afin de faire une simple vérification « à la louche » des modèles, prenons donc ces prédictions débutant autour de l’an 2000 afin de les comparer à la réalité.

modeles.jpg

On arrive très bien à mesurer que la prédiction pour presque tous les modèles, à l’exception de celui qui utilise un taux de dioxyde de carbone constant depuis l’an 2000 ce qui ne s’est de toute façon pas produit, annoncent une augmentation d’environ 0,4 degrés durant les 2 premières décennies du 21ème siècle. Or voici un enregistrement des données réelles tirées des quatre grands indicateurs de la température mondiale, deux étant issus des données satellitaires, les deux autres basés sur les stations météo mais suivant suffisamment bien les données satellitaires pour être considérés comme précis.

températures.PNG

On voit deux grands pics, l’un en 1998 et l’autre l’année passée, avec une période plus ou moins stable entre deux. Les pics sont dus aux phénomènes « El Niño » qui se produisent régulièrement dans le Pacifique. Il s’agit d’une inversion des courants marins qui perturbent le climat mondial pendant une année ou deux. Au passage, si vous entendez que les années que nous venons de vivre sont les plus chaudes enregistrées, c’est juste. Mais ce qu’on ne dit pas assez par contre, c’est que c’est dû justement à El Niño ! On voit d’ailleurs que la température est en train de revenir à la normale et il ne s’agit donc pas d’un changement durable.

Bref, en réalité le phénomène El Niño ne doit pas être pris en compte car c’est un évènement de type météorologique qui affecte l’atmosphère durant une durée trop courte pour être visible dans les modèles. Ces derniers ne cherchent d’ailleurs pas à le prévoir car ils n’ont pas été créés dans ce but et il serait donc erroné d’en tenir compte. (ce que les journalistes ne se privent pourtant pas de faire en disant justement que les dernières années sont les plus chaudes…) Ou plutôt si, j’utiliserai les 2 pics pour mesurer le réchauffement entre eux. Situés à 18 ans d’écart, donc presque 2 décennies, il y a en gros une augmentation de 0.2 degrés.

Si on compare cela aux 0.4 degrés prévus par les modèles, pratiquement du simple au double, on voit qu’il y a un écart si important qu’on peut affirmer que les modèles sont désormais infirmés. En fait, ce qui se produit c’est que la sensibilité climatique a sans doute été surévaluée et d’autres phénomènes négligés. C’est donc tout le modèle qui devrait être revu pour tenir compte de l’évolution réelle.

Au passage, vous constaterez que 0.2 degrés sur 20 ans, ça fait 1 degré sur un siècle. Si on ajoute les 0.7 degrés du 20ème siècle, on arrive à 1.7 degrés, soit moins que les 2 degrés de l’accord sur le climat. Il ne s’agit bien sûr pas d’une prédiction précise, mais il s’agit juste de faire remarquer l’ironie de la situation : si nous continuons sur le même rythme de réchauffement jusqu’à la fin du siècle, (et c'est un grand si) l’objectif de l’accord sur le climat sera atteint… sans rien faire du tout !

11:17 Publié dans Monde, Science | Lien permanent | Commentaires (6)

20/12/2017

Pour sauver la planète, limitons le réchauffement à moins de 2 degrés

C’est officiellement l’objectif fixé par l’accord de Paris signé lors de la COP21. On n’a pas fixé un but en émissions de carbone, ce qui aurait eu un sens objectif, mais un but lié à une augmentation de température supposée catastrophique. En faisant cela, on a gravé dans le marbre la relation numérique entre les émissions de CO2 et l’augmentation de température. Cela signifie donc qu’on considère ce qu’on appelle la « sensibilité climatique », à savoir l’effet du doublement du taux de CO2 sur la température, comme une donnée inscrite dans le marbre.

Je revois avec amusement ces chefs d’états tombant dans les bras des uns et des autres pour la réussite exceptionnelle qu’ils venaient d’accomplir. « Wouhouhou ! Nous sommes les meilleurs ! Nous avons réussi à signer ! Le monde est sauvé grâce à nous ! »

Oui c’était un exploit formidable. Ils ont réussi à tenir un stylo le temps d’apposer un paraphe sur une feuille de papier. Le reste n’est que bagatelle. Les progrès techniques monstrueux et les fonds abyssaux à mettre en jeu, c’est du pipeau. Les dizaines ou centaines de milliers d’ingénieurs qui vont devoir plancher sur les moyens d’atteindre l’objectif fixé ont la tâche facile. Le plus dur était de signer.

 

Lire la suite

28/11/2017

On peut faire dire ce qu'on veut aux statistiques

En fait, je suis un fervent supporter du domaine des statistiques que j’ai souvent utilisées dans le cadre de mon travail, mais pour avoir souvent eu l’expérience d’un mauvais emploi de ces méthodes, je sais à quel point il faut être prudent quand on analyse les résultats d’une telle étude. En effet, rien n’est plus facile que de manipuler une statistique et ceux qui ne sont pas attentifs et acceptent simplement l’argument d’autorité (selon un sondage SOFRES, selon une étude britannique, etc…) se font manipuler et on les amène à penser exactement ce qu’on souhaite.

Les méthodes sont diverses, on peut les classifier en deux catégories principales : non prise en compte de certains facteurs et mise en corrélation d’éléments sans rapport ou dépendant d’une cause commune. Donc si la première méthode est une manipulation, la seconde est carrément mensongère. Comme illustration de cette seconde méthode, je vous propose par exemple une étude désignant la teinture de cheveux comme cancérogène.

Lire la suite

On peut faire dire ce qu'on veut aux statistiques

En fait, je suis un fervent supporter du domaine des statistiques que j’ai souvent utilisées dans le cadre de mon travail, mais pour avoir souvent eu l’expérience d’un mauvais emploi de ces méthodes, je sais à quel point il faut être prudent quand on analyse les résultats d’une telle étude. En effet, rien n’est plus facile que de manipuler une statistique et ceux qui ne sont pas attentifs et acceptent simplement l’argument d’autorité (selon un sondage SOFRES, selon une étude britannique, etc…) se font manipuler et on les amène à penser exactement ce qu’on souhaite.

Les méthodes sont diverses, on peut les classifier en deux catégories principales : non prise en compte de certains facteurs et mise en corrélation d’éléments sans rapport ou dépendant d’une cause commune. Donc si la première méthode est une manipulation, la seconde est carrément mensongère. Comme illustration de cette seconde méthode, je vous propose par exemple une étude désignant la teinture de cheveux comme cancérogène.

Lire la suite

15/09/2017

L'Homme et le hasard

Après le passage de pas moins de quatre ouragans dans les Antilles et le golfe du Mexique, ce qui est frappant, c’est la tendance de beaucoup à mettre cela sur le dos du réchauffement climatique. Et cela alors que les météorologues eux-mêmes ne s’y risquent pas. En effet, il est extrêmement difficile de mettre un évènement climatique quel qu’il soit sur le compte d’un changement climatique à grande échelle. Et même si quatre ouragans se succèdent, on peut penser que cela est dû à des conditions océaniques particulières durant cette année et dans cette région. Cela ne peut par contre pas être considéré comme une preuve d’un changement à long terme.

irma.jpgEn réalité, au delà de la tristesse que je ressens devant le dénuement des populations touchées, cela m’inspire une réflexion sur la perception que l’Homme a du hasard. Je pense que l’être humain déteste le hasard. Pour lui il rime avec danger. (qui en anglais se dit ‘Hazard’ tout comme le hasard, ça n’est sans doute pas pour rien) Pour cela il préférera dire qu’un événement climatique catastrophique est dû à sa propre incurie, et donc qu’il a les moyens d’y remédier, plutôt qu’accepter l’éventualité qu’il soit dû au hasard des circonstances.

Lire la suite

19:02 Publié dans Science | Lien permanent | Commentaires (2)

28/07/2017

Augmentation de l'activité sismique (partie 3 et fin) : autres théories

Note précédente : Augmentation de l'activité sismique (partie 2) : La planète X

haarp.jpgSi c'est la planète X qu'on accuse le plus souvent sur Internet d'être la cause de l'augmentation présumée du nombre de séismes, j'ai aussi lu qu'il pourrait s'agir de l'expérience ultra-secrète de l'armée américaine HAARP ! (High Frequency Active Auroral Research Program) Pour faire simple, HAARP est un réseau d'antennes situé en Alaska, dont le but est de ioniser la couche de l'atmosphère qu'on appelle 'ionosphère' et dans laquelle se produisent par exemple les aurores boréales lorsqu'elle est ionisée par les rayons cosmiques, afin d'étudier la possibilité d'utiliser ce phénomène pour les communications à très longue distance autour du globe. Sur Internet, on accuse cette expérience de tous les maux de la Terre, peut-être pas tout à fait à tort d'ailleurs car il paraît tout de même dangereux de faire ainsi joujou avec notre atmosphère. Changements climatiques, mort mystérieuse de groupes entiers d'animaux, séismes et même... contrôle mental de populations entières sont les capacités ou les effets secondaires supposés de l'installation ! Je ne vais pas tenter de réfuter ou démystifier la plupart de ces affirmations. Par contre, je m'intéresserai à l'une d'entre elle en particulier: son utilisation comme arme sismique. Ou plus exactement, son utilisation a-t-elle conduit à l'augmentation du nombre de séismes qu'on observe depuis le début du siècle.

C'est en effet envisageable : pourquoi ne pas penser que les scientifiques, dans leur quête désespérée de la découverte, ont créé un monstre capable de tuer des populations entières à distance ? Et bien je ne vais pas le cacher, cet effet supposé est très facile à réfuter en se basant sur les données sismiques que j'ai relevées. Selon Wikipedia, l'armée a abandonné l'installation en 2013. L'université locale (en Alaska) a reçu ensuite l'autorisation d'en reprendre l'exploitation en 2015. Il n'est pas précisé si cette exploitation a effectivement repris à ce moment-là. Mais ce qui est certain, c'est que l'installation était à l'arrêt durant toute l'année 2014. On devrait ainsi voir une nette diminution de l'activité sismique durant cette année. Mais il n'en est rien, bien au contraire. 2014 est finalement la seconde année à la plus forte sismicité, juste derrière 2007 (33 séismes de magnitude supérieure ou égale à 6) et à égalité avec 2008. (32 séismes de magnitude supérieure ou égale à 6) Donc exit HAARP, ce n'est pas cette installation qui provoque l'augmentation de l'activité sismique, n'en déplaise à ses détracteurs. (ou fans ?)

Pour clore avec les théories qui fleurissent sur Internet, j'ai été très intéressé par un blogueur qui dit avoir détecté un pic sismique annuel depuis 2004, l'année du séisme de Sumatra. Bien sûr, lui considère que c'est dû à la planète X dont on sait qu'elle n'existe pas. (voir mon précédent billet) Déjà, lui au moins s'est rappelé que la Terre tourne autour du Soleil et il attribue ce pic sismique à l’alignement annuel du Soleil, de la Terre et de la planète X. Il fait l'hypothèse que la planète X est doté d'un si fort magnétisme qu'elle annule pratiquement le magnétisme solaire lors de cet alignement et provoque donc une sorte de spasme du noyau de notre planète. Bien entendu, on voit très mal comment une planète pourrait avoir un magnétisme si important qu'il pourrait annuler celui du Soleil. Mais puisque cette planète n'existe pas, il est de toute manière inutile de pousser plus loin cette démonstration. (il est par contre tout à fait envisageable qu'un tel effet existe avec d'autres planètes comme Jupiter ou Vénus, mais à bien moindre échelle) Non, ce qui m'a intéressé dans sa proposition, c'est qu'il ait découvert un pic sismique annuel autour du mois d'avril. Ça, c'est très intéressant je trouve. Donc pour en avoir le cœur net, j'ai repris ma série de données issue des archives de la NOAA et j'ai recherché, en les classant par mois, l’existence de ce pic sur la période concernée, à savoir 2004-2017.

Séismes par mois 2004-2017.PNG

Alors oui, il semble bien qu'il existe un pic au mois d'avril, mais c'est loin d'un pic aussi marqué qu'il le prétend. Je me suis donc limité à la période 2010-2017 pour voir si l'intensité de ce pic augmentait ou diminuait.

Séismes par mois 2010-2017.PNG

Et je pense que oui, le pic semble s'amplifier. Difficile en revanche de dire si c'est dû à une véritable augmentation ou à un effet lié au manque de significativité des données statistiques.

Maintenant, pour faire un rapprochement entre l'augmentation supposée de l'activité sismique et le pic sismique observé, il serait intéressant de vérifier s'il existait auparavant. Donc j'ai refait la même étude, mais pour la période 1950-1990, qui est clairement antérieure à la période active observée.

Séismes par mois 1950-1990.PNG

Le pic est moins marqué certes, et il se situe plutôt en mars. Mais il existe bien et il ne peut pas être attribué à une hypothétique planète X, qui n'était pas encore censée être à portée ! On doit donc plutôt parler de pic printanier. Et finalement, ne devrait-on pas plutôt l'attribuer à une cause climatique ? Je me souviens que certains géologues font l'hypothèse que les pergélisols empêchent ou retardent les séismes en figeant les sols en profondeur. Le fait est que ces pics printaniers font suite à des périodes hivernales plus calmes. On peut donc faire l'hypothèse que l'hiver retarde une partie des séismes qui se produisent au printemps alors qu'ils auraient dû se produire plus tôt.

Et là ça m'a donné l'idée de comparer la courbe de l'augmentation des séismes avec celle des températures. J'utilise la courbe éditée par le Hadley CRU de l'université d'East Anglia (cliquer sur l'image pour agrandir)

Comparaison temp - séismes.PNG

La forme générale est assez semblable, mais dans le détail il ne s'agit pas d'une corrélation forte. Il faut dire que les séismes sont des événements hautement aléatoires et il aurait été étonnant de voir les deux courbes presque confondues ! Toutefois, l'hypothèse d'une augmentation liée au réchauffement climatique ne me paraît pas infondée. C'est en tout cas une hypothèse que font certains géologues et climatologues. Et ceux qui me connaissent savent que je suis loin d'être un apôtre du réchauffement et de ses conséquences catastrophiques. Ceci dit il y a bien une chose qu'on ne peut pas nier en la matière : nous vivons une période chaude et cela a forcément des conséquences, même si elles ne sont peut-être pas si catastrophiques qu'on le prétend généralement.

13:17 Publié dans Science | Lien permanent | Commentaires (3)

26/07/2017

Augmentation de l'activité sismique (partie 2) : La planète X

Note précédente: L'activité sismique est-elle en augmentation ? (partie 1)

Pour expliquer l'augmentation de l'activité sismique, certains parlent aussi d'une planète X, soit disant connue de la NASA et qui approcherait de la Terre toutes les 3600 et quelques années, provoquant moult péripéties à chacun de ses passages. La présente occurrence a donc lieu depuis le début des années 2000. (son précédent passage étant responsable du déluge biblique, c'est d'ailleurs comme ça qu'ils ont calculé la période, ça montre à quel point la méthode est scientifique !)

planète x.jpgOn mélange d'ailleurs tout et n'importe quoi, car certains l'appellent Nibiru, nom qui aurait été donné à cette planète par les Sumériens lors d'un précédent passage et ils affirment qu'elle serait la planète d'origine des Annunakis, des extra-terrestres qui seraient rien de moins que les dieux de Sumer ! (j'ai dû d'ailleurs manquer quelque chose, la civilisation sumérienne n'existait pas encore en 5200 av. JC et n'existait plus en 1600 av. JC, les Sumériens n'ont donc pas pu observer de passage de la planète supposée) Au départ, ils ont tous attendu l'arrivée de cette planète pour fin 2012 et la fin du calendrier des Mayas.* Mais le fait que la fin du monde ait finalement été moins grave que prévu ne les dérange pas du tout. Ils sont toujours persuadés que la planète X est en approche. En seront-ils encore persuadés dans 10 ans ? Dans 20 ans ? La question reste ouverte.

Bien entendu, même si on évite de parler des Annunakis, on touche là à l’irrationalité la plus complète. Si les astronomes suspectent, du fait de perturbations gravitationnelles causées aux géantes gazeuses extérieures en particulier Neptune, l'existence d'une planète Nine (planète neuf) et d'une planète X (planète dix), il n'a jamais été question de planètes faisant parfois des incursions dans le système solaire intérieur ! Ces planètes sont en effet cantonnées à la ceinture de Kuiper, très très loin du Soleil, trop loin en tout cas pour influer sur notre bonne vieille Terre. (pour rappel l'intensité du champ magnétique diminue avec le carré de la distance !) Leur période est certes dans le même ordre de grandeur que Nibiru, mais cela est dû à leur éloignement justement. Contrairement à ce qu'a affirmé un commentateur sur le précédent billet, les astronomes mettent énormément de moyens actuellement pour essayer de détecter ces deux planètes, qui sont difficiles à voir, car loin de leur périhélie. (point de leur orbite le plus proche du Soleil) Non les scientifiques ne sont pas sectaires et ne refusent pas la découverte, au contraire c'est le moteur de leur mode de pensée. Mais ils ne se basent que sur des arguments rationnels pour fonder leurs recherches. C'est cela qui peut paraître déprimant pour ceux qui aimeraient qu'ils étudient sérieusement le sujet de leurs fantasmes collectifs.

Car finalement, on peut trouver une multitude d'arguments qui rendent impossible l'existence d'une planète qui approcherait de la Terre depuis le début des années 2000. Tout d'abord, si on se réfère aux lois de Kepler datant du 17ème siècle **, tout corps astral en orbite suit une trajectoire elliptique dont l'un des foyers et l'astre autour duquel il gravite. Lorsque l'orbite est circulaire, les deux foyers se confondent en un seul et donc l'astre attracteur est au centre de cette orbite. L'orbite circulaire des planètes est donc un cas particulier de cette loi, les comètes par contre suivent des trajectoires elliptiques quelconques et sont donc à considérer comme le cas général de la loi.

Loi de Kepler.PNGLes lois de Kepler induisent aussi qu'un corps suivant une trajectoire elliptique ira beaucoup plus vite lorsqu'il est à proximité de l'astre autour duquel il gravite que lorsqu'il en est éloigné. On voit en effet qu'une comète telle que celle de Halley, dont la période est de 76 ans, n'a été visible que durant moins d'un an lors de son dernier passage à proximité du Soleil, en 1986. La comète de Hale Bopp particulièrement brillante, qui a éclairé notre ciel durant 18 mois entre 1996 et 1997, a une période d'environ 4200 ans, ce qui la rend plus proche du cas qui nous intéresse. Donc on peut en déduire qu'une planète suivant une orbite comparable à cette comète ne peut pas traîner dans le système solaire intérieur depuis autant d'années ! C'est absolument absurde de l'affirmer et ceux qui y croient sont vraiment naïfs.

Le second argument, c'est qu'il y a beaucoup trop d'astronomes amateurs sur Terre pour parvenir à cacher l'existence d'une telle planète. Il faut d'ailleurs noter que les planètes Venus, Mars et Jupiter sont très brillantes dans le ciel et peuvent être vues de tous à l’œil nu, même par un fort clair de Lune ! Et bien sûr il en serait sans doute de même pour une planète faisant une incursion au sein du système solaire intérieur. Bref, si la planète X se trouvait à proximité, on la verrait à l’œil nu et on serait au courant de sa présence.

Certains, conscients de ce problème, prétendent que si on ne voit pas la planète X approcher, c'est qu'elle est cachée par le Soleil. Mais il semble qu'ils oublient que notre planète tourne justement autour du Soleil. Comment le Soleil pourrait cacher l'approche d'une planète... toute l'année ? Les autres planètes sont parfois cachées par le Soleil mais sont visibles le reste du temps. Il devrait en être de même pour la planète X. En fait, pour que la planète X approche du système solaire intérieur en restant cachée par le Soleil, il faudrait que sa trajectoire soit... une spirale ! Décidément, Dieu ne veut pas qu'on puisse se préparer à la catastrophe qui nous guette, pour nous imposer tant d'entorses aux lois de la physique...

Il y en a d'ailleurs qui sont conscients des problèmes de leur théories et ils inventent des solutions alambiquées. Ce blog vaut bien le détour pour ceux qui veulent rire un bon coup:

http://harmonyum.over-blog.com/2015/10/nibiru-position-ao...

Si si, la fameuse trajectoire spirale ! Le pauvre est obligé de transgresser une bonne dizaine de lois de la physique pour arriver à expliquer l'inexplicable ! Petit problème tout de même, le "passage 1" (sic) prévu pour 2016 ne s'est pas réalisé. Quelle conclusion en tirer ? En tout cas, son blog a cessé d'émettre. Il est peut-être terré dans un abri à attendre la fin du monde ?

nibiru.jpgOn voit d'ailleurs aussi fleurir des images du Soleil où une sorte de second soleil apparaît à ses côtés. Bien entendu, il ne s'agit que de reflets liés à l'optique des appareils photo utilisés. Et puis ceux qui mettent ces photos en ligne veulent justement prétendre que c'est le Soleil qui cache la planète X, ce que l'on sait absurde.

J'ai aussi lu qu'un télescope avait été construit en secret en Antarctique pour observer l'approche de la planète X qui ne serait visible que de là-bas. Problème: il n'existe aucun point du ciel qui pourrait n'être visible que de l’Antarctique. Au moins les Australiens, les Néo-zélandais, les Argentins, les Chiliens et les Africains du Sud devraient pouvoir observer la planète.

Voilà. Autrement dit exit Nibiru. Cette planète n'a jamais existé que dans l'esprit de certains qui en ont besoin pour donner du sens à leurs croyances. Et l'augmentation de l'intensité des séismes n'a rien à voir avec elle.

* Concernant la fin du calendrier Maya, j'avais écrit un billet à l'époque détaillant mon explication. Je vous en conseille la lecture:
http://leblogdekad.blog.tdg.ch/archive/2012/12/16/qui-a-p...

** Les 3 lois de Kepler sont empiriques et basées sur l'observation, mais plus tard, Newton découvrira la gravitation et parviendra à démontrer que ces lois sont des cas particuliers de la sienne. Voir ici une très bonne explication pour ceux qui souhaitent creuser le sujet, dont j'ai tiré une illustration du présent billet:
http://matieresscientifiques.fr/terminale-S/physique/lois...

Note suivante : Augmentation de l'activité sismique (partie 3 et fin) : autres théories

11:06 Publié dans Science | Lien permanent | Commentaires (0)

25/07/2017

L'activité sismique est-elle en augmentation ? (partie 1)

Note : Je découpe ce billet en plusieurs parties, du fait de sa longueur. Les autres parties viendront dans les jours suivants.

japon.jpgCertaines sources sur Internet parlent d'une augmentation de l'activité sismique qui aurait lieu depuis le début des années 2000. On se rappelle en effet de terribles séismes ayant eu lieu durant cette période, en particulier à Haïti, au Chili et bien sûr les très meurtriers tsunamis liés aux séismes de Sumatra en 2004 et du Japon en 2011, tous deux de magnitude supérieure à 9 sur l'échelle de Richter. Cela marque les esprits, mais cette impression est-elle réelle ?

Et bien j'ai voulu en avoir le cœur net. J'ai téléchargé les données sur les séismes répertoriés par la NOAA * entre les années 50 et nos jours en me limitant aux séismes de magnitude 6 ou supérieure, ceci afin d'éviter un effet lié au manque de disponibilité des données, les séismes de basse intensité pouvant être insuffisamment documentés par le passé dans certaines régions. J'ai ensuite trié ces données afin de déterminer l'évolution réelle de la fréquence des gros séismes dans le monde.

La base de données de la NOAA de laquelle j'ai tiré ces données: https://www.ngdc.noaa.gov/nndc/struts/form?t=101650&s...

(Note: si quelqu'un est intéressé par le fichier Excel que j'ai créé à partir de ces données brutes pour les utiliser, je le mets à disposition. M'envoyer simplement un email en cliquant sur le lien dans la colonne de droite, j'y répondrai avec le fichier attaché)

Le graphique obtenu est le suivant: (cliquer sur l'image pour l'agrandir)

Total mag 6-9.PNG

 

 

 

 

 

 

Finalement, ce que montre ce graphique, c'est qu'il semble bien que le nombre de séismes augmente depuis le début du siècle et peut-être encore plus depuis 2008. La moyenne annuelle de la décennie en cours est d'environ 25 séismes, alors que cette moyenne était de moins de 15 dans les années 50. A noter que l'année 2017 semble bien se diriger vers la même moyenne, comptant déjà 14 séismes de magnitude 6 ou supérieure, voire 15 car le dernier séisme en Turquie ne fait pas encore partie des données collectées.

On peut toutefois imaginer que cette augmentation soit due au manque de référencement de certains séismes anciens. Pour éviter cet effet, je me suis limité aux séismes de magnitude 8 ou supérieur, beaucoup moins nombreux, mais provoquant une telle stupeur qu'ils ne peuvent pas être oubliés. Donc si on peut imaginer que les séismes de magnitude 6 étaient imparfaitement répertoriés durant les années 50 et 60, cela parait impossible que cela soit le cas concernant les plus gros d'entre eux !

 

Total mag 8-9.PNG

 

 

 

 

 

 

 

 

 

Quand on trie les données par décennies, on voit une claire augmentation. En effet, dans ce cas on trouve 9 séismes pour les années 50, 10 durant les années 60, seulement 6 dans les années 70, 5 dans les années 80, 6 pendant les années 90. Ils étaient par contre 12 durant la première décennie de ce siècle et déjà 7 durant l'actuelle. Autrement dit, il y a déjà eu plus de très gros séismes durant ces dernières 17 années que durant les 30 précédentes ! La différence me paraît donc significative.

Bref, sans qu'il s'agisse d'un effet aussi impressionnant que certains le prétendent, cela semble confirmer une augmentation, d'ailleurs connue des scientifiques spécialistes de ce domaine mais non expliquée. Alors bien sûr, on trouve sur Internet diverses théories, pour expliquer cette augmentation de l'activité sismique, parfois très farfelues.

Par exemple, certains disent qu'on se dirige vers une inversion de la polarité de la Terre à très brève échéance et que l'augmentation de l'activité sismique est la prémisse d'un cataclysme global. Comme souvent, ils prétendent que c'est également l'avis des scientifiques, voire qu'ils cachent la vérité pour éviter de provoquer une panique. Et bien, selon les spécialistes, c'est vrai qu'il est probable qu'on assiste à une inversion de la polarité de la Terre dans les prochains millénaires, mais pas dans les prochaines décennies ! Certes le pôle magnétique s'est déplacé et l'intensité du champ magnétique semble en légère baisse. Cela indique des modifications subtiles du noyau de la Terre, qui peuvent éventuellement être une prémisse d'une inversion future. Ou peut-être pas, nul ne le sait.

Mais le plus gros problème, c'est d'expliquer comment une telle inversion pourrait être la cause d'une augmentation de l'activité sismique. Il n'y a pas de modèle scientifique testé qui explique en quoi une inversion polaire pourrait provoquer une augmentation de l'activité sismique. Mais bon, pourquoi pas ? Le problème ce n'est pas qu'on invente des théories, mais c'est plutôt qu'on en fasse des vérités absolues sans l'amorce d'une preuve... Et surtout qu'on accuse les scientifiques de cacher la vérité à la population !

D'ailleurs, le fait que cette catastrophe globale avait été annoncée pour la fin du calendrier Maya, comme dans le très mauvais film catastrophe '2012', et qu'en 2017 cela ne se soit toujours pas passé ne les dérange pas : ils attendent toujours la fin du monde pour le lendemain, comme si notre calendrier s'était arrêté avec celui des Mayas ! Que la vie doit être gaie quand on pense chaque jour que la fin du monde va se produire le lendemain !

* La NOAA est une organisation américaine regroupant des données liées aux sciences de la Terre, leur site est une véritable mine d'or d'informations sur notre planète.

Note suivante : Augmentation de l'activité sismique (partie 2) : la planète X

10:17 Publié dans Science | Lien permanent | Commentaires (21)

30/01/2017

Voyages dans le temps

Récemment, je me suis posé la question de la possibilité du voyage dans le passé. En effet, le voyage dans le futur est rendu possible par la théorie de la relativité d’Einstein, un peu à l’image de ce qui arrive aux personnages du film Interstellar, qui en approchant d’un trou noir voient « leur » temps ralentir fortement par rapport à celui de leurs trounoir-interstellar-film.jpgproches restés sur Terre et voyagent ainsi dans le futur, puisqu’ils rentreront sur Terre à une époque qu’ils n’auraient jamais dû vivre s’ils n’avaient pas quitté la Terre. En revanche, les théories d’Einstein ne prévoient pas le retour dans le temps. Jusqu’à preuve du contraire, la flèche du temps pointe toujours dans la même direction et on ne peut pas l’inverser.

Mais le fait est que rien ne permet d’en écarter la possibilité. En particulier, la théorie de la relativité générale prévoit que les 4 dimensions de l’espace et du temps peuvent se recourber dans une cinquième dimension sous l’effet de la gravité. C’est d’ailleurs ce phénomène qui explique le ralentissement du temps dans le cas du film cité précédemment. Et si le temps ralentit en s’approchant du trou noir, il semble que la théorie d’Einstein faillisse totalement à expliquer ce qui se produit à l’intérieur de ce trou noir. Certains pensent que le temps est si écrasé que le trou noir pourrait servir de passage spatio-temporel vers un autre lieu de l’espace et du temps, voire même vers un autre univers ;! La science-fiction s’en abreuve copieusement, mais on est encore très loin d’une théorie scientifique.

Ca n’est bien sûr que pure spéculation, mais on peut tout de même se demander si cela sera un jour possible. Et là, rapidement on doit se rendre à l’évidence. Si un jour une découverte permettait à la race humaine ou à nos descendants d’acquérir une technologie lui permettant de voyager dans le temps, elle se mettrait rapidement à explorer toutes les périodes de l’histoire. En fait, nous devrions déjà les avoir rencontrés à de maintes reprises, tout au long de l’histoire. Nous les rencontrerions de temps à autre, au détour de leurs voyages, comme de furtives rencontres avec des humains très différents de nous, disposant de technologies que nous ne pourrions même pas comprendre. En fait, comme le disait Arthur C. Clarke, nous verrions dans leur technologie une sorte de magie, tels des hommes des cavernes découvrant Internet. *

Et en fait… c’est là qu’on se dit que ça rappelle quelque chose. A partir de là, ça n’est que pure spéculation et il ne faut rien y lire de scientifique. Mais le fait est qu’il arrive à certains d’entre nous de faire des rencontres étranges, furtives et inexplicables. Des rencontres avec des formes de vie et des technologies qu’on ne pense pas pouvoir être issues de notre planète, car ces êtres ne sont pas humains et parce que leurs technologies sont bien trop avancées pour simplement imaginer qu’elles puissent être d’origine humaine. Et bien sûr il serait totalement inacceptable d’imaginer que notre planète puisse abriter des formes de vie bien plus avancées que la nôtre. On décrète donc que ces apparitions sont d’origine extra-terrestre.

Or, rien ne permet d’affirmer cela. Jamais on n’a pu prouver que ces apparitions venaient d’autres planètes. En réalité, on les appelle « Objets volants non-identifiés », à cause de trois caractéristiques qu’on ne peut réfuter : elles sont des objets, elles volent et on n’a pas réussi à les identifier. Et si on n’a pas pu les identifier, je trouve très présomptueux de décréter qu’elles sont d’origine extraterrestre. D’ailleurs dans l’histoire de l’humanité, chaque fois qu’on n’a pas réussi à expliquer un phénomène, on lui a attribué une origine plus ou moins surnaturelle et au fur et à mesure qu’on a progressé dans la connaissance des sciences, la place pour ce type d’explications s’est réduite de plus en plus. Aujourd’hui il faut admettre que la place pour un dieu s’est fortement réduite. Reste les extraterrestres dont la science ne peut nier l’existence faute de preuve.

Que sait-on sur les OVNI et les rencontres du troisième type ? D’une part, une très grande majorité de ces cinema-quelques-rencontres-avec-les-extraterrestres-revoir_2.jpgphénomènes trouvent une explication sans faire appel à des phénomènes surnaturels. Mais au final, un petit pourcentage ne trouve aucune explication. Il faut donc se concentrer sur ces derniers. La deuxième chose, c’est qu’il n’y a aucune raison de douter de la sincérité de la plupart des témoins. Ils sont la plupart du temps tout à fait sincères et certains phénomènes sont d’ailleurs observés par un nombre important de témoins indépendants. Il faut donc considérer que le phénomène OVNI est réel. Il y a de fortes chances que certaines observations concernent des technologies militaires ultrasecrètes, mais sans doute pas toutes. En particulier, les témoignages de rencontres d’humanoïdes qui de manière étrange sont souvent concordants entre eux, décrivant des petits personnages au crâne surdéveloppé, peuvent difficilement s’expliquer de cette manière.

Partant de là, je me suis mis à comparer la théorie classique, celle de voyageurs spatiaux, avec une autre possibilité, celle de voyageurs temporels. Dans le premier cas, on se retrouve avec des visiteurs, qui ont traversé de nombreuses années-lumière pour venir nous rencontrer, qui font une ou plusieurs petites apparitions comme s’ils prenaient un malin plaisir à provoquer des témoignages qui feront passer les observateurs pour des illuminés, puis repartent aussi vite qu’ils sont arrivés pour rentrer chez eux. Et ils reviendraient souvent, comme si cela les amusait. De plus, au vu de la disparité des technologies observées, (soucoupes, boules lumineuses, cigares…) ils viendraient sans doute de nombreuses planètes différentes. Leurs buts resteraient assez obscurs. Pas d’invasion, pas de liens amicaux créés avec une espèce étrangère. Seulement éventuellement une petite étude scientifique peu poussée. A se demander comment une espèce aussi peu curieuse a réussi à atteindre un tel niveau de développement technologique !

Quant aux témoins de rencontre avec des êtres vivants, ils décrivent en général des êtres non-humains et ne ressemblant à aucune forme de vie terrestre connue. Mais tout de même, il s’agit presque toujours d’êtres se tenant debout sur deux jambes, possédant deux bras terminés par des mains pourvues de doigts, possédant une tête, un cou, une bouche et deux yeux… bref, rien de très exotique je trouve. On peut mettre ça sur le compte du manque d’imagination des observateurs qui dans leur délire collectif voient ce que leur cerveau est capable d’imaginer ou qui se réfèrent à ce qu'ils ont vu au cinéma. Ou alors on peut se dire que finalement les êtres qu’ils disent observer ne sont pas si étrangers à notre planète que cela.

Admettons maintenant que ces êtres viennent du futur. D’un futur lointain où nos descendants auront réussi à inventer des machines permettant de voyager dans le temps, et en particulier, dans le passé. Que feraient-ils ? Je pense qu’ils se déplaceraient le long d’une ligne temporelle, de proche en proche, pour découvrir de leurs yeux ce qui pour eux relève d’une importance historique capitale. On les retrouverait de temps en temps, faisant une brève apparition, observant le monde de cette époque, ses technologies, ses formes de vie, puis repartant encore plus loin dans le passé, donnant l’impression aux observateurs de l’époque concernée qu’ils se sont volatilisés. Probablement, ils auraient pour règle de ne pas interférer dans la mesure du possible avec les habitants de l’époque afin de ne pas modifier ce qui pour eux est le passé et qui pourrait ainsi modifier le futur duquel ils sont issus. En effet, en admettant par exemple qu’ils soient issus d’un cataclysme pour eux historique, empêcher ce cataclysme pourrait les empêcher d’exister ! Il y a donc une conclusion vraiment déprimante à en tirer : quelle que soit leur connaissance des événements que nous pourrions avoir à vivre dans le futur, ils ne seraient pas là pour nous avertir et nous protéger, mais seulement pour observer notre chute.

Si par exemple, comme cela a souvent été rapporté par des témoins, ils ont observé les essais nucléaires durant les années 50 et 60, ça serait bien parce qu’ils considèrent le développement de cette technologie comme d’importance primordiale pour le futur. Mais ils n’ont pas cherché à empêcher la réussite de ces essais. Donc s’ils savent que ces armes seront un jour à l’origine d’un cataclysme majeur, le fait est qu’ils ne cherchent en rien à empêcher ce cataclysme. C’est d’ailleurs un fait très inquiétant pour nous…

800px-Sculpture_of_astronaut_added_to_New_Cathedral,_Salamanca,_Spain,_during_renovations.JPGDans le cas de visites de voyageurs du futur, nous devrions également trouver des traces de rencontres dans un passé lointain. Or il semble que certaines reliques de civilisations disparues représentent ce qu’on peut éventuellement interpréter comme de telles rencontres. Et certains écrits religieux ou certaines manifestations médiévales interprétées comme de la magie pourraient également y ressembler. Donc on ne peut pas exclure que ça soit le cas. **

Finalement, à partir du moment où cette invention sera faite, la technologie ne cessera pas de progresser du jour au lendemain. Nos lointains descendants continueront à améliorer leur technologie. Et ils continueront également à nous rendre visite, avec des machines de niveaux technologiques très différents, apparemment sans lien entre elles. Ils pourraient même avoir des apparences différentes, puisque leur race continuera à évoluer. Cela expliquerait ainsi très bien la disparité technologique ou biologique qu’on peut observer.

Bref, je trouve que l’hypothèse de voyageurs du futur tient bien plus la route que celle de voyageurs spatiaux. Cela ne suffit bien sûr pas à expliquer un phénomène restant inexplicable. Mais je me dis que ça pourrait être une explication assez crédible du phénomène OVNI. Et ça me laisse penser que, finalement, il n’est peut-être pas si impossible que cela de voyager dans le passé…

* 3ème loi de Arthur C. Clarke : « Toute technologie suffisamment avancée est indiscernable de la magie »

** Ceci dit, la troisième image représentant un astronaute sculpté sur la cathédrale de Salamanque a été ajoutée lors d'une rénovation en 1992. Donc ne pas tirer de conclusion hâtive quand on voit ce type de représentations...

16:26 Publié dans Science | Lien permanent | Commentaires (10)

21/08/2014

Réchauffement et propagande mensongère: là on touche le fond.

Je ne blogue vraiment plus beaucoup. Mais les foutaises relayées ce matin par la Tribune me forcent à réagir.

Voilà l'article de l'AFP en question, dans sa version reproduite par la Tribune.

http://www.tdg.ch/sante/environnement/Ils-dessinent-la-me...

On y apprend entre autres que le réchauffement durant la première décennie des années 2000 a été de 0.47°C. Ce chiffre totalement hallucinant m'a fait bondir. D'autant plus que depuis le début des années 2000, le réchauffement est tout simplement en panne. Donc j'ai vérifié sur les courbes données par le Hadley Center britannique:

réchauffement.jpg

Et oui, c'est vrai ! Il y a bien 0,47°C d'écart entre 2000 et 2010! Et ce sont des scientifiques qui le disent. Donc prendre un minimum et un maximum d'un signal fortement bruité pour tracer la courbe moyenne, c'est donc une méthode totalement scientifique ! Là je dis bravo on touche au paroxysme de la stupidité. Quand on en arrive à de pareilles débilités pour essayer de cacher des faits gênants, à savoir qu'il n'y a plus de réchauffement depuis plus de 10 ans, c'est que la fin est proche. Bientôt, ces idioties n'auront plus voix au chapitre.

Au passage, la droite en pointillés indique l'extrapolation de cette droite qui permet à ces "scientifiques" de prédire 2°C d'augmentation de la température d'ici 2050. Oui on est d'accord: on a bien l'air d'en prendre le chemin...

21:05 Publié dans Science | Lien permanent | Commentaires (4)

14/02/2013

Les normales saisonnières

Vous avez tous entendu les météorologues parler de normales saisonnières. Ceci sous-entend qu'il existe une température normale pour un lieu et une saison donnée et que tout ce qui sort de la normale est forcément anormal. Personnellement je n'apprécie pas trop ce terme et je lui préférerais celui de moyenne saisonnière. Bien sûr il ne s'agit que d'une question de terminologie et on pourrait en débattre longtemps. Mais le problème c'est que le terme de moyenne permet d'envisager des fluctuations alors que celui de normale n'en autorise pas.

En bref, parler de moyenne, c'est faire de la météorologie au jour le jour. Parler de normale en revanche, ça revient à essayer de faire croire que notre climat est anormal, parce que changeant. C'est une manière de pousser l'inconscient à faire l’amalgame avec le réchauffement climatique, devenu "changement climatique" depuis que la Terre ne se réchauffe plus.

Lire la suite

20:25 Publié dans Science | Lien permanent | Commentaires (0)

16/12/2012

Qui a peur des Mayas ?

Bon d'accord. Nous n'avons plus que 5 jours à vivre. C'est en tout cas ce que nous prophétisent une partie des interprètes du fameux calendrier Maya. Ceci serait dû au fait que nous allons vivre la fin d'une période d'un peu plus de 5125 ans depuis le début de notre monde. Début du monde placé donc en 3114 av. JC.

Ce qui est intéressant, c'est que cela place le début du monde Maya aux alentours du début de notre histoire. Sans doute pas un hasard: la naissance de la civilisation est une des périodes les plus cruciales pour l'humanité et il est possible que les Mayas aient pû s'y référer. Il est possible aussi qu'ils aient eu des connaissances particulières sur l'histoire du monde et en particulier de leur continent. Connaissances que nous avons peut-être oubliées depuis.

Mais même en admettant qu'ils aient eu connaissance d'un phénomène qui se serait produit en 3114 av. JC, cela signifie-t-il pour autant que ce phénomène soit cyclique ? C'est peut-être ce qu'on cru les Mayas. Mais sommes-nous obligés de les suivre dans cette idée ?

Lire la suite

11:33 Publié dans Monde, Science | Lien permanent | Commentaires (0)

08/08/2010

L'Expansion de l'Univers : 5. Quel avenir pour l'Univers ?

Vers la première partie

Vers la seconde partie

Vers la troisième partie

Vers la quatrième partie

Je termine cette série, qui je l'espère a permis de montrer que l'Expansion de l'Univers n'a rien à voir avec le créationnisme, par une série de conjectures sur l'avenir de notre Univers. Connaître l'avenir implique souvent de bien connaître le passé et le présent. C'est loin d'être le cas à l'échelle de l'Univers. Il est donc assez vain pour l'instant de prétendre connaître son avenir. Toutefois, une série d'hypothèses peuvent être faites.

Lire la suite

12:04 Publié dans Espace, Science | Lien permanent | Commentaires (6)

05/08/2010

L'Expansion de l'Univers : 4. Mais qu'implique un univers statique ?

Vers la première partie

Vers la seconde partie

Vers la troisième partie

Souvent on cherche à critiquer l'expansion. Cette théorie ne plait pas à certains parce qu'elle implique une notion de création qui profite aux religieux. (A noter que je n'ai pas dit aux créationnistes, car on peut très bien croire en une création et à l'existence d'un ou plusieurs êtres supérieurs sans pour autant nier la théorie de l'évolution) Mais qu'en est-il d'une théorie d'un Univers statique, infini et éternel ? Cette conception est-elle compatible avec nos connaissances sur les processus qui ont lieu dans la nature et sur les interactions de la matière ? Pas si sûr.

Lire la suite

21:03 Publié dans Espace, Science | Lien permanent | Commentaires (7)

04/08/2010

L'Expansion de l'Univers : 3. Le rayonnement fossile

Vers la première partie

Vers la seconde partie

majinbbang2.jpg

Peu après le Big Bang, l'Univers était encore extrêmement dense. La totalité de la matière de l'Univers actuel était réunie en un petit espace, sous forme de plasma, c'est-à-dire de noyaux atomiques et d'électrons séparés. En effet, à de très fortes températures, les noyaux atomiques ne parviennent pas à conserver leur nuage d'électrons dont l'agitation est trop rapide et ces derniers sont libres. La matière ne laissait pas encore passer les ondes électromagnétiques et l'Univers était opaque. Puis, au bout de 380.000 ans environ, la température a suffisamment baissé pour que les atomes se forment. C'est alors que les premiers photons ont été libérés, l'univers étant pour la première fois perméable aux ondes électromagnétiques.

Aussi étonnant que ça puisse paraître, cette explosion de photons peut encore aujourd'hui être observée. La découverte de ce rayonnement cosmologique a d'ailleurs porté un coup de grâce aux théories alternatives à celle de l'expansion. Car aucune autre explication ne pouvait être donnée à ce rayonnement presque homogène, nous parvenant de toutes les directions à la fois. Surtout qu'il avait été précédemment calculé théoriquement et que ce qui a été mesuré correspond assez précisément aux attentes.

En effet, il avait été prédit dans les années 40 déjà, mais c'est seulement en 1964 qu'il a été découvert de manière fortuite par deux chercheurs des laboratoires Bell aux Etats-Unis, Arno Allan Penzias et Robert Woodrow Wilson. Ces derniers ont reçu le prix Nobel de physique en 1978 pour cette découverte.

Lire la suite

03/08/2010

L’Expansion de l’Univers : 2. Se représenter un Univers en expansion

Vers la première partie

Parce que nos cerveaux ne sont pas armés pour se représenter un Univers qui se déforme, nous avons besoin d'artifices pour appréhender ce que ça signifie. Il faut donc procéder par analogies.

Lire la suite