Tricheries sur le climat, par Sébastien Renault

Les propagandistes du changement climatique incriminant le CO2 atmosphérique comme son principal agent déclencheur d’origine anthropique se comportent comme de véritables négationnistes des mécanismes de la physique de l’atmosphère et de ses processus fondamentaux d’équilibre énergétique irréductibles au transfert purement radiatif. Résultat, les raisonnements politiques actuels en matière de climat et de stratégie de « transition énergétique » se basent sur des interprétations de modélisations mathématiques fondamentalement inadéquates, voire fallacieuses. Et c’est au nom de ce grossier trompe-l’œil politique sur fond de créations de l’esprit que nos gouvernements conduisent aujourd’hui les nations à la faillite et donc à la pénurie énergétique et alimentaire de milliards de personnes à travers le monde.

Plus encore que le négationnisme d’une physique complexe, incomprise ou ignorée, le fait de faire passer les canicules, les tempêtes et les cyclones qui surviennent aujourd’hui pour de nouveaux phénomènes climatiques « hors-normes » (« apocalyptiques ») et de plus en plus fréquents, donc de se ficher des faits météorologiques historiques documentés (en plus de la concoction éhontée de fausses températures caniculaires), est l’une des caractéristiques les plus frappantes de l’escroquerie climato-alarmiste multimilliardaire médiatiquement pérennisée.

Nous nous arrêterons ici sur trois aspects de la tromperie réchauffiste toujours aussi bruyante, hystérique et propagandiste, à savoir : 1) ce qu’est, en somme, la méthodologie sous-jacente à la fabrication du réchauffement climatique (aujourd’hui comme au premier temps de ses vilaines prédictions mensongères il y a une trentaine d’années) ; 2) la fonction et le domaine de la physique du rayonnement thermique, faussés et transposés par la théorie usuelle au profit de sa guerre politique et économique contre le carbone et contre les peuples (la section la plus développée [1]) ; 3) les récents incendies estivaux survenus dans différentes régions du monde.

Biden Macron climat

Méthode canonique de tricherie : fabriquer le réchauffement climatique  

En consultant différents réseaux de climatologie historique consacrés aux données relatives aux changements de température mesurés aux échelles régionale (par exemple en Arctique) et hémisphérique, on se rend compte que le profil des différentiels signifiants au XXe siècle dans l’hémisphère nord fait ressortir une nette tendance vers le réchauffement moyen au cours des années 1930, suivie d’une baisse abrupte de la température moyenne d’environ un demi-degré, alternances directionnelles indicatives de fluctuations se produisant dans un ensemble plus large de tendances de températures moyennes dans l’hémisphère nord.

Mais avant d’être rendues publiques – par la NASA, la NOAA (l’Agence américaine d’observation océanique et atmosphérique) et autres fournisseurs de données publiées relatives aux tendances des températures –, on peut voir que les mêmes données climatiques (liées aux mêmes tendances des températures) ont été soumises à une série d’ajustements qui les font finalement et drastiquement passer d’une tendance au refroidissement à une tendance au réchauffement – de façon à pouvoir prétendre avoir étayé l’ « observation » d’un réchauffement dramatique au XXe siècle directement imputable aux combustibles fossiles.

Ce procédé constitue la technique de prédilection adoptée en climatologie pour manipuler et modifier les données se rapportant aux températures moyennes annuelles et aux anomalies de températures de l’hémisphère nord. Et c’est exactement de cette manière que Michael E. Mann, de l’Université de Pennsylvanie, a fabriqué son graphique de référence en crosse de hockey.

Ce qui a été confirmé par la fraude du Climatic Research Unit (CRU, l’unité de recherche sur le climat) de l’Université d’East Anglia, révélée par les fameuses fuites de courriels (le « Climategate » dûment qualifié de « scandale scientifique ») en novembre 2009. Ce qu’ont fait les escrocs climatologues du CRU, spécialisés dans la falsification des données de température moyenne de référence, consiste en une modification en deux étapes des données de température pertinentes en vue

    1) de produire un refroidissement hémisphérique spectaculaire des températures antérieures à 1960, sans tenir compte de la déclinaison survenant après 1940 par rapport à l’inflexion marquant la tendance au réchauffement dans les années 1930 ;

  et

2) de produire un réchauffement spectaculaire des températures postérieures à 1980 par rapport aux températures satellitaires de surface de l’hémisphère nord.

Ce que nous rappelons ici à titre de contexte, celui qui permet aux propagandistes du changement climatique de dépeindre un réchauffement sans précédent depuis la fin des années 1980 sur la base de prémisses superstitieuses, de modèles fictifs et d’altération des changements de température par isolation et/ou amplification de certaines composantes et régions du domaine d’une courbe de données. Pour toujours garder à l’esprit que, dans ce contexte paradigmatique de l’historique des faits météorologiques au XXe siècle, la fraude et la falsification des données font partie intégrante de ce que l’on entend aujourd’hui par « science du changement climatique ».

Mécanisme de rayonnement fictif dans l’atmosphère

La production de ce qu’on appelle un spectre thermique complet, celui d’un corps en équilibre thermodynamique avec son environnement, ne peut être obtenu à partir d’un gaz. Néanmoins, les climatologues – au même titre que les cosmologistes s’appuyant sur la loi du rayonnement de Kirchhoff pour entériner la fable d’un « Big Bang » primordial construite à partir du rayonnement résiduel (ou « fond diffus cosmologique » semblable à celui d’un corps noir) correspondant à une température d’environ 2,7 K [2] qui se propagerait dans toutes les directions (d’après  les détections réalisées en 1964 par des radioastronomes Arno Penzias et Robert Wilson) – font comme si tous les objets, y compris les gaz, pouvaient générer le rayonnement idéalisé d’un corps noir (un corps non réfléchissant, donc opaque, caractérisé par sa température constante et uniforme). Pour rappel, la loi du rayonnement de Kirchhoff porte sur le rapport des flux d’émission et des flux d’absorption d’un radiateur en équilibre thermique (sans convection ni conduction) et postule qu’il sera le même pour tous les corps à la même température. La loi en tant que telle s’appuie donc sur une fonction universelle indépendante de la composition et de la forme du radiateur, en cela uniquement déterminée par sa température et sa fréquence, ε/α = f(T, ν). D’après Kirchhoff, cette fonction thermique du corps noir, étant d’entrée mathématiquement posée comme universelle, doit s’appliquer à tous les radiateurs décrits comme dispositifs opaques (cavités) dont le rayonnement dépend exclusivement de la température et de la fréquence.

En climatologie atmosphérique, le rapport entre le rayonnement thermique et la température du principal milieu de l’influence réchauffiste, l’atmosphère lui-même, s’appuie improprement sur les caractéristiques énergétiques du corps noir idéel mesurées en watts par mètre carré. Improprement, car les gaz ne produisent jamais de spectre électromagnétique continu. Le spectre thermique d’émission d’un gaz se caractérise toujours par ses bandes spectrales de longueurs d’onde discontinues. La production d’un rayonnement thermique complet (de type corps noir) nécessite la présence de ce qu’on appelle un système réticulaire – une structure de liaisons directionnelles vibratoires fortes consubstantielle à tout phénomène surfacique non imaginaire. La notion, centrale dans le cadre standardisé de la physique du rayonnement thermique, selon laquelle la production du rayonnement du corps noir équivaut à atteindre et maintenir l’état d’équilibre thermique a été canoniquement imposée au domaine de la physique moyennant cette loi mathématique du rayonnement de Kirchhoff, publiée en 1859. Malheureusement, son application unilatérale au domaine gazeux de l’atmosphère par la « science » climatologique conduit à des résultats qui ne relèvent plus, à strictement parler, de la physique.

Il est crucial de rappeler que la relation mathématique cardinale de Stefan, en s’appuyant sur la loi du rayonnement de Kirchhoff, postule la physique des caractéristiques spécifiques du corps noir et détermine ainsi la quantité de rayonnement émise par un solide (constitué de matière condensée), par définition structurellement surfacique, à une température donnée. Par conséquent, cette relation s’applique aux solides, non pas aux gaz. Les gaz ne comportent pas de surface rayonnante.

La relation de Stefan, à laquelle s’ajoute la constante de proportionnalité de Boltzmann, est néanmoins utilisée par les climatologistes pour calculer approximativement l’augmentation de température qu’ils associent à la concentration de CO2 dans l’atmosphère en raison du rayonnement de ses molécules traitées comme des « surfaces » atmosphériques. Selon cette modélisation, incompatible avec la physique et les mécanismes de transfert de chaleur qui se produisent réellement dans l’atmosphère, le CO2 absorbe une certaine mesure du rayonnement infrarouge quittant la surface de la Terre. Les climatologistes sont dès lors d’avis que la température résultant de l’absorption du rayonnement par « effet de serre atmosphérique » conditionné par la quantité accrue de CO2 diffère suffisamment de la température de la surface émettrice terrestre pour en déduire l’alarmisme que l’on sait…

C’est la raison pour laquelle, en théorie réchauffiste, la « séquestration » d’un certain pourcentage de CO2 est censée induire ce que les climatologues appellent un « forçage radiatif » interne (ΔF), le rayonnement infrarouge étant par-là « réfléchi » vers la surface terrestre. Ce « forçage » supposé se compose donc de deux contributions : 1) la variation de l’émission atmosphérique ascendante et 2) la variation de l’absorption atmosphérique du rayonnement terrestre en réponse à un « doublement anthropique » de la concentration r de CO2 (C/C_0 = 2/1), notée rCO2. D’où la fabrication, popularisée au gré des délires et des mensonges médiatiques en continu, d’un « dérèglement » climatique.

Partant de la construction de ce mécanisme factice de mesure du réchauffement anthropique, en prenant pour acquis ses propres prémisses, le modèle climatologiste en vigueur

1) prend le logarithme népérien de la variation croissante de la concentration (Δr) de CO2 atmosphérique, en fixant les valeurs respectives à 280 ppm (la valeur préindustrielle) et à 420 ppm aujourd’hui ;

et

2) multiplie ce résultat par un facteur – dépourvu de toute référence physique et donc de toute signification extra-logarithmique – de 5,35.

En procédant de la sorte, ladite théorie obtient le « forçage radiatif » suivant, induit par l’augmentation atmosphérique de rCO2 :

ΔFCO2 = 5,35 ln(420/280) ≈ 2,17 W · m^-².                                 (1)

Il s’ensuit que cette relation « fournit », de la même manière, une mesure factice de la quantité de chaleur ajoutée à l’atmosphère. Factice, car la notion réchauffiste mathématisée de « piégeage de la chaleur » dans l’atmosphère procède d’une erreur insurmontable du point de vue de la physique fondamentale, la chaleur ne pouvant y être confinée par quelque mécanisme de rétention imaginaire (le « forçage radiatif ») gouvernée par la notion de « gaz à effet de serre » logarithmique. Le deuxième principe de la thermodynamique stipule en effet que la chaleur se dissipe sans exception, y compris au sein de l’atmosphère. Toutes les molécules constituant l’atmosphère, y compris les molécules de CO2, rayonnent en permanence, diffusant leur énergie (sous forme de chaleur) de manière quasiment uniforme.

La « physique » du réchauffement planétaire modélisée sur la petitio principii de la perturbation anthropique du climat dépend donc entièrement de cette mesure réchauffiste de la variation énergétique intra-atmosphérique définie comme facteur du « déséquilibre radiatif » régi par l’équation (1) : une relation logarithmique strictement factice entre la concentration r de CO2 atmosphérique (en ppmv) et ce qu’elle postule en termes de « forçage radiatif » (en W · m^-²).

Le bilan énergétique s’en trouve affecté par cette valeur de 3,7 W · m^-² de moins de rayonnement quittant le sommet de la troposphère que de rayonnement entrant en provenance du Soleil. En sorte que ce surplus d’énergie dans l’atmosphère, à raison de 3,7 W m² et moyennant l’artifice logarithmique propre au « forçage radiatif », fournit le catalyseur fondamental de cette « accumulation » de chaleur censée se traduire en un réchauffement de la surface de la Terre d’1 °C (+1,09 °C en 2021, selon le groupe de travail chargé de la préparation du sixième rapport d’évaluation du GIEC). Artifice qui se traduit comme suit : 

                          F  F_0 = S · log(C) – S · log(C_₀) = W · m^-²

ΔF = 5,35 · ln(C/C_₀) = W · m^-²

                        ΔF = 5,35 · ln(2) =  3,7 W · m^-² = 1 °C.                                                                                                                                   (2)

D’après le bilan énergétique sur lequel s’appuient les climatologues (en tenant compte de leurs ajustements effectués au fil des rapports), entre 41 % et près de 80 % de l’énergie en provenance de la surface terrestre serait transférée sous forme de rayonnement – principal mécanisme à même de satisfaire l’exigence thermo-émissive découlant de l’application atmosphérique de la loi de Stefan-Boltzmann, laquelle s’occupe spécifiquement de quantifier le nombre de watts par mètre carré de rayonnement infrarouge émis par quelque structure surfacique de matière condensée à une température donnée. Or, rappelons de nouveau qu’un gaz transparent rayonne d’une manière très différente de celle de la surface d’un solide opaque.

Dans l’acception technique la plus précise de sa dérivation et de signification interne, la loi de Stefan-Boltzmann stipule que l’exitance radiante spectrale totale (ou flux énergétique émis par unité de surface) provenant d’un corps noir est proportionnelle à la quatrième puissance de sa température mesurée en Kelvin (la température absolue) :

M_ν = εσT^4,                                                               (3)

ε = 1 représente l’émissivité d’un corps noir parfait.

Les climatologues l’appliquent comme la relation cardinale décrivant le taux de transfert d’énergie par unité de temps, c’est-à-dire la chaleur rayonnante Q, dans l’atmosphère :

            Q = σT^4= [5.670 × 10^-8 W · m^-² · K^-4]T^4.                                                                      (4)

En l’absence d’une convection plus importante que les effets du rayonnement dans l’atmosphère, le refroidissement mécanique de la surface terrestre n’a pas lieu et la climatologie estime donc le transfert radiatif de l’une vers l’autre sur la base de la même relation, l’objet à forte température (la surface de la Terre) rayonnant son énergie vers son environnement à plus faible température (l’atmosphère), le taux net de déperdition radiative se calculant donc comme suit :

Q = σA_s(T_sT_atm)^4,                                                                 (5)

A_s représente l’aire terrestre par unité de surface.

En combinant le sens de la loi du rayonnement de Kirchhoff et celui de la loi de Stefan-Boltzmann, la théorie du rayonnement thermique en vigueur soutient que la plupart des objets émettent et absorbent l’énergie infrarouge de manière essentiellement homogène, y compris la surface terrestre dont la température moyenne, à 15 °C, est censée émettre 390 W · m^-² de rayonnement thermique ; soit, selon le bilan énergétique postulé par la théorie réchauffiste, plus des trois quarts de la redistribution de chaleur dans l’atmosphère.

En postulant en outre le « forçage radiatif » expliqué ci-dessus, la climatologie vouée à la confirmation politique d’un « réchauffement climatique » intervertit les termes relatifs au calcul du taux net de déperdition radiative mis en scène par l’équation (5), la seule qu’il puisse retenir dans les conditions de son modèle réchauffiste spécifiquement axé sur la relation de la température et de la quantité de rayonnement émise par une surface d’aire A. Le renversement commis, entraînant la violation du deuxième principe de la thermodynamique, met en scène un rayonnement de l’atmosphère vis-à-vis de la surface terrestre, impliquant l’opération suivante :

Q = σA_atm(T_atmT_s)^4,                                                     (6)

où notre terme A_atm indique l’impossibilité du facteur surfacique d’aire A prêté implicitement à l’atmosphère par la théorie réchauffiste ambiante en climatologie, pour justifier son modèle fictif d’un « effet de serre atmosphérique ».

En retournant cette équation radiative de référence pour transférer la fonction réchauffiste au rayonnement « forcé » de l’atmosphère vers la surface terrestre (par « effet de serre radiatif »), le climatologisme en vigueur fait montre de sa volonté para-physique d’appliquer indifféremment le même mécanisme et rapport thermique aux solides et aux gaz, à toutes les températures.

C’est pourquoi nous soulignons de nouveau que les deux lois dont nous faisons ici état, la loi du rayonnement de Kirchhoff et celle de Stefan-Boltzmann, sont appliquées de manière impropre à l’atmosphère, qui ne comporte pas de surface réelle et qui, en tant que milieu volumétrique constitué de gaz transparents, à la différence d’une structure surfacique d’une certaine opacité, rayonne sans contrainte et dans toutes les directions l’énergie qui y est transférée.

Dans le cas d’un solide non réfléchissant, l’agitation thermique des molécules qui en composent la surface sera la seule à se traduire en une émission thermique. Le rayonnement ne peut en effet s’échapper de l’intérieur d’un tel solide. Il en va tout autrement d’un gaz transparent – comme l’est l’atmosphère elle-même – au sein duquel le rayonnement se propage librement sans qu’aucun facteur de rétention thermique significatif n’en provoque le réchauffement interne et/ou ne provoque une augmentation de la température d’un corps environnant (en l’occurrence, la surface terrestre) à la température moyenne interne déjà plus élevée.

Le transfert de chaleur par rayonnement décrit dans le cadre de la théorie et des caractéristiques thermiques du corps noir ne s’applique ni à l’état gazeux primordial de l’Univers (tel qu’il est envisagé selon la cosmologie mytho-théorique du « Big Bang » reposant sur la notion imaginaire d’un « rayonnement fossile »), ni à celui de l’atmosphère. Ces deux domaines ne peuvent être proprement décrits à partir des paramètres relatifs à la physique radiative du corps noir, lequel suppose l’état solide (condensé) et surfacique d’un objet porté à une certaine température et émettant, dans cette mesure même, un rayonnement thermique donnant lieu à un profil spectral continu – ce qui n’est jamais le cas d’un gaz, primordial ou atmosphérique.

De plus et pour finir, notons que l’homogénéisation standard interne au modèle radiatif réchauffiste est imposée par la valeur de la constante σ de l’équation (4) combinée à la quatrième puissance exponentielle de la température, valeur de proportionnalité mathématique donnant lieu à un rayonnement infrarouge beaucoup trop important – semblable à celui des matériaux non réfléchissants – à basses ou normales températures. Alors qu’à ces températures standards, le rayonnement infrarouge émis par la matière solide est en réalité très faible.

Mathématiquement parlant, l’application des spécifications simplificatrices du facteur de proportionnalité σ à l’atmosphère indique que le taux de production et de rétention énergétique par mètre carré censé y survenir n’est autre que celui d’une surface solide approchant le profil spectral d’un corps noir. Comme si toutes les substances, données à l’état solide, liquide ou gazeux, emmagasinaient et émettaient leur énergie thermique de la même manière.

En somme, l’application universelle de σ – à la fois aux solides et aux gaz moyennant l’exclusivité mathématique de la loi de de Stefan-Boltzmann dérivant la température à partir de la quantité de rayonnement émis par quelque surface – permet à la climatologie contemporaine de traiter le milieu atmosphérique, constitué de gaz transparents, comme si sa densité matérielle minime était celle d’un solide ; et comme si la composition chimique des différents matériaux se présentant dans différents états de la matière (à raison de forces, de liaisons et de poids moléculaires variant d’un matériau à l’autre et d’un état de la matière à l’autre) ne déterminait pas le taux et la quantité d’échappement de leur rayonnement thermique respectif.

C’est cet artifice, œuvre d’une simplification mathématique de la complexité physique intrinsèque aux phénomènes climatiques, qui constitue la base de la redéfinition réchauffiste du budget énergétique centrée sur le mécanisme fictif de l’ « effet de serre atmosphérique ».

Le sujet mérite de s’y attarder plus avant, et nos recherches nous y portent par ailleurs, sans que nous puissions pour autant développer et approfondir ici davantage, de peur d’outrepasser les limites et l’objectif de cet article.

Hystérisation des incendies forestiers : tempérons  

Un mot, des plus brefs, au sujet des incendies qui ont sévi cet été dans le nord du Gard, dans les Cévennes, et dans certaines régions outre-Atlantique (au nord de la Californie).

Les incendies de forêt ne sont bien sûr pas du tout une mauvaise chose en soi, lorsqu’ils ne sont pas l’œuvre criminelle de pyromanes forcenés. Le concours de groupes de militants écolos dans la mise en œuvre de certains incendies criminels sur le territoire étasunien, groupes pour lesquels l’adoption de stratégies écoterroristes est parfaitement « légitimée » par le besoin de sensibiliser le public aux dangers du « réchauffement climatique » en cours (tous les moyens étant permis lorsqu’il s’agit de promotion et de défense d’une « bonne cause »), ne peut être exclu [3]. Les principaux groupes ayant recours à la violence pour « sauvegarder l’environnement » et disséminer leur idéologie écologiste absolutiste [4] comptent notamment le Earth Liberation Front (« Front de libération de la Terre »), fondé il y a trente ans au Royaume-Uni, et Earth First! (« La Terre d’abord ! », voir leur « édifiant » journal ici).

Plus fondamentalement, les écosystèmes forestiers sont beaucoup plus viables et robustes après avoir été soumis à des incendies cycliques, à raison de différents facteurs de causalité naturels ou de procédures de contrôle environnemental professionnellement encadrées (incendies planifiés et contrôlés). De tels incendies permettent, entre autres, de générer les températures élevées dont les cônes des pins ont besoin pour libérer leurs graines.

Par contraste, l’absence de feux périodiques « hygiéniques » imposée par les politiques idéologiques du climatisme « vertueux » favorise le développement des forêts envahissantes et embroussaillées, ayant notamment pour conséquence l’accumulation de matériaux combustibles à même le sol (facteurs de déclenchement potentiel d’incendies imprévus).

Autrement dit, lorsque les arbres et les arbustes deviennent plus denses et que les bûches, les bâtons, les feuilles mortes ou les aiguilles s’accumulent à la surface des forêts, le risque d’incendies incontrôlés plus ravageurs augmente considérablement. À contrario, lorsque les incendies forestiers surviennent plus fréquemment sous contrôle protocolaire des Eaux et Forêts, ils éclaircissent l’espace qui va faciliter la pousse des jeunes arbres et réduire la présence de matériaux combustibles au sol, et du même coup le risque d’incendie sauvage.

II sera enfin utile, pour conclure aujourd’hui, de rappeler à nos amis climato-alarmistes toujours enclins à crier « au feu ! » et aux vagues de chaleur sans précédent prétendument causées par la consommation anthropique de combustibles fossiles, que la France et d’autres pays ont, au cours de leur histoire, traversé des périodes à proprement parler caniculaires beaucoup plus longues et meurtrières que ce à quoi nous assistons ces dernières décennies.

L’alarmisme officiel s’est plu, comme chacun sait, à hystériser à outrance le mois de juillet 2022, dans l’espoir, peut-être, de faire oublier la sécheresse de 1540 en Europe ; le mois de juillet caniculaire en 1757 ; les grandes sécheresses répétées au cours du XVIIIe siècle, particulièrement sévère en 1723 ; les soixante-dix jours d’affilés, à 30 °C, de juillet à septembre 1911, qui virent l’Europe, notamment la France, faire face à une hécatombe de quelques 40 000 morts ; les grandes vagues de chaleur consécutives de juin, juillet et août 1947, jusqu’à 40 °C de moyenne à Paris en juillet ; les seize jours consécutifs, entre la fin juin et la mi-juillet 1976, à plus de 30 °C de moyenne, particulièrement brutaux et étouffants en France et au Royaume-Uni… Rien d’exhaustif ici, chacun pourra se documenter.

Pour en revenir aux années 1930 (évoquées plus haut comme charnières dans l’histoire du climat au XXe siècle) et aux canicules qui y sont survenues, notamment outre-Atlantique, on pourra consulter à profit l’excellent ouvrage d’histoire de la météo aux États-Unis, qui s’arrête en détails sur les conditions liées à la canicule de juillet 1936 : The 1936 North American Heat Wave: The History of America’s Deadly Heat Wave during the Dust Bowl and Great Depression.

À voir et partager également, ce petit clip vidéo de moins de 30 secondes de film d’archive des rues de New York City, en juillet il y a 86 ans : 1936 Summer Heat Wave, New York City.

Ni les incendies forestiers ni les vagues de chaleurs estivales ne sont le fait de la teneur en CO2 atmosphérique. C’est pourtant ce que répètent à l’envi politiciens, médias et scientifiques corrompus, pour culpabiliser les pauvres gens et leur faire porter le chapeau d’un désastre économique suscité par la déraison de la carbophobique ambiante. Tout cela pour satisfaire les ambitions d’une cabale de vulgaires escrocs au pouvoir dont la « transition énergétique » annonce la ruine et l’asservissement des nations au profit d’intérêts immondes et post-humains.

Faux modele arnaque climat

_______________________

[1] Un échantillon de nos recherches portant sur l’atmosphère et sur les problèmes relatifs aux deux lois de référence que nous abordons ici, pour en montrer les limites dans le contexte climatique de la physique des transferts d’énergie impliquant la Terre et son atmosphère.

[2] Température censée procurer à l’observateur contemporain sur Terre l’empreinte thermique « confirmée » du premier moment radiatif observable (désigné sous le nom de « découplage du rayonnement ») de l’évolution de l’Univers (à l’époque cosmologique dite de « Grande recombinaison »). Il n’en est rien, en réalité, pour de nombreuses raisons qu’il n’est pas notre propos d’aborder ici, mais qui établissent la défectuosité insurmontable de la mythologie cosmologique, officiellement toujours en vigueur, d’un Univers en expansion issu d’un « Grand Boum » primordial (le grossier « Big Bang » de la religion matérialiste athée se donnant des allures de science).

[3] An Overview of Bombing and Arson Attacks by Environmental and Animal Rights Extremists in the United States, 1995-2010, May 2013 (dhs.gov).

[4] The Rise and Fall of America’s Environmentalist Underground – The New York Times (nytimes.com).

Articles recommandés

2 commentaire

  1. Leroux gwenola a dit :

    Même si l’oubli des cycles et les projections mathématiques abusives sont patents, la hausse des températures et les incendies dévastateurs (incontrôlés) de cet été sont une réalité qu’il est absurde de nier. La présence abusive de l’homme (du capitalisme industriel, pas de n’importe quel humain) sur la nature ou son absence dans certaines zones comme les Monts d’Arrhees (désertés), la pollution engendrée où le déséquilibre animal/homme accroissent les méfaits des phénomènes naturels dus au cycle.
    Je pense qu’il faut dénouer les noeuds des idéologies pour faire mieux apparaître la réalité. Et ne pas opposer une idéologie négationniste à l’idéologie dominante.
    Merci pour votre analyse.

Laisser un commentaire

©2023 Plumenclume.com