Aller au contenu
Les Forums de MeteoBelgique
passiion

L'effet de serre

Messages recommandés

Généralité

Il serais bien d'aborder le bilan radiatif ( énergie perdue/reçue ) du système Terre/atmosphère. Puisque c'est là aussi le point central du Rc ( qui on le rappel est une modification du bilan radiatif; forçage radiatif par les GES principalement ). En terme de forçage radiatif, un forçage positif va avoir tendance à réchauffer le système et un forçage négatif à le refroidir.

Pour qu'il y'ait des pertes ou gains il faut déjà qu'il y'ait une source d'énergie. Cette source d'énergie est principalement le soleil comme tout le monde le sait après avoir passé le Cm1. L'autre source de chaleur est la géothermie ( 4 ordres de grandeur plus faibles, elle représente moins de 0,02 % de l'énergie totale ).

Le rayonnement solaire reçu par les couches les plus élevées de l'atmosphère est d'environ 340 W.m-2 en moyenne annuelle. Il faut aussi savoir que le soleil est une étoile de type G2 ( une naine jaune ), son spectre d'émission se trouve principalement entre 0,2 à 4 micromètres, c'est à dire l'ultraviolet ( 10%), le visible ( 40%) et le proche infrarouge ( 50%). Il y'a également des émissions dans les rayons X et gamma mais en très faibles proportions, et ceux ci sont stoppés dans l’ionosphère.

La puissance totale reçue par le système Terre-atmosphère est de 175 pétawatts. 1 pétawatts valant 10^15 watts.

Cette énergie comme on l'a dit provient essentiellement du soleil. Mais tout cette énergie n'est pas absorbée par le système climatique, 30 % est réfléchie vers l'espace en moyenne actuellement ( nettement plus durant les ages glaciaires ).

Après, quand on donne ces données chiffrées il faut prendre en compte également que la constante solaire porte mal son nom car elle n'est pas constante Laughing. Le rayonnement solaire et donc l'énergie qui arrive dans le système climatique varie en fonction des cycles astronomiques ( 22 000, 41 000, 100 000 ans...). En général on prend S = 1368 W.m-2.

Quand on compare les autres sources de chaleur de la terre ( géothermie et friction dues aux marrées ), on remarque combien elles sont négligeables avec respectivement 0,02 et 0,002 % du bilan total.

L'angle solide ( quand vous ouvrez la fenêtre le matin, on peut tracer un angle solide, donc en 3D, entre vos yeux et le champ du paysage que vous voyez ) sous lequel la terre reçois l'énergie du soleil est très petit. Comparé à l'énergie totale du soleil, la Terre en reçois seulement un centième de pourcentage. Ce rayonnement, lorsqu'il s'approche de la Terre, est réfléchi par la surface/nuages, diffusé par les gaz atmosphérique/aérosols, ou absorbé par les gaz/aérosols/nuages/surface.

On appelle albédo solaire du système Terre-atmosphère la proportion du rayonnement solaire incident réfléchi ou rétro diffusé vers l'espace. En moyenne, comme on l'a dit plus haut, environ 30% de ce rayonnement est réfléchi vers l'espace.

Les plus courtes longueurs d'onde ultraviolettes du spectre solaire interagissent avec l'oxygène et l'azote dans la partie supérieur de l'atmosphère. Cela conduit à la photodissociation et à l'ionisation de ces deux gaz. L'ozone formé dans la haute stratosphère grâce a la dissociation de l'oxygène, à une bande d’absorption entre 0,2 et 0,3 µm. Elle filtre ainsi presque totalement le rayonnement UV avant son entré dans la troposphère.

Dans le domaine du visible, les gaz atmo' sont quasiment transparents aux rayonnement solaire. Par contre dans sa zone infrarouge, la vapeur d'eau et le CO2 ont des bandes d'absorptions qui contribuent en partie au réchauffement de l'atmosphère. En moyenne, 16% du rayonnement solaire est absorbé par les gaz et les poussières, 3 % par les nuages et 51 % par la surface.

La surface, les gaz, les aérosols et les nuages émettent du rayonnement dans la gamme de l'infrarouge ( entre 4 et 100µm, avec un maximum vers 12 µm), conformément aux valeurs de température observées sur terre et dans l'atmosphère. Le spectre solaire et terrestre sont donc presque disjoints.

A l'échelle du climat le système Terre-Atmosphère est en équilibre du point de vue radiatif ( Ce n'est pas vrai pour les périodes de transitions entre deux états climatiques par exemple, actuellement en période de Rc. Ou bien dans le passé, lors de la transition vers une période de glaciation ).

Si l'on se place dans un contexte stable, on peut faire l'approximation que la quantité d'énergie qui sort est quasiment égale à la quantité d'énergie qui entre.

Cependant les processus impliqués dans le bilan Terre-atmosphère sont plus complexes dans l'infrarouge que pour le soleil, car sur terre on a des gaz qui sont en bonne partie opaques à ce rayonnement, et donc l'absorbent. L'effet de serre qui en résulte est un mécanisme essentiel à la compréhension du système climatique.

Zoom sur l'effet de Serre

Pour matérialisé cet effet on va étudier 2 modèles de système Terre/atmosphère.

Pour rappel la superficie d'une sphère c'est 4 * pi * R², le rayonnement arrive lui sur un cercle de superficie pi * R², il y'a un ratio de 4 entre les deux .

- Dans le premier modèle, on suppose que le système se comporte comme un corps noir ( absorbeur et émetteur parfait ), de forme sphérique et de rayon égal à la terre. Dans ce 1er modèle on ne tient pas compte de la présence de l'atmosphère.

On calcul l'énergie solaire incidente par mètre carré de surface et par unité de temps ;

s = S x 3.14 x a²/4 x 3.14 x a² = S/4 W.m-2

Soit 342 W.m-². Une partie de cette énergie et réfléchie vers l'espace. Si k est l'albédo moyen du système, l'énergie absorbée est (1 - k)s. Le système étant en équilibre radiatif, l'énergie solaire absorbée est égale à l'énergie émise, soit :

(1- k)s = o(T1)^4 ou T1 est la température moyenne considérée comme uniforme dans ce premier modèle. Avec un albédo de 0,3 on obtient une température T1 de 255K c'est à dire -18 degrès. Cette température est de plus de 30 degrés plus basse que la température moyenne de 288K observée sur Terre. ce premier modèle sans atmosphère et trop simple n'est donc pas réaliste.

- Pour mieux piger l'effet de serre, on va utilisé un deuxième modèle, encore assez simple, mais qui présente une couche absorbante située au dessus de la surface. On suppose donc qu'une couche atmosphérique est située entre la surface et l'espace. Pour simplifier on va supposer que cette couche est complètement opaque au rayonnement infrarouge émis par la surface, et complètement transparente au rayonnement solaire. On suppose également que cette couche se comporte comme un corps noir. Elle emet donc un rayonnement A vers le haut et vers le bas proportionnelle à la puissance quatrième de sa température ( loi de Stefan -B. ).

Lorsque le système climatique est en équilibre radiatif, on peut écrire que la surface terrestre et la couche atmosphérique émettent autan d'énergie qu'elles en reçoivent, soit :

(1- k)s + A = E Pour la Terre

E = 2A Pour la couche d'atmosphère.

On en déduit donc :

A = (1-k)s

E = 2(1-k)s

Dans ce modèle encore simple, l'équilibre radiatif est assuré quand les températures de la surface et de la couche sont telles que la surface émet deux fois plus que la couche ( c'est ce que l'on trouve dans le système d'équations d'avant ). En posant E = o(T2, Terre )^4 et A = o(T2, Atmo)^4, on obtient T2, Terre = 303K et T2, Atmo = 255K.

Les "o" ce sont des sigma, mais je n'ai pas réussi à foutre le symbole ^^'

Donc dans ce 2e modèle, l'équilibre radiatif n'est possible que si la surface est beaucoup plus chaude que la couche absorbante située au dessus. Du coup la température obtenue dans ce second modèle est trop chaude par rapport à ce qu'on mesure en moyenne sur Terre.

Il est possible de mieux modéliser le comportement radiatif du système Terre/atmo en divisant l'atmosphère en une succession de couches ayant leur propre température. Chaque couche reçoit du rayonnement des couches supérieures et inférieures, émet avec une émissivité plus réaliste, différente de 1, et transmet donc une partie du rayonnement incident. On obtient une température de surface plus proche de 288K, avec une décroissance verticale des couches jusqu'à des température de l'ordre de 250K.

Le taux de décroissance vertical que l'on trouve ici est supérieur à celui que l'on mesure en réalité dans l'atmosphère car ici ce modèle est purement radiatif. Pour comprendre le profil moyen de température, il faut prendre d'autres phénomènes radiatifs que l'effet de serre, et convectifs. Par exemple l'absorption du rayonnement UV par l'ozone. Mais aussi les mouvements atmosphériques verticaux/horizontaux qui opèrent un mélange qui à tendance à lisser les gradients.

Ici les 3 schémas des modèles que l’on vient d’expliciter :

277018img067.jpg

On voit ici l'importance des gaz atmosphérique dans le bilan radiatif d'un système.

Vous aurez aussi remarqué que l’énergie dans le système Terre/atmosphère ( appelons le piscine d’énergie ) est comme un jeu de robinet entre le débit de l’énergie qui rentre et celui de l’énergie qui sort. Quand on a plus d’entrée que de sortie (ou moins de sortie que d’entrée ), l’énergie augmente, le système se réchauffe. Si c’est l’inverse cela se refroidit. Paix aime bien prendre cet exemple.

Pour faire une petite anecdote, l'effet de serre porte mal son nom puisque les processus qui se rapportent à ce qui se passe vraiment dans une serre ne sont pas les mêmes. Ici l'on a vu que les processus radiatifs sont dominants, alors que dans la serre c'est principalement le transport de chaleur par convection qui est bloqué par les parois de la serre qui provoque le réchauffement. Ils avaient fait une expérience avec du Halite ( transparent aux Irs ) à la place du verre, et ont mesurés une augmentation similaire de la température dans les deux cas. On conclue donc qu'il n'ya quasiment aucun effets radiatifs dans la serre et que le blocage de la convection domine le processus de réchauffement.

C'est parceque ce terme est impropre à ce qui se passe dans l'atmosphère que les scientifique préfèrent parler de forçage radiatif.

Zoom sur les GES ( gaz à effet de Serre )

Perso, je préférerais parler de GAEFR ( gaz à effet de forçage radiatif ) mais bon :lol: Ce sont les gaz qui permettent de ne pas vivre sur une terre avec une moyenne de -18 degrés, et réchauffe donc notre lieu de vie.

Un gaz ne peut absorber les infrarouges qu'à partir de trois atomes par molécule, ou à partir de deux si ce sont deux atomes différents.

Les principaux gaz à effet de serre qui existent naturellement dans l'atmosphère sont :

• la vapeur d'eau (H2O) ;

• le dioxyde de carbone (CO2) ;

• le méthane (CH4) ;

• le protoxyde d'azote (N2O) ;

• l'ozone (O3).

Les gaz à effet de serre industriels comprennent aussi des gaz fluorés comme :

• les hydrochlorofluorocarbures, comme le HCFC-22 (un fréon) ;

• les chlorofluorocarbures (CFC) ;

• le tétrafluorométhane (CF4) ;

J’avais vu une grosse ânerie qui disait que le dioxygène et l’azote étaient des GES. C’est faux. Le dioxygène ( O2 ) et l’azote ( N2 ) n’ont pas une structure moléculaire adéquate pour intercepter le rayonnement infrarouge. Si on prenait une atmosphère hypothétique constituée uniquement de ces 2 gaz, on serait aux alentours de la température trouvée dans notre modèle sans atmosphère (-18° ).

La durée de séjour dans l’atmosphère des différents GES varie beaucoup. Elle passe de quelque jours pour l’H2O, de 15/200 ans pour le CO2 à 50 000 ans pour le tétrafluorométhane.

On peut cité la concentration approximative des principaux GES selon le Giec :

Vapeur d'eau : 60 %

Dioxyde de carbone : 26 %

Ozone : 8 %

Méthane et oxyde nitreux : 6 %

Celà peut laisser dubitatif à première vue quand on voit la différence entre Vapeur d'eau et le CO2/méthane. Cependant, on ne peut pas mettre en place un forçage radiatif climatique avec la vapeur d'eau ; la concentration d'H2O est essentiellement fonction de la Température. Si l'on tenterait de la faire cela précipiterait très rapidement ( en quelques jours ). Cependant un forçage via le CO2/méthane.. provoque une hausse de la température, qui provoque une hausse de l'H2O. La vapeur d'eau c'est une puissante rétroaction positive, pas un forçage. Je n'ai plus les chiffres exact en tête, mais le CO2 doublé seul, c'est environ 1.2°C de plus, et le CO2 avec la rétroaction H2O c'est environs 2°C. Après on vas a 3°C environs avec le reste des rétroactions.

Qu'est ce qu'un corps noir ?

Un corps noir est un corps idéal qui est un émetteur ( mais aussi un absorbeur ) parfait : il émet le maximum d'énergie possible dans chaque longueur d'onde. Le spectre éléctromagnétique ne dépend que de sa température. Le corps noir est parfois assez éloigné des corps réels mais il reste une référence utile pour décrire l'émission dans de nombreux cas. Les travaux de Planck ont montrés que la luminance monochromatique émise par un corps noir est isotrope, elle ne dépend que de la température et de la longueur d'onde. Elle est donnée par la fonction de Planck Bλ(T) :

Bλ(T) = 2hc²/ λ^5(e^hc/kλT -1 )

D'après cette relation, l'intensité du rayonnement d'un corps noir augmente, pour une longueur d'onde donnée, avec la température.

Loi de Stefan

Quand on intègre les fonctions de Planck sur toutes les longueurs d'ondes et dans toutes les directions d'un demi espace ( isotropie ), on obtient la loi de Stefan qui donne l'émittance d'un corps noir en fonction de la puissance quatrième de sa température :

M(T) = o T^4

ou o = 5,67.10^-8W.m-2.K-4 est la constante de Stefan.

Les corps rééls ne sont jamais des corps noirs. Le rapport entre la quantité de rayonnement émise par un corps réel et celle qui serait émise par un corps noir à la même température et pour une longueur d'onde donnée s’appelle l'émissivité ( en gros la capacité à émettre quoi :P).

Loi de Kirchhoff

Elle précise que, pour une longueur d'onde donnée, un corps en équilibre thermodynamique est aussi efficace pour absorber que pour emmètre, soit :

Bλ = £λ

Pour un corps noir, £λ = 1, donc Bλ =1. En utilisant la conservation de l'énergie, on en déduit que les facteurs de réflexion et de transmission d'un corps noir sont nuls.

Les gaz sont loin d’être des corps noirs. La capacité d'absorption et d'émission des gaz atmosphérique dépend beaucoup de la longueur d'onde. Un intervalle de longueurs d'onde pour lequel un gaz à une forte capacité d'absorption s’appelle une bande d'absorption ( l'inverse s’appelle une fenêtre atmosphérique au passage ^^ ).

Quand on superpose les bandes d'absorptions des différents constituants de l'air, on remarque que l'atmosphère est assez opaque au rayonnement infrarouge en général. ( complètement opaque aux UVs, très transparent dans le domaine du visible, très opaque dans l'IR malgré quelques fenêtres atmosphériques).

J'avais une fois lu des articles ou y'avait des gars qui disaient que ces deux lois s'appliquaient mal à l'atmosphère. Evidemment, dans les modèles on ne les appliquent pas telles quelles. On calcule d'abord des coefficients qui dépend des caractéristiques microscopiques des différentes couches de l'atmosphère.

Qu'est ce que la luminance ?

La luminance est tout simplement la sensation visuelle qu’on a de la lumière. De toutes les grandeurs photométriques qui caractérisent la lumière, la luminance est celle qui nous concerne le plus, car notre organe visuel ne sait « compter » qu’en luminance. Lorsque la vision est gênée dans une forte pénombre, ou lorsqu’un phare nous éblouit, c’est la luminance qui est en cause.

Il y a plusieurs facteurs qui influencent le niveau de luminance. En premier bien sûr, l’intensité lumineuse de la source de lumière. Ensuite lorsque la luminance est renvoyée par une surface éclairée, tous les paramètres géométriques qui pondèrent plus ou moins la luminance. Et enfin, la coloration de la source lumineuse influence aussi le niveau de luminance. La luminance est la grandeur de photométrie la plus connue du grand public, car c’est celle qui correspond le mieux à nos sensations visuelles. Elle exprime le niveau de luminosité qui est une donnée sensorielle sans tenir compte du débit de lumière qui est une donnée physique.

Lorsqu’on regarde une étoile, c’est à dire une source lumineuse quasi ponctuelle, la luminance et l’intensité lumineuse, c’est la même chose. Et d’une manière générale lorsque un spot est suffisamment éloigné pour qu’on néglige sa surface lumineuse, on peut dire que luminance égale intensité lumineuse.

Mais lorsqu’on regarde une source lumineuse ayant une certaine dimension comme par exemple l’écran que vous avez devant les yeux, si l’on veut que la luminance continue à exprimer l’intensité lumineuse d’un point lumineux unique, on doit diviser l’intensité lumineuse par la surface apparente.

luminance-formule-23290.jpg

On peut aussi donner à la luminance une correspondance en unité énergétique dans le domaine de la radiométrie. On parle alors de luminance énergétique (radiance en anglais).

luminance-intensite-da24a.jpg

le projecteur de gauche est plus grand que le projecteur de droite. Le projecteur de gauche n’éblouit pas les yeux, mais éclaire correctement la pièce. Le projecteur de droite est éblouissant (en face) mais éclaire moins la pièce.

Qu'est ce que l'émittance ?

L'émittance ou exitance désigne le flux lumineux émis par unité de surface d'une source lumineuse étendue (par opposition à la mesure du flux lumineux d'une source lumineuse ponctuelle). C'est à dire qu'on utilise l'émittance pour des sources non ponctuelles, c'est à dire qu'on ne peut pas résumer à un point dans l'espace.

Pour aller plus loin

Cependant, le modèle simplifié d'effet de serre décrit plus haut est comme son nom l'indique, un modèle simplifié. Les scientifiques ne travaillent pas sur des trucs approximatifs quand ils bossent sur des choses sérieuses, mais il prennent en compte toutes les subtilités de l'atmosphère. Voici un extrait d'une des subtilité tiré de science of doom.

Formes des ligne d'absorption et élargissement de pression

L'énergie contenue dans un photon est donnée par une équation très simple :

E = hv

où h = constante de Planck = 6,63 x 10-34 Js , et ν = fréquence ( ν = c / λ où c = vitesse de la lumière et λ = longueur d'onde)

Ainsi, par exemple , un photon 15 pm a une énergie de 1,3 x 10-20 J.

Un photon est absorbé par une molécule si l'énergie du photon correspondant à l' énergie exacte requise pour modifier l'état de cette molécule . Maintenant, si un photon est absorbé seulement à une longueur d'onde précise, le rayonnement atmosphérique ne serait pas pertinent .

Un concept facile pour les gens qui ont fait beaucoup de maths ou de physique , mais pas si évident pour beaucoup d'autres .

Prenons un autre exemple . Si vous démarrez votre voiture et accélérez progressivement jusqu'à 60 km par heure pendant 1 minute , combien de temps passez-vous à la vitesse de 34.5698895549034592345123 km par heure ? Pas grand-chose . Et le plus vite que je fais cette vitesse, moins de temps je passerais par elle.

Si l'on considère combien d'énergie est transférée dans le rayonnement terrestre de la surface à 14,995698895549034592345123 um, la réponse est « pas beaucoup ». La même chose vaut pour toute autre infime intervalle de longueurs d'onde .

Donc, si chaque raie d'absorption était exactement une longueur d'onde alors la quantité d'énergie absorbée par un nombre fini de lignes serait nulle.

Toutefois, chaque raie d'absorption a une largeur finie . Cela est en partie dû au principe d'incertitude décrits par la mécanique quantique.

C'est ce qu'on appelle l'élargissement naturel et est un très petit effet .

Le mécanisme le plus facile à comprendre, c'est l'élargissement Doppler. Les molécules dans l'atmosphère s'agitent dans toutes les directions à des vitesses de l'ordre de 500 m / s. Par rapport à la vitesse de la lumière c'est petit, mais la différence de vitesse relative entre un photon et une molécule est légèrement modifiée, ce qui conduit à un changement de la fréquence d'absorption (voir note 1 pour plus de détails). C'est "relativement facile" à comprendre à partir des premiers principes et le traitement mathématique est simple.

Le mécanisme dominant dans la basse atmosphère est l'élargissement de pression, ou l’élargissement de collision. C'est plus difficile d'un point de vue théorique, mais est certainement une valeur mesurable.

Le principal effet de l'élargissement de pression est à "étaler" la raie d'absorption. Voici un exemple typique, où 1000MB est à la surface de la terre, et 200 Mo est à la "tropopause", ou en haut de la basse atmosphère:

http://scienceofdoom.files.wordpress.com/2...ening.png?w=500

Donc, l'absorption au centre de la ligne est réduite , alors que plus d'absorption se déroule sur les côtés .

Le paramètre qui décrit la quantité élargissement qui a eu lieu est appelé la demi-largeur - et est la largeur de la ligne lorsque la valeur a chuté à la moitié de la valeur de crête .

Les valeurs typiques de l'élargissement de pression demi-largeur sont de 0,01 à 0,1 cm -1 à 296 K et une pression de 1000 hPa ( pression atmosphérique de surface).

La fonction qui se rapproche de cet effet est la forme de la ligne de Lorentz :

f ( ν - ν0 ) = αL / π ( ( ν - ν0 ) ² + αL ² ) [ 1 ]

où ν0 est la fréquence de l'absorption , ν = fréquence et αL = demi- largeur à la moitié du maximum

Et la demi-largeur à n'importe quelle température et une pression données est donnée par la formule suivante:

αL = α0 ( p/p0 ) . (T0 / T) γ [2]

où α0 = demi-largeur mesurée en p0 de pression et de température T0 , et γ est également un paramètre de laboratoire de mesure , typiquement de l'ordre de 0,5 à 0,7 .

C'est beaucoup de choses à prendre si vous ne l'avez pas vu avant . Jetez un regard rétrospectif sur la figure 1 - c'est ce que ces formules décrivent .

La pression atmosphérique où l'élargissement de pression est comparable à l'élargissement Doppler et se produit a environ 10 mbar. C'est autour de 30 km au-dessus de la surface , de sorte que dans la troposphère l'élargissement Doppler est sans importance.

Dans un autre article, nous pourrions explorer les résultats expérimentaux vs résultats théoriques de pression élargissement plus en détail. Ou du moins, combien l'inexactitude pourrait affecter les calculs de transfert radiatif .

Base de données HITRAN

La mise à jour la plus récente de la base de données est décrit dans la base de données spectroscopiques moléculaire HITRAN 2008 par LS Rothman et al , et le plus tôt est l'actualisation 2004 : La base de données de spectroscopie moléculaire HITRAN 2004 par LS Rothman et al.

Cette base de données est le résultat d' une énorme quantité de travail par des milliers de chercheurs sur quelques décennies. Si vous regardez les références dans le document de 2008, vous trouverez près de 400 journaux.

Dans les articles précédents de cette série , j'ai créé deux molécules fictifs, pCO2 et pH20 , et résolu les équations de transfert radiatif pour une variété de conditions pour ces deux molécules dans l'atmosphère .

L'objectif de cette simplification était pour montrer un illumination.

Étant donné que la base de données HITRAN contient plus de 300.000 lignes d'absorption de CO2 (et 2.7M lignes au total ) , je pensais que la réplication des résultats standard ( par exemple, voir Partie VIII ) peut-être un peu trop d'un défi. Cependant, la partie la plus difficile a été le fait de lecture de la base de données, qui est sous forme de texte - et les problèmes étaient juste à cause de mon statut de novice avec MATLAB.

DeWitt Payne m'a gentiment offert quelques résultats qu'il a obtenus à partir de SpectralCalc (via abonnement). Il s'agissait de 660 à 672 cm -1 par un chemin de 1 mètre à température et pression standard, et les concentrations de CO2 de 380 ppm .

Voici la comparaison avec mon programme MATLAB :

http://scienceofdoom.files.wordpress.com/2...0-672.png?w=500

Et voici la différence entre les deux résultats (les résultats SpectralCalc moins les résultats MATLAB):

http://scienceofdoom.files.wordpress.com/2...0-672.png?w=500

Le programme MATLAB, les résultats ci-dessus, a seulement considéré le principal isotopologue de CO2, ce qui représente plus de 98% de la concentration de CO2 dans l'atmosphère. Cependant, y compris les raies d'absorption pour tous isotopologues n'a eu presque aucun effet et des petites différences demeurent.

Comme les écarts sont faibles, il semble intéressant de montrer les premiers résultats de ce programme.

Résultats

Tout d'abord, nous allons voir l'effet de la "pression élargissement".

Voici le résultat par 1m de l'atmosphère à la surface de la terre, à travers le nombre d'onde de pic d'absorption de CO2:

http://scienceofdoom.files.wordpress.com/2...7-669.png?w=500

Et le résultat à la tropopause (sommet de la troposphère) à 200mbar (généralement autour de 12km):

http://scienceofdoom.files.wordpress.com/2...7-669.png?w=500

Maintenant à 200 mbar il ya moins d'atmosphère de sorte que la comparaison n'est pas vraiment juste. L'augmentation de la longueur du chemin pour obtenir le même nombre de molécules de CO2, nous obtenons le résultat suivant :

http://scienceofdoom.files.wordpress.com/2...-6692.png?w=500

La pression et la température ont changé si cela vaut la peine de voir le résultat si nous appliquons la température de surface de la figure 5, résultats:

http://scienceofdoom.files.wordpress.com/2...7-669.png?w=500

ous pouvons voir dans le résultat (et il est également clair à partir des équations précédentes) que le paramètre ayant le plus d'effet est la pression - ce qui change par un facteur de 5. La réduction de la température de 296K à 216K a un impact beaucoup plus faible.

Cependant, la différence entre les figures 4 et 6 est très importante - des lignes individuelles sont «étalées " à la surface de la terre, mais les lignes sont plus distinctes plus haut dans l'atmosphère.

Prenons un oeil à une large gamme de nombres d'onde / longueurs d'onde.

De 600 à 750 cm-1 (de 13,3 à 16,7 um) à la surface à travers une atmosphère de 1 m:

http://scienceofdoom.files.wordpress.com/2...0-750.png?w=500

Et la même quantité de CO2 à la tropopause:

http://scienceofdoom.files.wordpress.com/2...0-750.png?w=500

Regardons un chemin plus long de 100m à travers l'atmosphère sur une partie de la bande passante, 640-650 cm-1:

http://scienceofdoom.files.wordpress.com/2...0-650.png?w=500

Et nous allons la comparer avec la tropopause, encore une fois à travers un chemin plus long, pour garder la quantité de CO2 le même:

http://scienceofdoom.files.wordpress.com/2...0-650.png?w=500

Juste pour intérêt J'ai comparé l'épaisseur optique de la surface et la tropopause pour ces nombres d'onde sur le même graphique. L'épaisseur optique augmente à mesure que la transmittance diminue.

http://scienceofdoom.files.wordpress.com/2...0-650.png?w=500

Nous pouvons voir que les pics d'absorption sont en effet plus faible, mais les largeurs des raies d'absorption sont plus larges (pour les résultats de surface).

Saturation revisité

Comme je l'ai commenté dans la huitième partie, beaucoup de gens ont entendu parler de la forte absorption du CO2 à 15 um et n'ont pas compris l'énorme variation d'absorption à travers la large bande passante de CO2. (Aussi il est le sujet le plus important de ré-émission).

Voici le résultat du modèle simple "dalle", qui calcule la transmission à travers un kilomètre de l'atmosphère (un modèle dalle signifie que la pression et la température sont constants à travers la "dalle" - un modèle très simple):

http://scienceofdoom.files.wordpress.com/2...0-850.png?w=500

Comme vous pouvez le voir, autour de 570 à 600 cm -1 ( de 16,7 à 17,5 um) et de 730 à 770 cm -1 ( de 13,0 à 13,7 um) la transmission à travers l'atmosphère est loin d'être «saturé» .

Si 1 km atmosphère a une transmittance de 0,7 ( soit 70 % du rayonnement est transmis ) à certaines longueurs d'onde alors clairement plus de CO2 vont réduire cette transmission .

Plusieurs couches de l'atmosphère

Comme la pression et la variation de température avec la hauteur dans l'atmosphère de la dalle modèle unique est limité en valeur.

Donc, j'ai prolongé le modèle à couches multiples - v0.3 (voir note 2).

Voici le résultat de transmission jusqu'à 200 Mo (20.000 Pa) de CO2 à 360 ppm avec un modèle de 15 couche :

http://scienceofdoom.files.wordpress.com/2...60ppm.png?w=500

Et, bien sûr, la question que beaucoup de gens ont - Quelle est la différence entre l'atmosphère à 280 ppm et 560 ppm - ou un doublement du CO2 par rapport aux niveaux pré-industriels:

http://scienceofdoom.files.wordpress.com/2...60ppm.png?w=500

Et la différence entre les deux, le "delta":

http://scienceofdoom.files.wordpress.com/2...60ppm.png?w=500

Rappelez-vous - ou une note, si cela est nouveau - l'atmosphère absorbe et réémet aussi. La question du forçage radiatif ne peut être répondu en ne considérant que la transmission.

Cependant, ces graphiques de la modification doit au moins indiquer aux gens que la question de l'épaisseur optique très élevé = très faible transmittance à 667 cm-1 = 15 um n'est pas l'histoire complète, même en ne considérant que la transmittance.

-----

Voilà, rien que sur un petit détail on en dit des kilomètres. Si l'on devait tout détailler à chaque fois, on ferait un bouquin de 3000 pages donc on commence à comprendre pourquoi le modèle d'effet de serre est quasi toujours simplifié quand il est exposé, même dans des articles ou livres de haut niveau. Pourtant, il est utilisé dans son intégralité par les chercheurs et scientifiques qui l'utilisent et qui étudient le climat.

Partager ce message


Lien à poster
Partager sur d’autres sites

En attendant des précisions et compléments de paix sur le sujet, voici l'histoire de l'effet de serre jusqu'à nos jours. Autant dire que ça ne date pas de hier. :lol:

Introduction

Le fait que le dioxyde de carbone est un «gaz à effet de serre» - un gaz qui empêche à une certaine quantité de rayonnement infrarouge de s'échapper vers l'espace et qui donc maintient un climat généralement chaud sur Terre, remonte à une très ancienne idée qui a vue le jour il ya près de ... 200 ans, ( bien que cette dernière n'ai pas spécifiquement de rapport direct avec le CO2 ).

L'histoire de comment cette propriété physique importante a été découverte, comment son rôle dans le passé géologique a été évalué et comment nous en sommes arrivés à comprendre que sa concentration ayant augmenté, en passant par la combustion de combustibles fossiles, nuirait à notre avenir, couvre près de deux siècles d'enquête, de découverte , et d'innovation.

timeline_TwoCenturies_16May12.jpg

Au commencement ...

Pour retrouver la trace scientifique de ce qui est aujourd'hui connu comme l'effet de serre, nous devons voyager dans le temps ; dans la France des années 1820. Napoléon, vaincu à la bataille de Waterloo quelques années auparavant, venait de mourir, mais quelqu'un qui avait entrepris des projets universitaires d'ingénierie importants pour l'Empereur était maintenant activement engage pour ses investigations sur le monde physique, avec un intérêt particulier dans le comportement de la chaleur. Ce fut Jean Baptiste Joseph Fourier (1768-1830).

Le Brave Fourrier avait calculé qu'un objet planétaire de la taille de la Terre ne devait pas être aussi chaud pour la distance à laquelle il se trouvait du soleil. Par conséquent, il a suggéré qu'il devait y'avoir quelque chose d'autre que le rayonnement solaire incident qui maintenait la planète plus chaude. Une idée lui est venue ; c'est que l'énergie venant du soleil sous forme de lumière visible et ultra-violette ( appelée à l'époque "chaleur lumineuse " ) était facilement capable de passer à travers l’atmosphère en réchauffant la terre, mais que la chaleur infrarouge ( appelée chaleur non-lumineuse à l'époque ) alors émise par la surface ne pouvait pas être renvoyée de façon aussi directe. " L'air chaud doit , expliquait-il , agir comme une sorte de couverture isolante ". Les moyens d'observations et de mesures à l'époque étant limités c'est tout ce qu'il pu avancé.

timeline_TwoCenturies_p1_draft2.jpg

Les années 1860 : Tyndall et les gaz qui retiennent la chaleur

Environs 40 ans plus tard, le fil qu'avait commencé à tissé Fourrier est repris. John tyndall, controversé à l'époque, avait supposé qu'une grande partie de l'Europe du nord avait été recouvert par la calotte glaciaire a un moment donné. Cependant ce qui était loin d’être évident c'était de savoir comment le climat pouvait changer de manière aussi drastique. Parmis les possibilités envisagées, Tyndall avait supposer que cela provenait de variations de la composition de l'atmosphère, et par une série d’expériences, il a découvert que la vapeur d'eau était un agent chimique de rétention de chaleur importante. Il a également constaté que le dioxyde de carbone était très bon pour retenir la chaleur, en dépit d'être un gaz trace ( quelques centaines de ppm ). Des centaines de parties par million ça peut ne pas sembler beaucoup, mais certains composés ont des propriétés importantes à de telles concentrations: par exemple, 500 ppm de sulfure d'hydrogène dans l'air peut conduire à l'asphyxie, comme toute fiche de sécurité sur le gaz vous le dirons .

Dioxyde de carbone: Arrhenius fait une découverte

La découverte intéressante de Tyndall ne résout pas complètement le mystère des âges de glace: cela est venu beaucoup plus tard ; il a planté la graine d'une idée qui a été revu à la fin du 19ème siècle par un savant suédois Svante Arrhenius (1859-1927). Parceque la vapeur d'eau est contrainte d’être recyclée dans et hors de l'atmosphère quotidiennement, il tourna son attention vers dioxyde de carbone, un gaz qui,lui, réside pendant une longue période dans l'atmosphère et dont la concentration était seulement (à l'époque) radicalement changée par les grandes sources comme les volcans ou les épisodes insolites et massives des altération des minéraux ou l'évolution des plantes photosynthétiques: des événements qui se produisent sur ​​de très longues échelles de temps géologiques. Arrhenius compris que l'augmentation de la quantité de dioxyde de carbone dans l'atmosphère entraînerait une certaine quantité de réchauffement. En outre, il était déjà connu par la relation de Clapeyron, que l'air chaud peut contenir plus de vapeur d'eau: la quantité est d'environ 7% de plus par degré Celsius de réchauffement. Et que la vapeur d'eau supplémentaire provoquerait à son tour un réchauffement supplémentaire - ce qui est une réaction positive, dans lequel le dioxyde de carbone agit comme un régulateur direct de la température, puis est rejoint dans ce rôle par plus de vapeur d'eau avec l'augmentation des températures.

Grâce à la poursuite des travaux d'Arrhenius, il a déterminé que si on réduisait de moitié la quantité de dioxyde de carbone dans l'atmosphère, la température de l'Europe pourrait chuter de près de 4-5 ° C. Mais un tel changement, assez grand pour provoquer une glaciation, pourrait il se produire ? Il se tourna vers son collègue Arvid Högbom (1857-1940), qui avait enquêté sur les cycles de dioxyde de carbone naturels, pour voir si cela pouvait se produire. Hogbom avait commencé à l'époque à examiné la quantitée de CO2 sortant des usines ( assez simple à faire si vous savez, par exemple, combien de tonnes de charbon chaque usine brûle par an). Il avait été surpris de constater que l'homme relarguait des taux d'émission de CO2 qui étaient très semblables à ceux qui se produisent dans la nature.

Dans les années 1890 cela ne représentait qu'une infime fraction de ce que nous relarguons aujourd'hui, mais il se demandait déjà qu'est ce qui pourrait se passer si l'humanité continuait à brûler des quantités de carbones fossiles de façon croissant au fil des siècles. A coté de ses recherches des ages glaciaire, Arrhenius a faits les calculs pour voir ce que pourrais faire un doublement des concentrations de dioxyde de carbone aux températures. Il en est arrivé à la conclusion que celà ammenerais à 5-6 ° C de réchauffement moyen mondiale.

A l'époque, il ne voyait pas celà comme un problème ; tout d'abord à ces taux, il faudrait des milliers d'années pour que le doublement de la concentration de CO2 puisse prendre place et d'autre part ont pensait que les océans pourrait être en mesure d'absorber les cinq sixièmes des émissions... Au moment où l'hypothèse est apparue dans un livre populaire qui a été publié en 1908, le taux de combustion avait déjà augmenté de manière significative, en conformité avec ce changement, ils ont révisé le temps que prendrait le doublement du CO2. Ils ramenèrent leurs résultats à "quelques siècles".

grandfathers.jpg

Scepticisme: Arrhenius vs Ångström

Les résultats ne satisfaisaient pas vraiment au début du XXe siècle, avec beaucoup de scepticisme. Les objections ont été centrées autour de réclamations de simplification, l'insuffisance de prendre en compte les changements de la nébulosité et les résultats des tests de laboratoire par un autre Suédois, Ångström Knut (1857-1910). Angström avait employé un assistant de laboratoire pour mesurer le passage du rayonnement infrarouge à travers un tube rempli avec du dioxyde de carbone. Au terme de leur expériences, ils sont arrivés à la conclusion que les bandes d'absorption du spectre de la lumière à laquelle le dioxyde de carbone absorbe ont été rapidement saturés, de sorte que leur absorption n'augmenterait pas.

Un autre problème soulevé à l'époque était que la vapeur d'eau absorbe le rayonnement infrarouge, et les spectrographes plutôt de faible résolution à l'époque, sont disponibles. Les bandes d'absorption des deux gaz se chevauchaient. On pensait donc que l'augmentation du dioxyde de carbone serait limité car étant incapable d'absorber le rayonnement infrarouge dans les bandes d'absorption du spectre de la vapeur beaucoup plus abondante.

Toutefois, la précision des mesures obtenues par Ångström a depuis été accusé d'avoir été pauvre: hormis des chiffres peut explicite, l'atmosphère ne peut pas simplement être traitée comme un tube plein de gaz: elle a plusieures couches, chacune avec ses propres caractéristiques, et il faut aussi prendre en compte comment interagissent ces couches entre elles.

Mais à l'époque, il a été conclu que Arrhenius avait tort et du coup Ångström a été déplacé sur d'autres recherches, malgré le fait qu'Arrhenius ait publier un document critique des expériences, qui avait également pour but d'expliquer comment, dans les couches supérieur de l'atmosphère, la vapeur d'eau est d'une importance limitée. Cela a été - et est encore - parce que la vapeur d'eau dans la haute troposphère se trouve dans des concentrations de plusieurs ordres de grandeur plus faibles que dans la basse troposphère où la plupart de notre météo se produit. Cependant, comme par hasard, personne n'a vraiment réagis sur cela, et l’hypothèse de l'effet de serre par le dioxyde de carbone allait s'endormir pour plusieurs années...

1930: Hulburt et Callendar

Le fil a été repris en 1931, lorsque le physicien américain EO Hulburt a fait des calculs pour déterminer l'effet d'un doublement du dioxyde de carbone (une fois de plus), et y compris la part de réchauffement supplémentaire par la vapeur d'eau. Il a trouvé un chiffre de l'ordre de 4 ° C de réchauffement. Il a également réfuté les travaux de Ångström et a déterminé que, indépendamment des processus convectifs, c'était la fuite de rayonnement infra-rouge dans l'espace (ou son blocage) qui était d'une importance capitale. Le document qui en résulte est apparu dans une la revue Physical Review, qui avait eut tendance à ne pas être lu par des spécialistes de l'atmosphère et était par conséquent manqué par beaucoup d'entre eux. En tout cas, il a été généralement admis que le système climatique de la Terre elle-même était maintenue dans une sorte d'équilibre naturel. Avec le recul, compte tenu des changements climatiques dramatiques qui ont conduit aux ages de glace, c'était une conclusion assez curieuse. Sept ans plus tard, l'ingénieur anglais Guy Callendar (un spécialiste de la machine à vapeur, mais avec un très vif intérêt pour la météorologie) a relancé cette idée après avoir découvert des preuves d'une tendance à l'augmentation de la température mondiale au début du XXe siècle ( à partir de compilations de données d'enregistrements de température ). Après une longue attente, les niveaux réels de dioxyde de carbone dans l'atmosphère ont été revisitées: Callendar trouve qu'ils avaient augmenté d'environs 10%, il a suggéré que c'est ce qui pourrait avoir causé le réchauffement, et il a ajouté qu'au cours des siècles à venir il pourrait y avoir un changement climatique vers un état définitivement plus chaud.

La réaction à l'époque était partagée: par exemple, le doute a été jeté sur l'exactitude des mesures de la concentration de dioxyde de carbone provenant du dix-neuvième siècle. De plus, il y avait encore les vieux doutes à l'égard de l'œuvre originale d'Arrhenius: ont pensait que l'immensité des océans parviendrait à absorber une grande partie de ce gaz supplémentaire. Callendar a suggéré que la couche supérieure de l'océan, qui interagit avec l'atmosphère, pourrait facilement devenir saturé en dioxyde de carbone, ce qui aurait une incidence sur sa capacité à absorber plus, parce que, pensait-il, le taux de mélange avec les eaux océaniques profondes et peu profondes est probablement très lent. Et il y avait encore le vieux problème des bandes d’absorptions de la vapeur d'eau et du dioxyde de carbone qui se chevauchaient, ce qui devrait diminuer les propriétés à effet de serre de ce dernier gaz.

timeline_HulburtToKeeling.jpg

Après 1945: l'avancée avec la technologie de la guerre froide

La période suivant la Seconde Guerre mondiale a vu un nouvel élan se mettre en place pour démêler les parties du problème climatique, aidés par la recrudescence de la recherche scientifique qui a accompagné le début de la guerre froide. les processus atmosphériques ont des implications essentielles en termes militaires, de sorte qu'il a été jugé nécessaire de les comprendre aussi complètement que possible. Les propriétés et le comportement du rayonnement infra-rouge ont aussi subi un examen particulier pour des raisons militaires également à la base. Les expériences de Ångström, impliquant l'air contenant différentes quantités de dioxyde de carbone dans un tube, ont été infirmées et qualifiées de "trompeuses": le problèmes était les mesures de faibles résolution à l'époque. Plutôt que de trouver de larges bandes d'absorption ( ce qu'avait trouvé A. ), l'équipement moderne plus précis a trouvé des groupes de lignes nettes, où l'absorption peut se produire, avec des écarts entre les deux, où l'infra-rouge pourrait passer sans encombre ( fenêtre atmosphérique ). Le dioxyde de carbone et la vapeur d'eau ont leurs propres ensembles d'absorption, avec des lignes qui ne coïncident pas exactement, et il a été réaffirmé que la vapeur d'eau était relativement peu importante dans les niveaux supérieurs de l'atmosphère relativement sèche.

Maintenant, c'était certain que l'on avait rendu compte que les propriétés de chaque couche doivent être prises en compte aussi. Hulburt et Callendar - et même Arrhenius - avaient après tout été sur la bonne voie, même si les aspects de leurs conclusions étaient incorrects.

Vers le milieu des années 1950, les scientifiques ont eu l'énorme avantage de disposer de la puissance de calcul des ordinateurs. Cela a permis de disséquer chaque couche de l'atmosphère terrestre et de travailler sur la façon dont elle pourrait absorber le rayonnement infra-rouge. Le physicien Gilbert Plass a entrepris la tâche: d'une part son travail (publiée en tant que document intitulé La Théorie du dioxyde de carbone du changement climatique, dans la revue Tellus en 1956) a confirmé que plus de dioxyde de carbone dans l'atmosphère aurait un effet de réchauffement et d'autre part que les niveaux de doublement de ce gaz conduirait à un réchauffement de 3-4 ° C. Ce qui, à des taux d'émissions du milieu des années 1950, entrainerait une hausse d'environ 1,1 ° C par siècle. Plass écrit que si à la fin du 20e siècle, la température moyenne a continué d'augmenter, il serait "fermement établi" que le dioxyde de carbone peut provoquer des changements climatiques. Mais encore une fois, la réaction de ces annonces fut partagée. Le manque d'attention pour la vapeur d'eau et pour la nébulosité a conduit à des critiques assez importantes, et a remis en scène à nouveau la question de l'océan qui absorbe le gaz supplémentaire en objection à la suggestion de Plass qui disait que le dioxyde de carbone supplémentaire pourrait rester dans l'atmosphère pendant mille ans.

Les isotopes de Carbone

Les années 1950 c'était l'époque des essais nucléaires. Parmi les retombées des explosions nucléaires, il y'avait le carbone 14, un isotope instable du carbone qui a six protons et huit neutrons dans les noyaux atomique (le plus abondant de loin, formant 98,9% de tout le carbone sur Terre, est le carbone 12 avec six protons et six neutrons). Parce que le carbone 14 est instable, il subit une désintégration radioactive, et à travers cette radioactivité on peut suivre comme il se déplace dans l'atmosphère. Les scientifiques ont de suite permis d'établir que, dans quelques années, les gaz avec une longue durée de séjour ajoutés dans l'atmosphère seront bien mélangés dans toutes les couches, de pôle nord à pôle sud. Le carbone 14 a une demi-vie courte, ce qui explique pourquoi la datation au radiocarbone est utilisé seulement pour obtenir les âges des choses relativement récentes et non antique comme des roches qui ont des millions d'années, parmi lesquels on peut compter les combustibles fossiles. Dans le charbon et le pétrole, tout le carbone 14 a depuis longtemps disparu, de sorte que les brûler ne libérerait que du carbone non radioactif 12 et, plus rare mais stables, du carbone 13. La combustion des combustibles fossiles à grande échelle ajouterais donc plus de carbone 12 et 13 à l'air par rapport au carbone 14, indépendamment des essais nucléaires. Le chimiste Hans Suess a mis à l'épreuve celà en examinant les isotopes de carbone dans les arbres. Il a constaté que dans le bois jeune, il y'avait plus de carbone 12 et 13 par rapport au carbone 14. Ce fut l'empreinte de consommation des combustibles fossiles, enregistré dans le bois.

Suess et Revelle travaillent pour clarifier le rôle des océans

À l'époque, l'augmentation du carbone 12 et du carbone 13 était faible, ce qui avait renforçé l'idée que les océans absorbaient une grande partie du dioxyde de carbone ajouté. Cependant avec la recherche, le suivi a été introduit par Suess, en collaboration avec Roger Revelle à la Scripps Institution of Oceanography, et par d'autres spécialistes: tous sont arrivés à une conclusion similaire indépendamment l'un de l'autre, qui était celle que la mise en mémoire tampon imposerait une limite stricte de la quantité de dioxyde de carbone que les océans pourrait effectivement absorber. Pour anecdote c'est un tampon PH les sels marins neutralisent les H+ et maintiennent le pH de l'océan autour de 8 et quelques ).

C'était une étape cruciale dans la recherche. Revelle a calculé que, sur les émissions de carbone aux taux de l'époque (en supposant, comme la plupart de ses prédécesseurs, que ceux-ci resteraient probablement constant), une augmentation des niveaux de dioxyde de carbone dans l'atmosphère d'environ 40% serait possible au cours des prochains siècles. Toutefois, en aparté, il fait remarquer que si les émissions des taux continuaient d'augmenter, le résultat serait différent avec un réchauffement significatif dans les décennies à venir. Surtout, il a souligné que les êtres humains qui étaient en train d'effectuer une expérience géophysique à grande échelle d'un genre qui n'aurait pas pu se produire dans le passé, soit reproduites dans l'avenir - une allusion, peut-être, à la prise de conscience croissante du "fini", les combustibles fossiles, étant qu'ils sont une ressource non renouvelable, sur la période géologique de l'homme.

L'importance de la faible capacité des océans à absorber le dioxyde de carbone après un certain temps et a été élaboré par les météorologues suédois Bert Bolin et Erik Eriksson, qui a expliqué ce qui se passe. Fondamentalement, bien que le gaz sont en effet facilement absorbé par l'eau de mer, ce sont les délais qui comptent : le mélange des eaux océaniques superficielles et profondes se déroule sur des centaines de milliers d'années. L'eau de surface sature donc vite en dioxyde de carbone. Comme leurs prédécesseurs, Bolin et Eriksson ont faits les calculs concernant les changements de température possibles pour un doublement du dioxyde de carbone, mais cette fois, en supposant que les émissions devraient augmenter et augmenter encore davantage sur une trajectoire ascendante en constante accentuation. Ils ont trouvé une augmentation de 25% de dioxyde de carbone dans l'atmosphère d'ici l'an 2000. C'était beaucoup plus radicale que tout ce qui avait déjà été suggéré et Bolin a averti qu'un changement radical dans le climat pourrait se produire, une déclaration reprise par le climatologue russe Mikhael Budyko en 1962.

Fin des années 1950: la surveillance du dioxyde de carbone commence pour de bon

Donc, qu'est ce qui se passait vraiment avec la teneur en dioxyde de carbone de l'atmosphère? La seule façon de le savoir était de commencer à surveiller les niveaux de gaz avec des mesures précises, de telles initiatives ont été prises, en commençant par un réseau de 15 stations de mesure-autour de la Scandinavie. Les résultats ont été incroyablement bruyant, mais des failles ont été trouvées dans la méthodologie. Cependant, en Californie, chercheur Charles David Keeling a amélioré les techniques, au point qu'il a estimé qu'il pourrait être possible d'isoler et d'éliminer les sources parasites de "bruit". Revelle et Suess ont également participé au financement du matériel. Des endroits éloignés des bruits artificiel local ont été choisis, dans des endroits tels que l'Antarctique et au sommet du volcan Mauna Loa à Hawaii. Il convient de mentionner ici que, dans le dernier cas, le vent dominant est de l'océan et les fissures volcaniques qui dégagent des gaz sont presque toujours sous le vent: si le vent change les upticks subite due au dioxyde de carbone volcanogènes sont tellement évident sur les mesures qu'ils peuvent facilement être enlevés. Quoi qu'il en soit, l'idée était d'établir une concentration de référence et ensuite voir ce que les niveaux seraient dans les années suivantes. En 1958, Keeling était convaincu qu'il avait posé une base fiable et deux ans plus tard, il a signalé que les niveaux étaient à la hausse, à un rythme auquel ont pouvait s'attendre si les océans n'absorbaient pas la plupart des émissions.

mauna-loa-carbon-dioxide.jpg

Malheureusement, les stations en Antarctique ont été victimes d'un manque de financement. Cependant, la station de surveillance Mauna Loa a été maintenue et elle a continué à enregistrer une augmentation. Les mesures ont également enregistré un cycle fluctuant bien définie et régulier correspondant à la saison de croissance des plantes dans l'hémisphère nord. Il ya eu une baisse au printemps et en été et une augmentation en automne et en hiver. Dans le même temps, une compréhension sans cesse croissante d'autres aspects du cycle complexe du carbone était en cours. Le but était en général de savoir combien de dioxyde de carbone résultant de la combustion de combustibles fossiles finissait dans les océans, la végétation, les sols, les minéraux et ainsi de suite. Ce travail multidisciplinaire a réuni les différentes branches de la science qui avaient travaillé auparavant dans un relatif isolement: les scientifiques atmosphériques, des biologistes, des géochimistes, des informaticiens, etc. En 1965, il a été annoncé que «En l'an 2000, l'augmentation du CO2 atmosphérique ... peut suffire à produire des changements mesurables et peut-être marqué du climat."

Milieu des années 1960: le premier modèle climatique - Mannabe et Wetherald

En 1967, le premier modèle informatique simulant le climat de toute la planète avait été développé par Syukuro Manabe, en collaboration avec Richard Wetherald. Il peut avoir été relativement simple par rapport aux modèles modernes, mais néanmoins ils ont constaté que le mouvement de la chaleur par convection empêche la température de monter à des niveaux extrêmes: cependant, si la quantité de CO2 double, la température augmenterait de près de 2 ° C. La convection, tels que celle qui peut conduire à la formation d'orages, transporte beaucoup de chaleur de la surface de la Terre vers la haute troposphère: une surface qui se réchauffe améliore le processus, de sorte que de plus en plus de chaleur est transportée et trouve son chemin vers des niveaux où elle peut être ré-émise dans l'espace. Si la surface se réchauffait, la convection transporterait plus de chaleur vers le haut. Cette découverte supplémentaire importante a conduit à un problème de longue date que peu de travailleurs, à l'exception notable de Hulburt, avaient examiné en profondeur.

1970: Nouvelle ère glaciaire? Non!

En dépit de ces progrès, beaucoup de doute ont été encore exprimés dans la communauté scientifique: le climatologue Helmut Landsberg a annoncé en 1970 que la hausse du CO2 aux taux de l'époque, pourrait apporter une augmentation de 2 ° C de la température au cours des quatre siècles à venir. Ceci, selon lui, pourrait "difficilement être qualifiée de catastrophique." Il a également été souligné par le climatologue Hubert agneau entre autres, que les incertitudes comprenaient une incapacité à expliquer les fluctuations de température précédentes, connus à partir des données historiques, au cours des siècles précédents. En outre, les températures ont baissé un peu depuis les années 1940 alors que les niveaux de dioxyde de carbone ont augmenté. Quelle était cette histoire? S. Ichtiaque Rasool et Stephen Schneider, de la NASA, par exemple, ont modélisé les effets de la pollution sous la forme d'aérosols et les émissions de soufre dans l'atmosphère et ont découvert qu'une augmentation importante de cette pollution pourrait - peut-être - conduire à un épisode de refroidissement. Ces résultats ont même conduit une petite minorité de scientifiques et d'un plus grand nombre de commentateurs à savoir si l'actuel age interglaciaire touchait à sa fin. Étions-nous entrain d'entrer dans un nouvel âge glaciaire? Les médias ont adoré cela: en dépit d'être un point de vue scientifique minoritaire, l'hypothèse était belle et dramatique, et a été excessivement propagée par les médias.

timeline_TwoCenturies_p3.jpg

Il n'y avait qu'une seule façon de trouver les réponses quant à ce qui se passait réellement: poursuivre l'effort de recherche. Dans les années 1970 et dans les années 1980, les développements les plus importants se sont produits, ceux-ci coïncident à partir du milieu des années 70 avec une reprise du réchauffement. L'identification des autres GES parfois plus puissants, comme le méthane, les contributions au dioxyde de carbone atmosphérique provenant d'autres activités humaines telles que la déforestation et de la fabrication de ciment, une meilleure compréhension des propriétés de changement de température via la pollution atmosphérique, comme les émissions de soufre, des aérosols et leur importance dans le refroidissement post-1940 de l'hémisphère nord: la base de connaissances a augmenté d'année en année. On a compris que les plantes et les océans ont des limites en ce qui concerne la quantité de dioxyde de carbone qu'ils pourraient absorber. Les modèles informatiques ont été en constante amélioration, les paramètres ont été mieux compris. Ayant écrit dans un article en 1981 dans la revue Nature, les climatologues Tom Wigley et Phil Jones ont déclaré: «Les effets du CO2 peuvent ne pas être détectable jusqu'à la fin du siècle. A cette époque, la concentration atmosphérique de CO2 sera probablement devenu suffisamment élevé (et nous serons engagés à de nouvelles augmentations) que le changement climatique nettement plus importante que n'importe lequel qui a eu lieu au siècle dernier pourrait être inévitable. "

Carottes de glace et air antique

Le forage de carottes dans le Groenland et l'Antarctique était maintenant devenue une branche importante de la recherche sur le climat du passé. La glace contient des bulles d'air préhistorique emprisonné quand il a été formé, et une méthode fiable a été mis au point pour isoler et analyser l'air. Il était possible d'avoir une idée de la composition de l'atmosphère du passé, à travers glaciations et interglaciaires. Il a été constaté que, dans les profondeurs glacées du dernier age glaciaire, les niveaux de dioxyde de carbone étaient beaucoup plus faibles, à moins de deux cent parties par million. Vers le milieu des années 1980, le célèbre noyau Vostok a été foré à une profondeur de 2 km, ce qui représente 150.000 années d'histoire du climat, ou un cycle interglaciaire-glaciaires-interglaciaires complet. Les fluctuations de dioxyde de carbone ont montré une relation remarquablement cohérent avec la température

Les données des carottes de glace ont aussi commencé à montrer un autre aspect du rôle de l'effet de serre: des feedbacks. Même si les épisodes de réchauffement ont été initiées par des changements orbitaux, le réchauffement serait provoquer par la libération de gaz à effet de serre, par les océans et la fonte du pergélisol. Ces gaz à effet supplémentaires agiraient alors comme des amplificateurs puissants au réchauffement initial. L'inverse peut également se produire avec l'augmentation de l'absorption de gaz à effet de serre en facilitant une baisse de la température et le retour dans une ère glaciaire. Mais étant donné que les niveaux de dioxyde de carbone sont maintenant sensiblement plus élevés comme jamais dans les deux derniers millions d'années, il était devenu clair que l'effet de serre est quelque chose que nous avions besoin de prendre très au sérieux: même si l'augmentation future précise que la température exacte était encore une inconnue, avec une assez grande erreur de gamme, les modèles indiquent que pour un doublement du dioxyde de carbone par rapport aux niveaux pré-industriels, une hausse de trois degrés Celsius en moyenne mondiale était le résultat le plus probable.

Un autre domaine de recherche était les changement climatiques à plus longue échelle, dans le passé lointain. Une fois que la tectonique des plaques avait été étudiée, il est devenu possible, grâce à toute une série de techniques géologiques, de retracer les pérégrinations des continents pendant des centaines de millions d'années. Ces reconstructions paléogéographiques ont démontré que, à certaines périodes dans le passé, qui durent souvent plusieurs dizaines de millions d'années, la répartition de la flore et de la faune dans les archives fossiles a montré que les espèces qui aiment la chaleur avaient bénéficié d'une zone beaucoup plus étendue en latitude qu'aujourd'hui. La planète dans son ensemble devait avoir bénéficié d'un climat beaucoup plus chaud, avec des pôles particulièrement plus chauds par rapport à ces derniers temps. Maintenant que la relation de dioxyde de carbone / température devenait bien documentée, l'attention s'est tournée vers ces périodes «de serre» du passé, et les preuves se sont accumulées que les niveaux de dioxyde de carbone ont en effet été beaucoup plus élevé à ces moments.

Résoudre le paradoxe du Young Sun

Cette précédente constatation a également répondu à un autre problème géologique: celle du soi-disant «Sun Young Faint Paradox». Pendant longtemps, les astrophysiciens avaient su que le Soleil était une étoile de la séquence principale ( étoile G2 ) qui avait peu à peu augmenté son éclairement par environ 10% par milliard d'années, de sorte qu'il a été beaucoup plus faible dans le temps. Mais en général, malgré cette plus faible activité du soleil, le climat était en moyenne, en dehors de ces périodes froide/chaude, plus chaud que ce qu'il aurait aurait dû être.

cap-carbonate.jpg

1980: Le cycle du carbone - le thermostat de la Terre

Comprendre le cycle du carbone était la clé de l'explication suivante: tout au long des temps géologiques les niveaux de dioxyde de carbone et d'autres GES non condensés avaient eut les principaux contrôles de la température planétaire. Le dioxyde de carbone a des sources et des puits et il y avait des fortes variations à la hausse ou à la baisse dans les sources ou les puits. Ces perturbations ont été enregistrées dans les strates. Les sources majeures, telles que des épisodes d'activité volcanique exceptionnel, couvraient des domaines de taille quasi-continental avec des laves et des tufs, laissant ainsi leur trace qui permis aux géologues de les étudier. Il y'avait également d'importants puits: par exemple, quand les continents sont entrés en collision, et que des chaînes de montagnes ont été formées, ce qui a permis aux CO2 d’être absorbé. Ces perturbations occasionnelles ont donné lieu à des épisodes climatiques plus chaudes et plus froides respectivement. C'était comme si ces gaz à effet de serre ont agis comme le thermostat de la planète.

Les reconstructions climatiques des derniers climats chauds avaient montré que les températures étaient autour de six degrés de plus en moyenne, et plus encore dans les régions polaires, sans calottes polaires avec un climat subtropical de la faune et de la flore tempérée, comme en témoignent les fossiles dans ces domaines. Mais il y avait une différence très importante entre hier et aujourd'hui: le taux de fluctuations des niveaux de dioxyde de carbone dans l'atmosphère dans le passé se faisait à des vitesses beaucoup plus lente par rapport aux augmentations récentes - et les niveaux actuels continueront d'augmenter de façon exponentielle -. En outre, les changements environnementaux très rapides (plus de quelques dizaines de milliers d'années) dans le passé géologique ont été souvent accompagnés d'extinctions de masse dues à l'évolution trop rapide des conditions de vie pour que la biodiversité puisse s'adapter à eux. C'est au milieu de ces réalisations d'à quel point les choses pourraient aller mal que le Groupe d'experts intergouvernemental sur les changements climatiques a été fondée en 1988.

Au début du XXIe siècle, les risques graves liés à la poursuite de notre influence sur le thermostat de la planète étaient devenus trop évident. Ils comprenaient un large éventail de problèmes: des sécheresses sévères et sans précédent qui affectent l'agriculture dans certaines régions et gonfle les prix mondiaux des denrées alimentaires et rend aussi les conditions plus favorables pour les incendies de forêt; dans d'autres domaines, l'augmentation des épisodes de précipitations extrêmes conduisant à l'inondation généralisée, la destruction des cultures, des victimes et des perte / dégâts matériels. L'élévation du niveau de la mer au cours des décennies qui affecterais de nouveau l'agriculture en raison de la perte de terres basses fertiles et pourrait aussi conduire à des déplacements de population de masse ( migration). L'humanité était entrain de réaliser qu'elle allait rendre les zones de la surface de la planète inhabitable pour les générations futures.

L'opposition à la science fait sentir sa présence

Il doit également être enregistré au passage que les années 1990 ont vu l'émergence d'organismes politiquement fondées et financées par la promotion de l'opposition à la science du climat, l'un des premiers étant le soi-disant Conseil information sur l'environnement en 1991, Dans les dernières années de la décennie il y avait aussi l'American Petroleum Institute avec son «Plan global Climate science Communication d'action» de 1998, dont un extrait peut être vu ci-dessous (screengrab d'une copie PDF disponible sur le site climatesciencewatch.org). Il s'agissait d'une campagne visant principalement le Protocole de Kyoto sur la limitation des émissions de GES, signé en Décembre 1997.

1998-plan.jpg

La guerre de tranchées politique qui a suivi depuis ce temps sera familier à la plupart des lecteurs et, plus récemment, les sciences du climat des dernières années du 20ème et début du 21ème siècle qui a été largement couvert à la fois ici à Sks et à des sites tels que RealClimate. Les principes de base restent les mêmes, mais partout les détails sont entrain d’être affiné et de meilleures méthodes de collecte de données sont développés, divers problèmes avec les procurations qui sont utilisés pour comprendre les températures du passé géologique sont révisées et la surveillance est améliorée. Mais Fourier, Tyndall et Arrhenius avait certainement quelque part une grande partie de la bonne voie, il ya toutes ces années, lorsque leur travail de pionnier a débuté . C'est certainement quelque chose à se rappeler si vous discutez du changement climatique avec quelqu'un et qu'il essai de vous dire que la science du climat a seulement débuté il y'a une vingtaine d'année !

http://www.skepticalscience.com/history-climate-science.html

Modifié par passiion

Partager ce message


Lien à poster
Partager sur d’autres sites

On entend souvent dire que l'effet de serre est saturé. Qu'en est-il ?

Le mythe dit quelque chose comme ceci:

- Le CO2 absorbe presque tout le rayonnement infrarouge (chaleur). Vrai!

- Le fait d'ajouter plus de CO2 ne fera pas absorber beaucoup plus de rayonnement infrarouge venant de la surface. Vrai!

- Le fait d'ajouter plus de CO2 ne peut pas causer plus de réchauffement. FAUX!

Pour imager :

Nous avons un réservoir d'eau . Une pompe donne l'ajout d'eau dans le réservoir à 100 litres par minute . Et un tuyau de sortie laisse évacuer de l'eau hors de la cuve à 100 litres par minute . Qu'est-ce qui se passe au niveau de l'eau dans le réservoir ? Le niveau reste stable parce que les flux entrant et sortant de la cuve sont les mêmes . Dans notre analogie la pompe ajoutant de l'eau est l'absorption de chaleur par l'atmosphère, l' eau s'écoulant du conduit de sortie est la chaleur rayonnée vers l'espace . Et le volume d'eau à l'intérieur du réservoir est la quantité de chaleur dans l'atmosphère .

Que pourrions-nous faire pour augmenter le niveau d'eau dans le réservoir ?

On peut augmenter la vitesse de la pompe qui ajoute l'eau dans le réservoir. Ca ferait s'élever le niveau de l'eau . Mais si la pompe fonctionne déjà près de sa vitesse maximale , je ne peux pas ajouter de l'eau plus vite. C'est la qu'on dit que » C'est saturé » : la pompe ne peut pas donner plus vite tout comme l'atmosphère ne peut absorber la chaleur du soleil plus vite.

Mais que faire si nous avons restreint la sortie , de sorte qu'il était difficile pour l'eau de sortir du réservoir ? La même quantité d' eau coule mais moins coule dehors . Ainsi, le niveau d'eau dans la cuve va augmenter. Nous pouvons changer le niveau de l'eau dans notre réservoir sans changer la quantité d'eau coulant dedans , en changeant la quantité d'eau coulant dehors.

co210.jpg

De même, nous pouvons changer la quantité de chaleur restant dans l'atmosphère en limitant la quantité de chaleur quittant l'atmosphère plutôt qu'en augmentant la quantité qui est absorbée par l'atmosphère .

C'est ainsi que l'effet de serre fonctionne . Les gaz à effet de serre tels que le dioxyde de carbone et la vapeur d'eau absorbe la majeure partie du rayonnement thermique de la surface de la Terre. Ensuite, leur concentration détermine la quantité de chaleur s'échappant de la partie supérieure de l'atmosphère vers l'espace. C'est alors le changement dans ce qui se passe au sommet de l'atmosphère qui compte, pas ce qui se passe ici-bas près de la surface .

Alors, comment une modification de la concentration d'un changement de gaz à effet de serre modifie la chaleur s'échappant de la haute atmosphère ? Comme nous montons haut dans l'atmosphère, l'air se raréfie . Il ya moins de tous les gaz , y compris les émissions de GES. Finalement, l'air devient suffisamment mince pour que la chaleur rayonnée par l'air puisse s'échapper dans l'espace . La quantité de chaleur s'échappant dans l'espace à cette altitude dépend alors de l'importance dont l'air est froid à cette hauteur . Plus il fait froid , moins de chaleur est rayonnée...

co2SaturationMyth_Atmosphere_med.jpg

Donc, si nous ajoutons plus de gaz à effet de serre, l'air doit être plus mince qu'avant pour que le rayonnement de chaleur est capable de s'échapper dans l'espace. Donc, cela ne peut se faire qu'en haut de l'atmosphère. Où il fait plus froid. Ainsi, la quantité de chaleur qui s'échappe est réduite.

En ajoutant de l'effet de serre, nous forçons le rayonnement de l'espace à s'échapper de plus haut, dans l'air froid, réduisant le flux de rayonnement vers l'espace. Et il ya encore beaucoup de possibilités pour que plus de gaz à effet de serre boost 'l'action' plus haut, dans l'air plus froid, limitant le taux de rayonnement à l'espace encore plus loin.

L'effet de serre n'est pas saturé!

http://www.skepticalscience.com/co2-not-saturated-basic.html

Modifié par passiion

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour te soutenir donc :P Le modèle du corps noir est en effet couramment utilisé pour une première approche.

La loi courament utilisé pour le rayonnement est la suivante :

P = ε * σ * T^4

Sigma, σ est une constante, elle vaut 5.67E-8 ( 0.0000000567 :P). Epsilon, ε est l'émissivité.

Ajoutons alpha, α, l'albédo. Pour la Terre il vaut 0.3 environ.

Pour le rayonnement solaire, on suppose que c'est un rayonnement de corps noir ( ε = 1 ), de température 255K. Cette valeur vient de ce que l'énergie solaire reçue est de :

S = α * S0 / 4 = ( 1 - 0.3 ) * 1366 / 4 = 240 W/m²

Avec S0 qui vaut environ 1366 W/m² :

post-3513-1392680341_thumb.png

Ce qui correspond à une température d'émission Te ~ 255K :

σ * Te^4 = 5.67E-8 * 255^4 = 240 W/m²

Jusque là tout baigne. Ajoutons une atmosphère :

post-3513-1392680781_thumb.png

Si nous ajoutons une atmosphère d'émissivité 0.77 environ dans les IRs, et qui reste transparente à la lumière visible, nous avons ce système (reçu = émis) :

Surface :

S + ε * F2 = F1

Te^4 + ε * Ta^4 = Ts^4

Atmosphère :

ε * F1 = 2 * ε * F2

ε * Ts^4 = 2 * ε * Ta^4

Terre entière :

S = ε * F2 + ( 1 - ε ) * F1

Te^4 = ε * Ta^4 + ( 1 - ε ) * Ts^4

J'ai directement simplifié par sigma, pour éviter de s'encombrer. De la deuxième équation, on déduit :

Ts^4 = 2 * Ta^4

D'où, d'après la première équation :

Te^4 + ε * Ta^4 = 2 * Ta^4

Te^4 = 2 * Ta^4 - ε * Ta^4

Ta^4 = Te^4 / ( 2 - ε )

Ta = 242K ~ -31°C

Et, en repartant de :

Ts^4 = 2 * Ta^4

Ts = 288K ~ 15°C

On trouve bien une surface à +15°C, tout baigne. Sauf que... l'atmosphère est censé être en contact direct avec la surface. On peut donc ajouter une couche infiniment mince d'atmosphère, avec une émissivité très faible mais non tout à fait nul, pour "boucher le trou". Cette couche d'atmosphère ne modifie pas le bilan car elle est très mince et n'absorbe rien. Les indices seront "b" pour dénoté cette couche. Son équilibre est :

εb * Ts^4 + εb * Ta^4 = 2 * εb * Tb^4

L'émissivité se simplifie, ce qui simplifie le problème de savoir ce qu'est "émissivité très faible mais non tout à fait nul" :lol2:

Tb^4 = ( Ts^4 + Ta^4) / 2

Tb = 268K

Oups problème... L'atmosphère très proche de la surface n'est pas en équilibre avec la surface.

C'est là que commence les ennuis d'un modèle radiatif. Il est certes tout à fait exact que le modèle radiatif est pertinent pour décrire l'effet de serre, mais il ne suffit pas. Il faut introduire de la convection (convection dans un sens très générique s'entend... faut touiller quoi). Il se forme alors un équilibre radiatif-convectif. Décrivons cependant un peu plus le modèle radiatif. Cette fois-ci, nous ferons l'approximation du corps gris.

Je vous donne le modèle tel quel, à l'occasion on pourra se faire un peu plus d'optique :

H = 10 000 mètres c'est al hauteur caractéristique de l'atmosphère

z est la variable, la hauteur.

κ = exp( -z / H ) * 0.00018 * H

B = ( S / 2 ) * ( (5/3) * κ + 1 )

T = ( B / σ ) ^ 0.25

Et pour la surface directement :

B = ( S / 2 ) * ( (5/3) * κ + 1 ) + S / 2

Ce qui donne un peu près ce profil :

post-3513-1392683950_thumb.jpg

En surface, il ferait environ 40°C. La convection est donc importante pour maintenir l'atmosphère vivable. Pour autant, comparer à une atmosphère sans effet de serre, la différence est bien là.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci ;)

J'ai pensé qu'il serait intéressant de regarder respectivement la contribution des différentes couches de l'atmosphère à l'effet de serre. Par exemple, une caractéristique qui se dégage c'est qu'en basse couche le rayonnement est plutôt absorbé par l'H2O, alors qu'en montant c'est plutôt absorber par le CO2 ( réparti de façon plus homogène ).

On voit rarement des schémas qui montrent la contribution de la stratosphère ou de la mésosphère par exemple.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant

×