Aller au contenu
Les Forums de MeteoBelgique
Philippe

A propos du réchauffement climatique

Messages recommandés

Voici à quoi servent les boucles itératives :whistling:

Je vous avais déjà présenté il y a peu un modèle explicatif et prédictif des anomalies mensuelles selon la base de données UAH.

Pour Mai, le résultat vient de tomber : 0.131°C alors que j'annonçais 0.08°C +/- 0.11°C. Une bonne prévision, donc.

J'ai cependant amélioré le modèle, car plusieurs points ne me convenaient pas. J'ai peut être facilement tendance à bidouiller tout ce qui me passe sous la main :lol: . Ce modèle, si il est voué à encore être modifié, est cependant destiné à rester structurellement le même, puisqu'il a de nombreux avantages. Je ferais une version courte pour ceux qui n'ont pas d'affinité avec les maths, et une version longue pour les intéressés. En effet, niveau points techniques, il y a du développement à faire. Sans plus tarder, rentrons donc dans le vif du sujet.

Le principe de base reste le même. Une équation simple, où les variables explicatives sont sommées après avoir été élevées à une puissance et multipliée par un coefficient déterminé(e).

Je garde comme variable explicative :

Le MEI pour l'ENSO ( l'oscillation du Pacifique tropical, succession d'El Nino et La Nina )

Le SSN pour l’activité solaire

Le VFD pour le volcanisme

Je ne reviendrais pas en détail sur ces séries, j'en avais déjà parler ici : http://www.forums.meteobelgium.be/index.ph...st&p=414849

Là où cela change, c'est pour le cycle saisonnier et la tendance au réchauffement. Les deux n'étaient pas satisfaisants.

Le cycle saisonnier a purement et simplement dégagé et je l'ai remplacé par la série des températures décalées d'un mois. En clair, les températures au niveau du globe sont fonction des températures le mois précédent. Si par exemple, le mois dernier il a fait 0.12°C, et bien ce mois-ci, les températures seront fonction de ce 0.12°C, ce qui signifie qu'on part déjà avec une contribution positive sur l'anomalie.

Cette adaptation est je pense bien meilleure. Elle permet de tenir compte du phénomène de persistance. Elle permet aussi de suivre la variabilité naturelle. Une part de cette variabilité est sans doute aléatoire. Il est donc plus logique je pense de « suivre le mouvement » en tenant compte des températures du mois précédent ; plutôt que de vouloir multiplier les variables explicatives, ce qui dénaturait le modèle. Je ne sais pas si j'ai été très clair …. ? :huh:

Vu autrement, pour 1998 par exemple, les variables explicatives (MEI, SSN, VFD) ne suffisent pas à faire monter les anomalies au niveau observé. Plutôt que de rajouter un tas de variables explicatives (PDO, QBO, imminence de l'invasion des martiens.... ) ; il est préférable de suivre le mouvement en se disant que, si les températures ont tous pétés en Janvier, il y a de bonnes chances que cela continue en Février.

Le deuxième point est le réchauffement.

Premier point, je n'ai pas pris les valeurs des forçages anthropiques, et j'ai gardé la tendance puissance (une courbe quoi...). Pourquoi cet acharnement ?:D

Pour plusieurs raisons en fait.

Les valeurs du forçages des aérosols sont aussi incertains que la découverte un jour du tombeau d’Alexandre le Grand ... Je ne voulais pas rentrer dans le modèle une série qui avait une telle incertitude que même des valeurs positives de forçage sont envisageables.

Le décalage temporel est dur à identifier. Pour les aérosols, il est probablement un peu plus court que pour les gaz à effet de serre. Une série « deux en un » d'un forçage global anthropique aurait je pense posé quelques problèmes à ce niveau.

Et surtout, je voulais que cette tendance au réchauffement sorte d'elle même. Forcément, si on rentre une courbe qui pointe vers le haut, le modèle va tenter d'inclure ces valeurs. Et pour peu qu'il existe une vague tendance à la hausse des anomalies de températures, cette corrélation va être positive. La conclusion qui est de dire que les températures sont corrélées au forçage anthropique, serait juste mais on risque malgré tout un biais.

J'ai préféré laissé le modèle décidé lui même de la série a adapter. Sans prétendre avoir fait une analyse, notamment spectrale, de la série des températures, il n'en reste pas moins que cette tendance au réchauffement existe dans la série au delà de toutes considérations de forçages anthropiques. En clair, quelqu'en soient les causes, il est « écrit » dans les anomalies de températures que les températures se réchauffent, et se réchauffent de plus en plus vite.

J'ai modifié cette tendance puissance assez lourdement cependant. Auparavant, je prenais arbitrairement comme point zéro le mois de décembre 1978. Physiquement, le réchauffement n'a pas commencé avec le 1978ème premier dimanche de l'Avent....

La question, quand est-ce que une tendance au réchauffement significative a commencé à influer les températures ? La question qui m'a sans doute valu les plus grosses difficultés. Je vous prie de me passez l'expression, mais pour le coup j'en ai chier.

La réponse, c'est à peu près le milieu des années 1910, ce qui est en cohérence avec ce que l'on connait de la physique de l'atmosphère ; et ce qui est en cohérence avec les mesures plus anciennes de températures (GISS, CRU et NOAA, qui montrent tout trois un réchauffement à partir de 1910/1920, pour une grande part naturelle mais avec la première influence de l'Homme). La valeur « exacte » qui sort est 745 mois avant décembre 1978. Quand je dis exact, je ne me fais pas d'illusion clairement. C'est comme vouloir dater la naissance et la mort de Lucy au jour près...

J'espère ne pas avoir trop causé … Je sors ici quelques graphiques et deux, trois valeurs.

Les deux premières valeurs sont les suivantes. Le modèle explique 79% (0.7873) de la variabilité naturelle, et est corrélé à 0.89 (0.887756... ) aux anomalies de températures de l'UAH. Pour le coup, même si ma modestie va en prendre un coup (poil au cou... ), je fais mieux que Lean et Rind en 2008 : http://pubs.giss.nasa.gov/docs/2008/2008_Lean_Rind.pdf Les périodes sont différentes ( 1889 à 2006 pour Lean et Rind ) et la base est différente (CRU de l'UEA pour Lean et Rind). Je me permets cependant la comparaison. Ils sont corrélés à 0.87 à la série du CRU, et explique 76% de la variabilité. Leur exercice était un peu plus difficile, car il couvre une plus longue période. On constate notamment que cela décroche nettement dans les années 1940, mais que sur la période récente cela colle bien mieux. Malgré tout, je pense que la régression avec la série de températures décalée de un mois améliore grandement le truc.

Le modèle, la réalité, et les erreurs :

modle.png

Là ou je suis tout content :D

Ce sont les tendances linéaires sur 10 et 15 ans du modèle et de la réalité (sachant que pifométriquement, 15 ans est un minimum pour avoir quelque chose de significatif... ). Corrélation à 0.9850 pour les tendances à 10 ans, et à 0.9946 pour les tendances à 15 ans. Ce genre de corrélation aussi élevée ne se rencontre habituellement que dans les exos théoriques que peut balancer un prof expliquant ce qu'une corrélation. C'est la première fois de ma vie que je vois une corrélation aussi élevée dans la « réalité » :banana: :banana: (tiens, cela me rappelle l'histoire d'un prof qui considérait qu'une corré' n'était bonne qu'au delà de 0.99 et excellente au delà de 0.999.... )

Pour la tendance linéaire à 10 ans (o pour observé et p pour prévue) :

linaire10ans.png

Pour la tendance linéaire à 15 ans (idem) :

tendance15ans.png

On peut se dire, évidement la tendance à 10 ans, et a fortiori à 15 ans, va lisser le truc et augmenter la corrélation. Mais il ne faut pas non plus oublier que le modèle est surtout un modèle court terme, à l'échelle du mois, et qu'il soit capable de donner une tendance linéaire quasi la même que dans la réalité est un bon signe.

Enfin, pour la partie « je me mouille » :

La valeur prévue par le nouveau modèle pour mai est de 0.04°C +/- 0.1°C , un peu moins exact que l'ancienne méthode mais cela tiens la route.

La valeur prévue pour Juin est la même, à savoir 0.04°C +/ 0.1°C. Pour l'année, dû à la fonction des températures du mois précédents, je ne donnerais qu'une valeur indicative, sans incertitudes car elle est difficile à quantifier. Bref, pour l'année 2011 on serait à +0.09°C .

Je me ferais la deuxième partie, plus technique et ardue, cette après'm. La méthode peut être discutée et critiquée longuement que ce soit sur l'incertitude (pourquoi +/- 0.1°C ? ) que sur un problème majeur avec l'autocorrélation, ou autre... . Je reviendrais donc sur le sujet.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Allez, je laisse tomber. Je préfère ne pas tenir ma parole et ne pas revenir sur le sujet pour cette après'm. OOo m'a lâché pour la nième fois et je n'ai plus exactement les même valeurs (il me sort 0.08°C +/- 0.1°C pour juin maintenant... je vais devenir fou ). Le modèle est stable et robuste (c'est pour cela que je m'acharne d'ailleurs, même si cela peut sembler stupide de prime abord de s'acharner sur un truc qui ne marche pas.. ), ce n’est pas le problème. Mais je n'ai pas assez de puissance de calcul sur OOo pour obtenir quelque chose de propre. Je reviendrais quand j'aurais un truc de propre à présenter.

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour aider à représente vite fait le problème quand même. En fait, les résidus du modèle sont fortement corrélés aux résidus des deux mois précédents (la courbe en bleu, en orange on oublie) :

autocorrlogramme.png

La solution qui me parait la plus pertinente et d'entrer dans le modèle une nouvelle variable explicative, à savoir le résidu du mois précédent (comme expliqué deux messages au dessus en fait). Là où cela plante, c'est pour le calcul matriciel de la régression linéaire. Les résidus deviennent tout autant un résultat de la régression linéaire qu'une fonction de la régression linéaire. Et vu que je dois en même temps déterminer les puissances que prennent les différentes séries, avec là aussi des itérations, et que je ne suis pas forcément doué pour la prog', OOo fait la gueule et pas qu'un peu. La solution sauvage consiste à remplacer les résidus du mois précédent par l'anomalie observés du mois précédent. Cette anomalie observé est fixé, elle ne dépend pas de la régression linéaire. Cela me donne le résultat présenté deux messages au dessus. L'énorme problème est que cette série des températures décalées d'un mois absorbe l'essentiel de la variabilité. Par exemple, le SSN n'a plus qu'un influence de 0.1°C max au lieu de 0.15 à 0.2°C. J'ai quand même présenté tel que. Je ne pense pas que cela change fondamentalement les choses pour le résultat "visible". L'influence de la nature sur les température, tout compris, reste la même. Par contre, ce n'est pas très rigoureux....

C'est ce qui me donne confiance dans le modèle, car au final même si il est inexact, il n'en reste pas moins pertinent et plus performant que ce qui se fait actuellement.

La deuxième solution sauvage est de laisser tomber le calcul des puissances, mais elles sont significativement différentes de 1, et cela serait une perte nette d'efficacité du modèle que d'abandonner ces puissances.

J'en suis donc là en gros.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Je reviens donc sur cette histoire de modélisation. Je vous passe les moments d'intenses bonheurs à essayer de comprendre ce qui foirer entre le code Basic et le classeur OOo pour en venir au fait. Au final, j'ai réussi à faire une régression avec les erreurs du modèles, ce qui modifie un chouïa les valeurs données précédemment, mais rien de bien important comme modification.

Je vais diviser le message en deux (trois ? Éventuellement si la flemme me prend … :D ) pour s'y retrouver un peu. Le premier sera vachement théorique. Pas de comparaison avec la réalité, que de la modélisation pure. On verra après pour la comparaison avec ce monde qui est censé être plus réel que nos modélisations.

La version courte que j'ai écrite au dessus reste donc valable, à l'exception de la valeur pour Juin que je confirme à 0.08°C +/- 0.1°C.

Pour les détails technico mathématiques donc. L'équation générale est de la forme :

Δθ (t) = a0 + a1 * X1 (t - δ1) ^ p1 + … + an * Xn (t-δn) ^ pn + ε

Δθ (t) = a0 + Σ [ ai * Xi (t – δi) ^ pi ] + ε

L'anomalie des températures Δθ à l'instant t se fait sur un pas mensuel. Elles sont issues de la base de données UAH, disponible à cette adresse : http://vortex.nsstc.uah.edu/data/msu/t2lt/tltglhmam_5.4 pour la version « up to date ». Le répertoire est ici : http://vortex.nsstc.uah.edu/data/msu/t2lt/

Les données vont donc du mois de décembre de l'an 1978 au mois de mai de l'an 2011, ce qui fait 390. Tous las calculs se font donc sur cette période, sauf pour quelques valeurs qui s'arrêtent en Avril de l'an 2011, ce qui fait une donnée en moins.

Les variables explicatives sont au nombre de 6 :

Le MEI : http://www.esrl.noaa.gov/psd/enso/mei/table.html pour les valeurs, http://www.esrl.noaa.gov/psd/enso/mei/ pour le répertoire

Le SSN : http://sidc.oma.be/DATA/monthssn.dat pour les valeurs, http://sidc.oma.be/sunspot-data/ pour le répertoire

Le VFD : ftp://ftp.ncdc.noaa.gov/pub/data/paleo/cl...b_volcanics.txt pour les valeurs, http://www.ncdc.noaa.gov/paleo/forcing.html pour le répertoire

Une tendance non linéaire, notée RC en toute généralité : X = f(δt , p)

Les résidus décalés de 1 mois et 2 mois, noté R1 et R2 respectivement.

Je vais ici discuter ici brièvement de ces variables explicatives.

Le MEI me semble plus pertinent que l'indice des températures de surface du Pacifique (indice de référence Nino 3.4) ou l'indice de l'Oscillation du Pacifique (indice de référence PDO). Le MEI reste évidement un indice, donc très parcellaire par nature et voué à être une description bien imparfaite et superficiel de l'état du Pacifique un instant donné. Pour autant, le MEI inclut différents paramètres qui permettent de rendre compte plus fidèlement de la rétroaction et de l'interaction entre océan et atmosphère. De plus, le MEI semble plutôt bien corrélé à la PDO (je n'ai pas fait d'études approfondies à ce sujet). Le MEI me semble donc en l'état actuel des choses l'indicateur le plus complet pour décrire le Pacifique Tropical. Je reviendrais cependant plus amplement sur le sujet un peu plus loin.

Le SSN me semble plus pertinent qu'une valeur d'insolation. Si la valeur approximative de 1355 W/m² est communément admise, cela continue de s'écharper sur les variations fines de cette insolation. J'ai préféré une série plus grossière, qui certes n'est pas corrélé de manière absolue à l'insolation, mais est disponible depuis le XVIIIème siècle, et est une valeur sûr. De toute façon, les reconstructions de l'insolation du siècle passé s’appuie en premier et lourdement sur le SSN. Tant qu'à faire, autant utiliser directement le SSN.

Le VFD, c'était le choix par défaut. Si quelqu'un connaitrait par pur hasard une autre série, je suis preneur :lol:

Pour la tendance non linéaire, je dirais la même chose que pour le SSN. Si c'est pour avoir une valeur de forçage des aérosols hautement incertain, autant prend une série plus grossière, mais qui émerge d'elle même de l'analyse. De plus, cela permet d'extrapoler. Alors certes, l'extrapolation peut donner de curieux résultats, mais malgré tout cette tendance non linéaire existe au delà de toute autre considération que celle de la présente analyse, et faire une extrapolation n'est donc pas irrationnelle.

Pour les résidus, j'ai simplement réinjecté l'erreur commisse par le modèle le mois précédent et deux mois avant. Le graphique posté ci dessus montre clairement que les résidus sont fortement autocorrélés pour les rangs 1 et 2. Je pense qu'il est plus logique de procéder ainsi que de multiplier les variables explicatives. Pour la version courte postée ci dessus, cette série des résidus été remplacé pour des raisons de calcul par la série des températures. Cela ne change pas fondamentalement les choses pour les résultats « visibles ». Cependant, cette série des températures décalée dans le temps absorbe évidement toute la variabilité naturelle. D'où l'intérêt de s'acharner comme un butor pour faire passer les résidus du modèle plutôt que les températures...

Un petit mot de méthodo ahora.

La procédure a été simple dans le principe. C'est une linéarisation par changement de variable :

Ui = Xi (t – δi) ^ pi

L'équation devient :

Δθ (t) = a0 + Σ [ ai * Ui ] + ε

On reconnaît une forme linéaire multiple simple. Par calcul matriciel, on sort la matrice â des coefficients ai.

Puis les puissances pi ont été choisi pour optimiser la régression par un processus d'optimisation par des boucles itératives qui m'ont valu quelques moments épiques...

Pour mémoire, un nombre négatif ne peut pas prendre une puissance décimale. Pour la série MEI qui présente des valeurs négatives et positives, deux puissances ont donc été déterminé, une puissance p(MEI+) pour les valeurs positives et une puissance p(MEI-) pour les valeurs négatives.

Les décalages temporels δi ont été choisies de la même manière, mais l'optimisation a été réduit au minimum absolument nécessaire.

Pour les résidus, j'ai du ruser pour faire croire à OOo que je ne faisais pas une boucle itérative... Bref, cela me diminue un peu la précision du calcul. J'ai donc :

R1 = ε(t-δ1 +/- 1E-3

R2 = ε(t-δ2 +/- 1E-3

avec une précision au millième donc « seulement », mais cela reste acceptable.

Pour la série RC, j'ai rencontré un gros problème. Je n'avais pas assez de données pour choisir correctement la tendance puissance. En minimisant la somme des résidus carrée, j'obtenais par extrapolation un réchauffement en 2100 de l'ordre de 12 à 15°C, ce qui n'est pas physiquement acceptable. En fait, la différence de courbure induite par le changement de puissance est faible entre 1979 et 2011. Dit autrement, on n'est pas loin d'une droite sur cette période. J'ai donc du adapter la série RC par une autre méthode. Le changement de courbure modifié légèrement la dépendance des résidus. En effet, une plus forte courbure donne des résidus majoritairement positif en début et fin de période, et majoritairement négatif en milieu de période. J'ai donc utilisé le coefficient de corrélation de Spearman pour maximiser l'indépendance des résidus. Autrement, j'ai forcé le coefficient de Spearman a tendre vers zéro. Le résultat est physiquement plus acceptable, avec un début de la série RC aux alentour de 1910/1920 et un réchauffement en 2100 de 3.5°C environ. Je reviendrais sur le sujet un peu plus loin également.

Les résultats bruts de décoffrage :

MEI :

δ(MEI) = 6 mois

p(MEI+ ) = 1.09

p(MEI- ) = 1.23

SSN :

δ(SSN) = 2 mois

p(SSN) = 0.55

VFD :

δ(VFD) = 4 mois

p(VFD) = 0.76

RC :

p(RC) = 2.19

R1 :

δ(R1) = 1 mois

p(R1) = 1.25

R2 :

δ(R2) = 2 mois

p(R2) = 1.32

Analyse des résidus

Si le truc est potable, on doit vérifier plusieurs hypothèses qui au final concerne toujours de près ou de loin les résidus. Je reprends une présentation classique des hypothèse (cf wikipedia pour ces hypothèses : http://fr.wikipedia.org/wiki/R%C3%A9gressi...A9aire_multiple )

H1 : Les Xj sont aléatoires

H2 : E(εi) = 0 (modèle bien spécifié en moyenne)

H3 : V(εi) = σ² (hypothèse d'homoscédasticité)

H4 : cov(εik) = 0 quelque soit k ≠ i

H5 : cov(Xik) absence de corrélation partielle avec les variables explicatives

H6 : les résidus suivent une loi normale.

Pour l’hypothèse H1, je n'ai pas vérifié. Je pense que beaucoup intuitivement diront que cette hypothèse est vérifié (quel rapport entre le SSN de février 2008 et le résidu de Janvier 2008 ou le MEI de février 2008... ?) mais je pense au contraire que cette hypothèse sera difficilement vérifiable. Toujours est-il que l'on ferme les yeux et on y croit très fort...

Pour l'hypothèse H2, je n'ai pas vérifié non plus (là, vous vous dites, v'là le branleur...). Pour autant :

E(εi) = -1.32E-4

On est inférieur de deux à trois ordres de grandeurs au premier chiffre significatif des résidus. Ce n'est peut être pas très rigoureux comme test d'hypothèse (pour ne pas dire absolument pas :lol: ) mais cela me suffit.

Pour l'hypothèse H3, j'ai mené un test F de variance. Par contre, si quelqu'un sait prononcer le mot homoscédasticité, je serais preneur de son avis sur ce test car j'ai un doute sur la réalisation que j'ai mené de ce test. Bref, avec 6 ddl et 389 mesures :

F = 1.8095

F(df1 = 6, df2 = 382) à 95% = 2.1223

En supposant que je ne me suis pas loupé avec le test, on est inférieur à la valeur critique à 95%, on accepte donc l'hypothèse H3 d'homoscédasticité.

Pour l'hypothèse H4, j'ai carrément sorti un test d'indépendance de l'autocorrélation des résidus. En effet, l'autocorrélation n'est pas nul, mais comme on peut prouver que ce n'est qu'un bruit, on va accepter l'hypothèse H4.

Bref, la tronche de l'autocorrélogramme :

autocorrlogramme.png

Le diagramme de dispersion des rangs ordonnées et des rangs d'autocorrélation :

dispersionsrangautocorr.png

On n'est pas loin d'un rectangle, cela devrait le faire...

Le test a été mené avec le rhô de Spearman :

ρ = 0.5454 (Meurthe et Moselle Power ! … :P )

La statistique t de ce coefficient est :

t = 0.6658

Distribué selon un student donc, avec 148 ddl :

t (ddl = 148) à 95% = +/1.9761

L'autocorrélation résiduelle est donc sans doute plus un bruit qu'autre chose.

Pour l'hypothèse H5, je n'ai pas vérifié non plus :lol2: :lol2: Mais c'est pouillèmesque la covariance résiduelle. Pour rendre les choses plus visuel, j'ai calculé la corrélation en fait. De toute façon, un test d'hypothèse en serait passé par là.

post-3513-1307976674.png

À part pour l'autocorrélation des résidus, qui est sans doute plus un bruit vu l'hypothèse H4, la corrélation résiduelle se compte en milliardième.. Cela ne motive pas pour faire un test.

Sous ces hypothèses, on peut sortir assez facilement la matrice de variance/covariance. Même si toutes les hypothèses ne sont pas strictement vérifiées (je ne suis même pas sûr qu'il y en ai une qu'il le soit, strictement vérifiée...), j'ai utilisé la formule courte :

e2a5c836ed2bd3048f5a8b369085d61e.png

post-3513-1307976284_thumb.png

Ce qui me donne les coefficients suivants, avec leurs incertitudes à 95% (2 sigmas) :

post-3513-1307976236_thumb.png

Pour les puissances, je ne savais pas comment vérifier si elles étaient significativement différentes. J'ai donc repris le même modèle, mais en mettant toutes les puissances à 1. J'ai repris la même procédure, pour extraire la matrice de variance covariance de ce modèle. Par comparaison, j'ai établi que les contributions étaient significativement différentes à deux sigmas (95%) pour quelques données entre modèle non contraint niveau puissance et le modèle contraint avec des puissances à 1. Si quelqu'un à une meilleure idée ?

Analyse approfondies des résidus :

Je vais annoncer toute de suite la conclusion :lol: . Les résidus sont un bruit blanc gaussiens. Je vais détailler ici les procédures de test de ces trois arguments : bruit, blanc et gaussiens.

Un bruit donc. Trois hypothèses pour le bruit blanc ( http://fr.wikipedia.org/wiki/Bruit_blanc#B..._et_statistique ).

E(εi) = 0

Comme décrit précédemment, cela se vérifie pas trop mal, avec :

E(εi) = -1.32E-4

E(ε²i) = σ²

Pas fait de test vu que l'égalité est parfaite :D

Non sérieusement, la différence entre les deux est de l'ordre -2.67E-5 pour une valeur de 1.04E-2 à trois chiffres significatifs. On est inférieurs de trois ordres de grandeurs pour la différence, on peut considérer l'hypothèse vérifiée.

cov(εik) = 0

On retrouve l'hypothèse H4. Je vous renvoie donc à la partie concernée, et je ne développe pas plus avant ici.

Un bruit blanc donc.

La seule petite chose qui change est l'indépendance des résidus. On revient en fait au choix d'une série RC qui visait à maximiser l'indépendance des résidus. Sans grande surprise, l'hypothèse est vérifiée, mais je vais détailler un peu.

La tronche du diagramme de dispersion est bien engageante déjà :

dispersionserreursmensu.png

On n'est pas loin du pavé dans la mare. Pour le test en lui même, j'ai repris comme expliqué précédemment le rhô de Spearman. J'ai aussi titillé le tau de Kendall, mais il manque de puissance et de finesse quand même.

ρ = -1.1E-4

La statistique t de ce coefficient est :

t = -2.16E-3

Distribué selon un student donc, avec 387 ddl :

t (ddl = 387) à 95% = +/1.9661

Il n'y a pas de souci, on est largement inférieur à la valeur critique à 95%, le rhô est donc significativement égal à zéro.

Pour le tau :

τ = 0

Et un bruit blanc gaussien donc.

J'ai estimé cela de visu. Je n'ai pas calculé le Kurtosis ou l'Aplatissement. Cela semble un peu près correct visuellement, mais je suis moyennement convaincu quand même. Je vérifierais à l'occasion si les résidus sont vraiment gaussiens. De toute façon, je vois mal quelle pourrait être l'autre loi explicative.

Le diagramme de dispersion de la loi cumulée et du cumul des résidus montre que nous ne sommes pas loin du x=x entre 0 et 1 :

dispersionulsobsvstho.png

Là ou cela me semble plus douteux est ici :

distributionerreurs.png

Mais bon, comme je viens de l'écrire, je vois mal ce que cela pourrait être d'autre. La loi théorique se fait avec les paramètres :

μ = 0 ≈ E(εi) (cf. hypothèse H2)

σ = σ(εi) = 0.1021

On notera aussi la courbe jaune qui délimite la valeur à +/- 1 sigma, c'est à dire +/- 0.1021°C. Dans une distri normale, 68% des valeurs sont dans cette intervalles. En arrondissant, j'ai donc une incertitude sur les résultats de +/- 0.1°, ce qui explique que je donne toutes les valeurs prévues à +/-0.1°C. Cela signifie aussi que pas loin de 30% des valeurs réellement observées seront en dehors de cette intervalle. Dans une année « normale », cela signifie que pour 4 mois, la valeur observé sera en dehors de l'incertitude de la prévision. Par contre, à +/- 0.2°C, c'est à dire à 2 sigma, on inclut 95%, ce qui est déjà nettement mieux, amis donne une incertitude plus grande.

La suite au prochain épisode...

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Au final, il ya aura trois parties :whistling: :whistling:

La comparaison avec une réalité sans doute un peu plus réel que le modèle maintenant (quoique, qu'est-ce que la réalité au fond ?)

Bref, hors considérations philosophiques, voici à quoi cela ressemble :

modelhd.png

Vaguement différent de ce que je présentait au dessus, mais pas plus que cela.

J'ai perdu un peu de corrélation et de variance expliquée dans la bataille quand même.

Je suis corrélé à 0.89 aux observations (0.8860) et j'explique 78% de la variance observé (0.784955... je ne peux même pas arrondir à 79% :crying: … )

Les contributions des facteurs naturels aux modèle (je n'ai jamais été doué pour le choix des couleurs... J'espère que cela reste lisible) :

contrib.png

Et de la somme des facteurs naturelles et de la série RC :

naturalvsnot.png

Pour la série RC, je vais détaillé ici un peu plus ce qu'elle modélise. C'est donc une courbe, de la forme :

X = t ^ p

avec t, le temps qui est une série linéaire avec un pas mensuel.

Si t = 0, X =0

Ce t = 0 se trouve être dans ce modèle être 725 mois avant décembre 1978, aux alentour du milieu/fin des années 1910. Ce n'est pas significativement différent du chiffre de 735 mois avant décembre 1978 que je donnais ci dessus.

Pour p, par optimisation du rhô de Spearman, je trouve p = 2.19.

Cela donne un réchauffement d'ici 2100 de l'ordre de 3.5°C au dessus de la valeur des années 1910/1920. Sachant que 0.6°C environ ont déjà été commis depuis ces temps immémoriaux, cela fait encore 2.9°C environ à partir de maintenant. Ces résultats, issues d'une expérience strictement « en aveugle » vu que j'ai forcé la courbe à passer aux milieu des données en maximisant l'indépendance des résidus et non en minimisant l'EQM, confirme les bases admises de la climatologie. Une influence humaine qui commence à se faire sensible au début de ce siècle dernier mais sans influence, et qui s’accélère de plus en plus. De plus, la valeur en 2100 de +3.5°C est très proche de la valeur estimée par le Giec de +4°C en 2100 en suivant le scénario A2. D'autant qu'actuellement, nous le suivons ce modèle A2....

L'influence du SSN est confirmé faible. De nombreuses études indépendantes, donc je prétend fais partie la mienne, confirme que cela tourne entre 0.15 et 0.2°C d'influence. Le simple fait que le SSN prenne une puissance aussi inférieur à 1 (0.55 pour mémoire) le confirme. Je n'ai pas su mener jusqu’au bout une étude de ces puissances. Malgré tout, une puissance aussi inférieur à 1 sur des valeurs aussi grandes ne peut qu'écraser la variabilité du SSN, et confirme que l'influence du Soleil est loin d'être dominante.

Par contre, pour la prévision cela est un avantage. Le SSN n'est décalé que de deux mois, et donc pour se projeter dans l'avenir ce n'est pas possible sans prévision du SSN.

Ces prévisions n'ont cependant pas besoin d'être d'une qualité époustouflante. Ces derniers temps, où le SSN a navigué entre 14.4 et 56.2, l'influence estimée n'a variée que de plus ou moins un centième, entre 0.04 et 0.06°C. Une prévision du SSN à +/- 20 est donc largement suffisante (cela rassure d'ailleurs quand on voit la descente aux enfers des prévisions du cycle 24 :lol2: :lol2: ) .

Pour le MEI, elle domine évidement et largement la variabilité. Par contre, les séries UAH et RSS mesure la températures de la basse tropo, et la basse tropo est connue pour être plus sensible aux événements ENSO.

La surprise reste que la MEI négative prenne une puissance assez nettement supérieur à celle de la MEI positive. Je ne sais pas si cela est significatif, mais cela est bien surprenant en tous cas, même si cela reste rationnel.

Le MEI est décalé de sept mois. Pour l'instant, cela ne pose pas de problème, pusique j'ai donc les données jusqu'en Novembre. Après, je bouche avec des valeurs bateaux impliquant un retour à la normalité mais restant dans la négativité. Par contre, en Janvier 2012 pour l'année 2012 entière, il va me manquer pas loin de la moitié des valeurs....

Pour le VFD, son influence est ponctuel mais énorme. De nouveau, les séries de températures de la basse tropo sont connues pour être plus sensible à cet effet. Par contre, le VFD est imprévisible. J'espère d'ailleurs que les récentes éruptions ne vont pas concurrencer le Pinatubo, sinon je vais l'avoir profond...

Pour les séries R1 et R2, les puissances appelées sont différentes, et cela est d'une certaine logique. La puissance pour R1 est inférieur à celle de R2 (1.25 contre 1.32). En effet, n'oublions pas que les résidus sont en absolus (largement et heureusement...) inférieurs à 1, donc que plus la puissance est grande, plus le résultat sera petit.

L'influence de ces deux séries est très faibles, hors quelques grands événements (genre 98...). Plusieurs valeurs sont significativement égale à zéro, la moyenne est à zéro et l'écart type à 0.04 pour les deux séries. Cela permet donc de rattraper le jeu du modèle si je puis dire, mais n'absorbe pas toute la variabilité naturelle comme l'aurait fait la simple injection de la série des températures décalées d'un mois.

Par contre, cette série complexifie l'utilisation du modèle en tant que modèle de prévision au delà d'un mois, car le bruit blanc gaussien est par définition aléatoire est donc imprévisible. Pour la prévision mois après mois, cela ne pose pas de problèmes car le résidu du mois précédent est connue. À plus longue échéance, il devient donc nécessaire de générer un bruit blanc gaussien.

Le lissage sur 12 mois augmente évidemment la qualité de la corrélation :

12months.png

Par contre, pour les prévisions cela devient plus complexe, d'une part car il faut générer un bruit blanc gaussien (ce n'est pas tant sa génération en elle même, que le fait qu'il doit être généré en fait) et d'autre part car je dois malgré tout avoir des prévisions du MEI. À l'occasion, je demanderais au gars qui entretient cette série MEI. Il paraît qu'on peut le contacter à ce sujet.

C'est la principale raison qui fait que tant qu'une méthodologie générale et propre de prévision à plus d'un mois n'aura pas été établie, je me contacterais d'une indication sans données d'incertitudes pour la moyenne de l'année en cours.

Enfin, j'insiste lourdement sur le sujet, mais les tendances linéaires à 10 et 15 ans sont confirmés être largement et majoritairement positives tant par la réalité que par le modèle. Cela signifie que l'évolution du climat, et pas seulement l’anomalie mois par mois, est guidé essentiellement par le MEI, le SSN, et une tendance au réchauffement qui trouve difficilement d'autre explication que l'influence anthropique.

Même dans un futur relativement lointain (au moins jusqu'en 2025 d'après ce modèle), on pourra trouver des tendances ponctuellement négatives. Cela ne restera que des tendances non significatives, et qui plus est des tendances minoritaires. Même sur une échelle de 15, qui est le minimum vital pour sortir quelque chose de significatif, on ne peut pas trouver une tendance négative.

Certes, les variations du climat ne peuvent se résumer à une tendance linéaire, mais l'évidence est là.

Et même si quelqu'un pourra toujours vous sortir 2, 3 ou même 10 tendances négatives sur 10 périodes différentes, cela ne reste qu'une infime portion de l'ensemble des tendances linéaires qui peuvent être dégagées. Cet ensemble reposant presque exclusivement dans le positif.

linaire15ans.png

J'ouvrirais la dernière partie sur une possible amélioration du modèle. Je discuterais aussi de l'acharnement quasi missionnaire de Williams du forum d'Infoclimat sur le sujet de l'influence du PDO et de l'AMO et de l'effet "marche d'escaliers" qui peut ressortir des séries de températures. Il n'a peut être pas forcément tort sur tous les points même si cela ne semble pas évident a priori et que le rapport avec le sujet peut sembler assez lointain.

Partager ce message


Lien à poster
Partager sur d’autres sites

Allez, la dernière partie. Elle aurait pu attendre une nuit, mais bon...

Bref, comme je le disais, j'ai finalement décider d'y aller en mode : gros bourrin. Les premiers résultats pour les gens intéressés :

post-3513-1308010034_thumb.png

Avec tous les paramètres constants tel que décrit ci-dessus, à l'exception de la puissance de la série RC, qui balaye de 0.7 à 3.05. Conclusion, je n'ai pas été si mauvais en y allant en "semi-manuel", la puissance qui minimise le rhô de Spearman est 2.14, à comparer aux 2.19 que je donné précédemment (troisième meilleur valeur le 2.19 quand même après 2.14 et 2.12). Donc, je perd des millionièmes en corrélation et variance expliquée, mais c'est vraiment infime et non significatif et tout ce qui a été écrit au dessus reste valable si on ne va pas chercher le 5ième ou 6ième chiffre derrière la virgule.

Quand j'aurais fini de passer toutes les possibilités, je vous donnerais les coeff's définitifs mais à moins d'une très mauvaise, il n'y pas de raison que cela change quelque chose. De toute façon, vu qu'il m'a fallu déjà un peu plus de 20 minutes pour tester seulement 235 possibilités (en gros, 5 secondes par possibilité), je vais y passer les vacances je crois... C'est cela le choix des itérations :lol:

Pour revenir dans le sujet donc.

On va déjà causer du MEI en premier, même si au fond je n'ai rien à dire.

Première valeur brut pour situer le problème. La corrélation entre résidus et MEI est de 4.63E-9 (cf premier message de cette trilogie). Très faible, donc le modèle a théoriquement éliminé l'influence du MEI. On peut creuser un peu quand même. J'ai fait l'hypothèse que le MEI recouper pour une bonne part la PDO. En effet, la corrélation simple entre PDO et MEI depuis le mois de décembre de l'an 1978 est de 0.5134. De plus, sur la même période, la corrélation entre PDO et résidus est de -1.75E-2. Un peu élevé, mais pourquoi pas.

Pour autant, le MEI et le PDO sont des oscillations. On peut donc mener une analyse spectrale pour voir un peu plus en finesse ce qui passe. C'est là où je n'ai rien à dire, vu que je n'ai pas été foutu de mener une analyse spectrale du MEI et du PDO jusqu'au bout :blush: .

Bon, je n'ai pas réussi à sortir les harmoniques, à décomposer en séries de Fourier, ... mais pour ma défense j'ai sorti l'autocorrélogramme (quand même :D ) :

meipdo.png

En gros, cela oscille sévère pour le MEI, nettement moins pour le PDO.

En fouillant un peu la régression, on s'aperçoit que la corrélation baisse dans les années récentes entre le modèle et la réalité : de 0.89 sur l'ensemble de la période, on tombe à 0.76. Dans le même temps, la corrélation entre MEI et PDO baisse et passe à 0.3877 et devient franchement mauvaise, tandis que la corrélation entre résidus et PDO monte à -5.78E-2. Autant dire qu'il y a anguille sous roche, et même baleine sous gravillon à ce niveau :lol2: :lol2: Mais pour cela, il faudrait arriver à mener une analyse spectrale complète des températures, du MEI et du PDO, et savoir si un indice composite de la MEI (qui est déjà un indice composite en soi :lol2: :lol2: ) et du PDO constituant une "synthèse spectrale" des deux si j'ose dire pourrais améliorer le truc.

C'est là que je rejoint Williams du forum d'Infoclimat. Il est peut être buté avec sa PDO, il a peut être une méthodo franchement discutable, mais les éléments que je viens de soulever ne peuvent que venir titiller un peu plus ce problème.

Mais nous n'avons pas encore découvert toutes les baleines sous gravillons de cette histoire...

Pour la corrélation des résidus avec l'AMO, cela donne aussi un résultat assez faible mais pas tout à fait non nul, puisque depuis ce maintenant fameux mois de décembre de l'an 1978, elle est de -7.90E-2. Certes, cela est bel et beau, mais elle est où la baleine dans l'histoire ? Et bien pas très loin, puisque sur ces douze (douuuze...) dernières année, la corrélation entre résidus et AMO passe à -0.15. C'est loin d'indiquer une relation entre résidus et AMO, mais tout de même.

Et donc je rejoins à nouveau Williams du forum d'Infoclimat. Le pourquoi du comment, et le comment du pourquoi, ne sont pas clair, mais fermer les yeux en croyant très fort que cela est juste un incident statistique ne serait quand même pas une bonne idée.

Je reviens aussi sur l'effet "plateau". Même métor, du blog climat-evolution, s'y met (ce qui n'a pas été sans me choquer d'ailleurs :huh: ). En effet, par un hasard statistique (ou pas, mais j'ai supposé l'hypothèse H1 vérifié, alors je m'en vas rester cohérent :D ), l'évolution de la contribution du MEI et du SSN ces dernières années se sont conjugués en une pente bien baissière. Et à l'exception de ces deux dernier épisode Nina, tant le MEI que le SSN ont eu un sacré coup de mou. En plus, on a eu peu d'oscillation franches, pas grand chose de très consistant comme valeur de crête, ... Bref, on vint de traverser une période franchement morne. J'ai rajouté sur le graphe la tendance linéaire des influences naturelles estimées par le modèle. On voit que cela plonge sans ambiguïté et qu’"heureusement" que le climat se réchauffe sinon on serait en train de fossoyer et pas qu'un peu.

plateaus.png

Et cette tendance pourrait se poursuivre. L'hypothèse d'un Nino pour 2012 n'est pas irrationnel, mais il faut savoir que même dans ce cas, battre franchement 1998 n'est pas assuré. Et vu que le cycle 24 devrait passer son maximum en 2013, si on n'a eu aucun Nino majeur d'ici là, cela repousserait le franc dépassement de 1998 a... Dieu seul sait quand. Et le tout avec un climat qui se réchauffe, et se réchauffe de plus en plus vite. Sur le graphique, j'ai fait quelques hypothèses pour 2012. J'ai généré un bruit blanc gaussien, j'ai supposé des conditions Nino, à la limite un événement Nino, et un SSN montant vers les 80 pour un possible 100 entre 2012 et 2013. Et bien cela reste bien laborieux. Le record de 1998 ne serait jamais atteint dans ces conditions en 2012 (malgré un réchauffement de 0.25°C entretemps...)

Tout ceci pour insister lourdement sur deux fait.

Une tendance faiblarde à un moment ne fait pas l'arrêt du réchauffement, pas plus qu'une hirondelle ne fait le printemps.

Et surtout, ce n'est pas parce qu'on ne "voit" pas le réchauffement qu'il n'est pas là. Le réchauffement du modèle nous conduirait à +3.5°C en 2100, ce qui commence à faire beaucoup, et pourtant même d'ici 2020 cette tendance ne prend pas le dessus. C'est comme les chiens en fait. Au début, on choisi un chiot tout mignon tout plein de poil qui ne pèse que quelques kilos tout mouillé, et en quelques années, avant qu'on n'est pu s'en rendre compte, on se retrouve avec un machin plus lourd que soit et qui en plus bouffe son poids de viande quotidiennement :lol2:

Pour terminer, le modèle reste plus performant que le travail de Lean et Rind, mais la comparaison souffre du fait qu'ils ont choisis le CRU depuis des temps immémoriaux. Il n'en reste pas moins que ce modèle corrèle à 0.89 et explique 78% de la variabilité, à comparer aux 0.87 et 76% de Lean et Rind. À l’occasion, j'essayerais peut être de refaire le même bazar avec le CRU depuis 1880. Et pour le coup, faire passer un RC serait plus simple, plus stable et plus fiable... Je vais déjà me contenter de peaufiner ce modèle. Si dans la structure général il est pertinent, il reste du boulot pour en faire quelque chose d'autre qu'une simple approximation qu'on peut à peine se permettre de balancer sur un forum.

Ne pas oublier aussi que le réchauffement est aussi essentiellement absorbé par les océans, et qu'un réchauffement atmosphérique ne fait pas un déséquilibre radiatif. Ne pas croire donc tout ce que j'ai écrit comme parole d'évangile. Il faudrait coupler avec l'océan pour espérer avoir une vision plus exact des choses. Mais cela dépasse et de loin, mes capacités et même comme ceci cela resterait une vision bien parcellaire des choses.

Allons, on va terminer avec un peu de philo. On cherche facilement à intellectualiser, à conceptualiser, à douter, à remettre en cause, mais je ne suis pas sûr qu'on prenne assez de temps pour juste se poser, prendre le temps de regarder sans juger ou analyser.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Le Soleil devrait se plonger dans une longue période d’hibernation.

Alors que le réchauffement climatique menace toujours plus le climat terrestre, trois études américaines annoncent que le Soleil va connaître une longue période d'hibernation. Un phénomène inattendu, selon les chercheurs.

Le Soleil devrait connaître une longue période inhabituelle de très faible activité, selon trois recherches dévoilées mardi aux Etats-Unis. Cette «hibernation» pourrait affecter le climat terrestre.

Des astronomes américains ont observé une diminution des taches solaires et un ralentissement de l’activité près des pôles, des signes que le Soleil s’achemine vers une période prolongée de calme plat.

Alors que le cycle actuel du Soleil, le 24e débuté en 2008, commence à accélérer son activité vers un maximum qui se mesure en nombre de taches, des recherches sur l’activité intérieure de l’astre, de sa surface visible et de sa couronne laissent penser que le prochain cycle pourrait être très calme voire inexistant, selon des scientifiques du «National Solar Observatory» (NSO) et de l’«Air Force Research Laboratory».

«Très inhabituel et inattendu»

«Si nous ne nous sommes pas trompés, le cycle actuel pourrait être le dernier d’activité solaire maximum que nous verrons avant plusieurs décennies», souligne Frank Hill, directeur adjoint du NSO, en commentant les résultats de ces recherches. Il est le principal auteur de l’une d’elles.

Qualifiant ce phénomène de «très inhabituel et d’inattendu», l’astronome a estimé que cela «affecterait un grand nombre de choses, de l’exploration spatiale au climat terrestre».

Ainsi, dans le passé, une faible activité magnétique solaire prolongée a coïncidé avec des glaciations sur notre planète. Pendant ces périodes, l’atmosphère terrestre se refroidit et se contracte et les tempêtes magnétiques près des pôles (aurores boréales), des phénomènes qui peuvent perturber les systèmes de communication terrestres, se raréfient.

«Le fait que trois observations totalement différentes du Soleil pointent dans la même direction est une solide indication que le cycle des taches solaires pourrait s’acheminer vers une hibernation», ajoute Frank Hill.

Petit âge glaciaire

Les résultats de ces études ont été dévoilés à la conférence annuelle de la division de physique solaire de l’American Astronomical Society, réunie cette semaine à l’Université du Nouveau- Mexique. Le nombre de taches solaires s’accroît et retombe tous les onze ans environ (durée d’un cycle), ce qui correspond à la moitié de la période à la fin de laquelle les pôles magnétiques s’inversent.

La première question est celle de savoir si ce ralentissement de l’activité solaire présage d’un second «Minimum de Maunder». Pendant cette période de 70 ans, de 1645 à 1715, sans aucune tache solaire, l’Europe a connu un petit âge glaciaire.

Pas de compensation du réchauffement

Matt Penn et William Livingston de l’Université Cornell (New York) ont constaté une tendance à long terme d’affaiblissement des taches solaires. Ils prédisent que les éruptions dans le champ magnétique du Soleil lors du prochain cycle seront si faibles que très peu de taches se formeront, voire aucune. Ces taches résultent d’éruption de flux magnétiques provenant de l’intérieur du Soleil et qui empêchent des gaz moins chauds en surface d’y retourner.

Pour qu’une tache se forme, le champ magnétique solaire doit avoir une force minimum de 1500 gauss (unité de mesure électromagnétique). Or, selon ces chercheurs, la force moyenne du champ magnétique solaire a diminué de 50 gauss par an depuis treize ans et va tomber au-dessous de ce minimum.

Mais selon Georg Feulner du Potsdam Institute en Allemagne, une forte réduction de l’activité solaire ne compensera pas le réchauffement lié aux émissions de CO2 résultant des activités humaines.

Il a calculé dans une récente étude qu’une période similaire au «Minimum de Maunder» ferait baisser les températures de 0,3 degré Celsius. Or la hausse attendue d’ici la fin du siècle par le groupe intergouvernemental d’experts de l’ONU sur le climat (Giec) est de 3,7 à 4,5 degrés.

Source : http://www.24heures.ch/soleil-devrait-plon...tion-2011-06-15

Partager ce message


Lien à poster
Partager sur d’autres sites

Rien qu'en voyant la tête du cycle actuel, cela calme tout de suite. l'activité du mois de Juin devrait encore reculer par rapport à l'activité du mois de Mai, qui elle même n'était pas fameuse avec un SSN à 41.6. Je ne suis même pas sûr qu'on puisse atteindre les 100 en lissé au maximum alors que le cycle 23 avait tourné entre 100 et 120 en lissé pendant bien 3 ans...

post-3513-1308151532_thumb.png

Le graphique de Meteor est intéressant aussi. Si on aligne par rapport au début du cycle, le cycle 23 avait déjà passé son maximum alors que l'activité du cycle 24 se ramasse pour la nième fois...

0511-ssn.jpg

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Alors que l'extension de la banquise est actuellement la plus faible à égalité avec 2010, voila que GFS nous sort l'ébauche d'une dégradation pluvio orageuse pour le pôle Nord pour Mercredi dans le contexte d'une grosse advection douce...

:bangin: :bangin: :bangin:

À quand le premier ouragan Arctique ? :whistling:

post-3513-1308870007_thumb.png

post-3513-1308870035_thumb.png

post-3513-1308870049_thumb.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Cela va encore. En juillet 2007, à vomir :

post-3513-1308938694_thumb.png

Et pour la semaine pro', GFS ne se calme pas et maintient la possibilité d'averses convectives pour le Pôle Nord :

post-3513-1308938835_thumb.png

Et j'en reviens à mon sujet favori, et même si je dois paraître bien lourd avec, mais on a vraiment un problème ces dernières années avec l'Arctique. Et en tant pis si je vais me faire taxer de chevalier de l'apocalypse, mais c'est le genre gros gros problème.

Évidement, niveau banquise, cela tiens vaille que vaille niveau extension, le "visible", la superficie brute sur la carte. Mais cela, c'est merci ce fameux :

Lv = 333 kJ/kg

qui signifie que pour faire fondre 1 kilo de glace il faut apporter 333 000 Joules environ. Il y a un volume moyen de 20 000 km^3 de glace à faire dégager, ce qui est énorme niveau énergétique, de l'ordre de 6*10^21 Joules. Rien que les chiffres font déjà mal à la tête. Et il est bien possible qu'une partie de la chaleur manquante se ballade quelque part en Arctique, entre la banquise et la "thermocline" sous la banquise ou actuellement il n'y a aucun moyen de savoir ce qui se passe exactement mais ou vu les quantités d'énergies en jeu, on n'est pas loin des 10^22 J de la chaleur manquante.

Mais en clair, à moins d'avoir une troupe céleste et innombrables de dragons prêt à faire pleuvoir le feu sacré sur la banquise, pour faire perdre tout le volume il faut quand même "un peu" de temps pour les sortir les 6.10^21 J (du genre, pas juste en deux ou trois ans en comptant à partir de 2007... ). Quand on prend en compte la 3D, c'est-à-dire le volume, l'évolution n'est pas triste :

post-3513-1308939550_thumb.png

Alors, évidement, en regardant en 2D, en surface, par le dessus, cela donne une image incomplète. Il y a des hauts de moins en moins hauts et des bas de plus en plus bas, et il sûr que l'Arctique ne sera pas libre de glace demain et qu'en surface, il continuera à faire aux alentour de zéro, température de fusion de la glace pour un bout de temps.

Mais quand on se regarde la tronche de la colonne atmo', pas juste les x m² de superficie de banquise, c'est flippant quand même. En été, la colonne atmo' a pris un sacré coup de chaud. Entre le géopotentiel qui se ballade à 5600 ou 5700 et la T° à 850 qui est parfois supérieur à celle de la Belgique, ce n'est pas triste.

Et on en revient encore aux mêmes conséquences, c'est-à-dire une remise en cause des schémas connues de la circulation atmo' à l'échelle de l'HN...

Partager ce message


Lien à poster
Partager sur d’autres sites

http://www.youtube.com/watch?v=pxDJKPT7qQ8&NR=1

J’ai traduit pour le bon plaisir de ceux qui me liront un article de Jeff Masters, sur les événement météos extrêmes de 2010 et 2011 :

http://www.wunderground.com/blog/JeffMaste...l?entrynum=1831

Je n’ai pas traduit l’intégralité de l’article, mais une bonne partie quand même. En fait, je n’ai pas traduit la totalité du top 20, j’ai juste fait le top 10, c’est bien suffisant. J’ai fait un résumé rapide des 10 autres événements marquants.

Pour le temps et l’énergie que cela m’a pris, j’apprécierais être lu par un peu plus que par quelques inconditionnels motivés….

Je l’ai fait pour aider à se rendre compte que le réchauffement climatique est présent, que ce n’est pas juste un truc vaporeux et évanescent, lointain et sans conséquences chez nous. Le réchauffement, ce n’est pas juste des équations tordues, mais aussi et surtout une réalité qu’on a expérimenté l’année dernière encore plus que les autres années. Donc plus il y a des gens qui me liront, plus je serais content et je pourrais me dire que je n’ai pas fait cela pour rien…

La traduction n’est sans doute pas irréprochable, la syntaxe française sans doute pas non plus, mais bon je pense avoir quand même réussi à transmettre le message que voulait faire passer Jeff Masters. Pour les détails, tant pis…

2010 - 2011 : Météo de la Terre la plus extrême depuis 1816 ?

Chaque année, des événements météorologiques extraordinaires secouent la Terre. Des records qui ont tenus des siècles sont battus. De grandes inondations, sécheresses, tempêtes affectent des millions de personnes, et des événements réellement exceptionnels, sans précédents dans l’histoire humaine, peuvent arriver. Mais la sauvage succession de hauts et de bas pour les événements météorologiques de 2010, dans mon esprit, font de cette année l’année la plus extraordinaire pour les événements météos extrêmes depuis que le début de la collecte de données fiables et globale de la haute atmosphère à la fin des années 40. Jamais durant ces 30 années en tant que météorologiste, j’ai été témoin d’une année comme 2010 - l’ahurissant nombre de désastres météorologiques et la sans précédente et sauvage fluctuation de la circulation atmosphérique de la Terre sont quelque chose que je n‘ai jamais vu. Le rythme incroyable et extrêmes d’événements météorologiques aux USA sur les derniers mois m’ont gardé si occupé que je n’ai pas encore pu rédiger une rétrospective sur les événements de 2010. Mais je suis finalement parvenu à la finir, donc accrocher vos ceintures de sécurité pour un tour à travers le top 20 des événements météos les plus remarquable de 2010. À la fin, je réfléchirais sur ce qu’impliquent les sauvages événements météorologiques de 2010 et 2011 pour notre futur.

L’année la plus chaude de la Terre.

Une chaleur sans précédente a roussi la surface de la Terre en 2010, égalant 2005 (N.d.T. et n’oublions pas 1998 :D ) en tant qu’année la plus chaude depuis le début des relevés exactes à la fin du XIXème siècle.

Les températures dans la basse atmosphère de la Terre ont également égalé le record de l’année la plus chaude, selon les mesures satellites indépendantes. La chaleur record de 2010 est inhabituelle car elle s’est produite durant le plus profond minimum d’émission énergie solaire depuis le début des mesures satellites du Soleil durant les années 70. Officieusement, 19 nations (plus les îles Ascension du RU) ont établi des records de chaleurs extrêmes et sans précédents en 2010. Ceci inclut la température sans précédent, la plus chaude d’Asie, le remarquable et précisément mesuré, 53.5°C au Pakistan en Mai 2010. Cette mesure est également la température fiable la plus chaude mesuré n’importe où sur la Terre, excepté dans la Vallée de la Mort, Californie. Les pays qui ont expérimentés des records extrêmes et sans précédent en 2010 constitue environ 20% de la surface émergé de la Terre.

heatrecords2010.jpg

Figure 1. Climate Central and Weather Underground ont crées ensemble ce graphique montrant les 19 nations (plus un territoire du RU, les îles Ascension) qui ont établis un nouveau record de chaleur extrême.

La plus extrême circulation atmosphérique de l’Arctique enregistrée, en conséquence Snowmagedon (N.d.T. ne me demander pas comment traduire :D C’est la contraction de Snow, neige ; et Armagedon, une colline symbolique de lutte entre le bien et le mal. On trouve aussi l’expression Snowpocalypse, contraction de snow, neige ; et Apocalypse, révélation en grec et utilisé pour se référer à la fin de ces temps. Et on trouve aussi l’expression Snowzilla, contraction de snow, neige ; et Godzilla… Je vous laisse interpréter :P )

La circulation atmosphérique de l’Arctique a pris sa configuration la plus extrême en 145 ans d’enregistrements effectués durant l’Hiver 2009-2010. L’Arctique est normalement dominé par des basses pressions en Hiver, et un « Vortex Polaire » de vents circulant dans le sens anti horaire se développe en entourant le Pôle Nord. Cependant, durant cet Hiver 2009-2010, des hautes pressions ont remplacés les basses pressions au dessus de l’Arctique, et le Vortex Polaire a faibli, s’inversant même par moment avec un flux d’air horaire remplaçant l’habituel flux anti horaire d’air. Ce schéma inhabituel de circulation de l’air a permis à l’air froid de se déverser vers le Sud, remplacé par de l’air chaud se déplaçant vers le Pôle. Comme en laissant la porte du réfrigérateur entrouverte, le réfrigérateur Arctique s’est réchauffé, et l’air froid Arctique s’est déversé dans la salle de séjour, où les gens vivent (N.d.T. en anglais, il y a un jeu de mot avec living room, le salon, qui signifie littéralement la pièce où l’on vie). Un schéma climatique naturel nommé l’Oscillation de l’Atlantique Nord (ONA, N.d.T. NAO en anglais) et son proche coussin, l’Oscillation Arctique (OA, N.d.T. AO en anglais) sont les responsables. Ces deux oscillations ont connus leurs plus fortes phases négatives enregistrées, quand elles sont mesurées en tant que différence de pression entre l’anticyclone des Açores et la dépression islandaise.

La circulation Arctique extrême a provoqué une bizarre situation d’inversion au dessus de l’Amérique Nord -le Canada a connu son hiver le plus chaud et le plus sec jamais enregistré, obligeant la neige a être transporté pour les Jeux Olympiques d’Hiver à Vancouver, mais les U.S.A. ont eu leur hiver le plus froid depuis 25 ans (N.d.T. on remarque que pour le Canda, c‘est un record absolu, alors que pour les U.S.A. s‘est « seulement » un record sur 25 ans…). Une série de tempêtes de neige remarquables ont pilonné l’Est des U.S.A., avec le blizzard « Snowmagedon » déversant plus de deux pieds de neiges (N.d.T. 61 centimètres) sur Baltimore et Philadelphie. L’Europe de l’Ouest (N.d.T. Ouais, vive nous :D ) a aussi expérimenté des conditions inhabituellement froides et neigeuses, avec le Royaume Uni enregistrant le huitième mois de Janvier le plus froid.

Une phase négative hautement extrême de l’ONA et de l’AO est revenue en Novembre 2010 et a duré jusqu’à Janvier 2011. Des conditions exceptionnellement froides et neigeuses ont largement touchés l’Europe de l’Ouest et l’Est des U.S.A. à nouveau durant l’Hiver 2010-2011. Durant ces deux hivers extrêmes, New York City a enregistrée trois tempêtes de son top 10 des tempêtes de neiges depuis 1869 et Philadelphie a enregistrée quatre tempêtes de son top 10 des tempêtes de neiges depuis 1884. Durant le mois de Décembre 2010, la circulation Arctique extrême au dessus du Groenland a crée la plus forte crête de hautes pressions jamais enregistrée à l’altitude moyenne n’importe où sur le globe (depuis le début des relevés fiables en 1948). De nouvelles recherches suggèrent que la perte massive de la banquise Arctique peut amener la circulation atmosphérique de l’Arctique à se comporter bizarrement, mais ces travaux restent incertain.

32.jpg

Figure 2. Déblaiement après « Snowmagedon ». Crédit image : le wundephotographer (N.d.T. photographe de Wunderground) chills (N.d.T. frisson)

Banquise Arctique : plus faible volume, troisième plus faible extension (N.d.T. en anglais extent se réfère à la superficie de la banquise où la concentration de glace est d’au moins 15%. J‘utilise ici le mot extension pour traduire « extent »)

La banquise arctique a atteint sa troisième plus faible extension enregistrée en Septembre 2010. Comparé au niveau de banquise il y a 30 ans, un tiers de la couverture de glace était manquante - une superficie de la taille de la mer Méditerrané. L’Arctique a vu une perte continue de la glace épaisse de plusieurs mètres et âgée de plusieurs années dans les années récentes, qui a laissée à de la glace fine et âgée d’1 ou 2 années en tant que type prédominant de glace. En conséquence, le volume de la banquise a été le plus faible enregistré. Plus de la moitié de la banquise en volume-60%- était absent en Septembre 2010, comparé à la moyenne de 1979 à 2010. Toute cette fonte a permis au passage du Nord Ouest à travers les eaux du Canada, normalement pris par la glace, à s’ouvrir en 2010. Le passage du Nord Est le long de la côte Nord de la Russie s’est également ouvert, et pour la troisième année consécutive - et pour la troisième fois de l’histoire connue - les deux passages se sont ouverts par fonte. Deux expéditions à voiles - une Russe et une Norvégienne - ont réussi à naviguer à travers les deux passages du Nord Est et du Nord Ouest en 2010, la première fois qu’un tel exploit a été accomplie. Des marins ont tenté de naviguer à la voile à travers le passage du Nord Ouest depuis 1497, et ont échoué à réaliser cet exploit sans brise-glace jusqu’au années 2000. En Décembre 2010, l’Arctique tombe à sa plus extension enregistrée, le début d’une série de 3 mois de records de faible extension. La Baie d’Hudson du Canda n’a pas gelé complément avant la mi Janvier de 2011, la plus tardive date d’embâcle totale de l’histoire connue.

2010_seaice.png

Figure 3. Le minimum d’extension de la banquise Arctique pour 2010 a été atteint le 21 Septembre, et fut la troisième plus faible extension enregistrée. Crédit image : National Snow and Ice Data Center (N.d.T. Centre National des Données de la Neige et de la Glace).

Fonte record du Groenland, et un massif événement de vêlage.

Le climat du Groenland de 2010 a été marqué par des températures élevées établissant de nouveaux records, la plus grande perte de glace depuis le début des relevés fiables en 1958, le plus important recul des glaciers terminant dans l’océan de l‘histoire connue, et le vêlage d’une île de glace de 100 milles carrés (N.d.T. environ 260 km²), le plus important épisode de vêlage depuis 1962 dans l’Arctique. La plupart de ces événements sont dus à des records de chaleur des températures de l’eau le long de la côté Ouest du Groenland, qui a été en moyenne 2.9°C au dessus des normales durant Octobre 2010, un remarquable 1.4°C au dessus du précédent record de chaleur des températures de l’eau de 2003.

petermann.jpg

Figure 4. L’île de glace de 260 km² qui s’est séparé du glacier Petermann se dirige vers le fjord Petermann dans cette animation de 7 images satellites. L’animation commence le 5 Août 2010 et s’achève le 21 Septembre, avec les images espacées de 8 jours environ. Les images ont été prise par les satellites de la NASA Aqua et Terra.

Deuxième plus extrême basculement d’un événement El Nino vers un événement La Nina.

L’année 2010 a commencé avec un puissant événement El Nino et des eaux du Pacifique Est exceptionnellement chaude. Cependant, El Nino a rapidement faibli durant le printemps, et une Nina modéré à forte s’est développé pour la fin de l’année, refroidissant fortement ces eaux océaniques. Depuis le début des relevés exactes en 1950, seulement 1973 a vu un basculement plus extrême d‘un El Nino vers une La Nina. Les forts événements El Nino et La Nina ont contribués à beaucoup d’événements d’inondations records enregistrés durant 2010 et la première partie de 2011.

elnino-lanina2010.png

Figure 5. L’écart à la normale des températures de la surface de l’océan au début de l’année 2010 (haut) et à la fin de l’année 2010 (bas) montre la remarquable transition d’un fort événement El Nino à un fort événement La Nina qui s’est déroulé durant l’année. Crédit Image : NOAA/NESDIS.

La deuxième pire année de blanchissement des coraux.

Les reliefs coralliens ont vécu leur deuxième pire année de blanchissement en 2010, grâce à des températures d’eau durant l’été records ou proche des records pour la plupart des océans tropicaux de la Terre. Les eaux chaudes ont provoquées le plus grand blanchissement de coraux depuis 1998 quand 16% des reliefs à travers le monde sont mort. « Clairement, nous sommes sur la voie pour que ce soit le deuxième pire (blanchissement) enregistré. », a dit l’expert des coraux de la NOAA, Mark Eakin, durant une entrevue de 2010. « Tout ce que nous attendons maintenant est le décompte ». Le blanchissement de l’année a été le pire aux Philippines et dans le Sud Est de l’Asie, où le réchauffement causé par El Nino des eaux de l’océan tropical durant la première moitié de l’année a été important. En Indonésie, dans la province d’Aceh, 80% des coraux blanchis sont morts, et la Malaise a fermée plusieurs sites populaires de plongées après que la presque totalité des coraux aient été endommagés par le blanchissement. Dans certaines parties des Caraïbes, telle que le Venezuela ou le Panama, le blanchissement des coraux a été le pire enregistré.

coral_bleach.jpg

Figure 6. Un exemple de blanchissement des coraux qui s’est produit durant l’événement El Nino 1997-1998 à l’intensité record. Crédit image : Craig Quirolo, banque de photo du secours des récifs marins, dans Climate, Carbon, and Coral Reefs.

L’année la plus pluvieuse pour les terres.

L’année 2010 a également établie un nouveau record pour l’année la plus pluvieuse de la Terre au dessus des surfaces émergées. L’écart à la normale des précipitations en 2010 a été une hausse de 13% environ par rapport au précédent record, 1956. Cependant, ce record n’est pas tellement significatif, car il est due en grande partie à la variabilité aléatoire des schémas météorologiques du courant jet durant 2010. Le record de pluviosité au dessus des terres a été contrebalancé par des conditions relativement sèches au dessus des océans.

2010precip.png

Figure 7. Écart à la normale 1900-2010 pour le globe des précipitations au dessus des surfaces émergées. L’année 2010 a établie un nouveau record pour l’année la plus pluvieuse pour les terres dans l’histoire connue de la Terre. L’écart à la normale des précipitations en 2010 a été une hausse de 13% environ par rapport au précédent record, 1956. Crédit image : NOAA’s National Climate Data Center (N.d.T. Centre National des Données Climatiques)

La forêt équatoriale amazonienne a connue sa seconde sécheresse séculaire (1 tout les 100 ans) en 5 ans.

La forêt équatoriale Amazonienne de l’Amérique du Sud a connu sa seconde sécheresse séculaire en 5 ans en 2010, avec le plus important affluent rive gauche de l’Amazone tombant 4 mètres sous son niveau normal de saison sèche. Ceci a été son plus bas niveau depuis le début de l’enregistrement des données en 1902. Le bas niveau des eaux est d’autant plus remarquable que le Rio Negro a provoqué de dévastatrices inondations en 2009, quand il a atteint un niveau haut sans précédent, 16 mètres au dessus du niveau bas de 2010. La sécheresse de 2010 a été similaire en intensité et en étendue à la précédente sécheresse séculaire de la région en 2005. La sécheresse fait une apparition régulière en Amazonie, avec d’importantes sécheresses arrivant tous les douze ans environ. Durant le 20ème siècle, ces sécheresses se produisait typiquement durant les années El Nino quand les eaux inhabituellement chaudes le long de la côté du Pacifique de l‘Amérique Sud modifie les schémas de précipitations. Mais les sécheresses de 2005 et 2010 ne se sont pas produites durant des conditions El Nino, et il est supposé qu’elles ont été causées par des records de températures de surface des océans chaudes dans l‘Atlantique.

Nous entendons souvent combien la banquise Arctique est importante pour garder le climat de la Terre frais, mais une vigoureuse forêt équatoriale est tout aussi vitale. La photosynthèse dans la plus grande forêt du monde capte environ 2 milliards de tonnes de CO2 de l’atmosphère chaque année. Cependant, en 2005, la sécheresse a inversé ce processus. L’Amazonie a émis 3 milliards de tonnes de CO2 dans l’atmosphère, provoquant une hausse nette de 5 milliards de tonnes vers l’atmosphère (N.d.T. ???? c’est bien la seule phrase dont le sens m’échappe) - approximativement équivalent à 16-22% du total des émissions de CO2 par combustions des énergies fossiles cette année là. L’Amazonie stocke dans ces sols et sa biomasses l’équivalent de 15 années d’émissions anthropiques, donc un massif dépérissement de la forêt pourrait grandement accélérer le réchauffement.

brazilfires2010.jpg

Figure 8. Des centaines d’incendies (carrées rouges) génère un épais nuage de fumée de 1000 miles de large (N.d.T. 1600 kilomètres environ) au dessus d’une région du sud de la forêt équatoriale amazonienne sur cette image prise par le satellite Aqua de la NASA le 16 Août 2010. Le gouvernement bolivien avait déclaré un état d’urgence à la mi-août dû aux incendies hors de contrôle brûlant à travers une grande partie du pays. Crédit image :

NASA (N.d.T. Administration Nationale de l‘Aéronautique et de l‘Espace).

Plus faible activité globale des cyclones tropicaux enregistrée

L’année 2010 fut l’une des plus étrange enregistrée pour les cyclones tropicaux. Chaque année, il se produit sur le globe en moyenne 92 cyclones tropicaux - nommé ouragan dans l‘Atlantique et le Pacifique Est, typhons dans le Pacifique Ouest, et cyclones tropicaux dans l’Hémisphère Sud. Mais en 2010, nous avons seulement 68 de ces tempêtes - le chiffre le plus faible depuis l’aube de l’ère satellite en 1970. Le précédent record de plus activité était détenu par 1977, quand 69 tempêtes tropicales s’étaient produit à travers le monde. À la fois le Pacifique Ouest et le Pacifique Est ont connu leur saison la plus calme enregistrée en 2010, mais l‘Atlantique a été hyperactif, enregistrant sa troisième saison la plus active depuis le début des données en 1851. L’hémisphère Sud a connu une saison légèrement sous la normale. L'Atlantique représente habituellement 13% de l’activité cyclonique globale, mais a représenté 28% de cette activité en 2010 - la plus grande proportion depuis le début des relevés au début des années 1970.

Un thème habituel de nombreuses publications récentes sur le devenir des cyclones tropicaux du globe dans un monde se réchauffant est que le nombre total de ces tempêtes diminuerait, mais les plus fortes tempêtes seront encore plus fortes. Par exemple, un papier revu par les pairs et paru dans Nature Geosciences concluait que les plus fortes tempêtes devraient augmenter d’intensité de 2 à 11% d’ici 2100, mais que le nombre total de tempêtes devraient baisser de 6 à 34%. Il est intéressant que 2010 a vu le plus faible nombre de cyclones tropicaux enregistré, mais un nombre normal des tempêtes, très fortes, de catégorie 4 et 5 (la moyenne sur 25 ans est de 13 tempêtes catégorie 4 et 5, et 2010 en a 14). Un large 21% des tempêtes tropicales de 2010 ont atteint une intensité de catégorie 4 ou 5, contre 14% durant la période 1983-2007. Surtout, en 2010 nous avons le super typhon Megi.

phet_jun3.jpg

Figure 9. Image satellite visible du cyclone tropical Phet le Jeudi 3 Juin 2010. Une chaleur record au dessus de l’Asie du Sud a permis le réchauffage de la mer d’Arabie à 2°C au dessus de la normale, et les eaux exceptionnellement chaudes ont permis d’alimenter le cyclone Phet pour le mener à être le deuxième plus intense cyclone tropical jamais enregistré dans la mer d’Arabie. Phet a eu une intensité maximale de tempête de catégorie 4 avec des vents à 145 mph (N.d.T. environ 235 km/h), a tué 44 personnes, et causé pour 700 millions de dollars de dommages en Oman. Seul le cyclone tropical de catégorie 5 Gonu de 2007 a été un cyclone de la mer d’Arabie plus intense.

Il continue comme cela, et passe aussi :

La saison Atlantique 2010, hyperactive et troisième dans les annales derrière 2005 et 1933, à égalité avec 1995 et 1887.

La tempête tropicale Anita de l’Atlantique Sud, un événement rare et qui pourtant se répété (2004, 2010 et 2011)

La plus forte tempête du Sud Est des U.S.A.

La plus forte tempête non côtière des U.S.A. (c’est-à-dire hors ouragans et nor’easter)

La mousson anormale de l’Asie de l’Est, avec les inondations chinoises de 2010 avec une comparaison avec 1998, 1959, 1931, 1915.

L’absence de dépression de mousson pour l’Inde, une occurrence rare, la deuxième depuis 2002 en 134 ans.

Les inondations du Pakistan qui ont concernés 20 millions de personnes.

La canicule russe et les incendies massifs associées, et le commentaire de l’étude NOAA à ce sujet.

Les inondations records en Australie.

Les inondations en Colombie.

Les inondations au Tennessee.

Quand la météorologie du globe fut-elle aussi extrême pour la dernière fois ?

Il est difficile de dire si les événements météorologiques d’une année particulière sont plus ou moins extrêmes globalement que les autres années, puisque nous n’avons pas d’indice global objectif qui mesure les extrêmes. Cependant, cela se fait pour les U.S.A. avec le climate extreme index de la NOAA (N.d.T. indice des extrêmes du climat l’Administration Nationale des Océans et de l’Atmosphère), qui prend en compte le pourcentage de superficie des U.S.A. continu (N.d.T. Les 48 États, excluant l’Alaska et Hawaii) connaissant des extrêmes d’une fréquence de 10% ou moins de températures minimales, températures maximales, sécheresse mensuel et précipitations quotidiennes. L’Indice des Extrêmes du Climat place 1998 en tant qu’année la plus extrême du siècle passé aux U.S.A. . Cette année là a aussi été l’année la plus chaude depuis le début des relevés fiables en 1895, donc cela fait sens que l’année la plus chaude de l’histoire enregistrée de la Terre - 2010 - a probablement été aussi une des années les plus extrêmes tant pour les précipitations que pour les températures. Les années chaudes tendent à générer plus d’extrêmes sec et pluvieux que les années froides. Ceci se produit car il y a plus d’énergie disponible pour alimenter l’évaporation qui dirige les fortes pluies et les neiges et qui rend les sécheresses plus chaudes et plus sèches dans les régions évitées par les tempêtes. En regardant en arrière jusqu’à travers le XIXème siècle, qui a été une période très froide, je ne peux trouver aucune autre année qui a connu des extrêmes de la météorologique à travers le globe plus marquée qu’en 2010, avant d’atteindre 1816. Elle a été l’année de la dévastatrice « l’année sans été » (Year without a summer) - causée par l’éruption profondément modificatrice du climat de 1815 du Mont Tambora en Indonésie, la plus large éruption depuis au moins l’an de grâce 536. Il est bien possible que 2010 a été l’année météorologique la plus extrême globalement depuis 1816.

Où va le climat de la Terre à partir d’ici ?

Le rythme des événements extrêmes est resté remarquablement élevé en 2011, soulevant la question : est-ce que la « supernaturalité global » de 2010 et 2011 est la nouvelle normale ? Est-ce que les changements causés par l’homme ont déstabilisé le climat, provoquant ces extrêmes, sans précédent, événements météorologiques ? N’importe lequel de ces événements extrêmes de 2010 et 2011 auraient pu se produire naturellement à un moment durant ce dernier millénaire. Mais il est très improbable que les remarquable événements météorologiques de 2010 et 2011 auraient pu arriver tous en même temps dans une aussi courte période de temps sans une quelconque puissante force d‘altération du climat au travail. La meilleur science que nous avons maintenant maintient que les émissions anthropiques de gaz à effet de serre tel que le CO2 sont la cause la plus probable d’une telle force d’altération du climat .

Le changement climatique causé par l’humanité a fondamentalement altéré l’atmosphère en ajoutant plus de chaleur et d’humidité. Les observations confirment que la vapeur d’eau atmosphérique globale a augmenté d’environ 4% depuis 1970, ce qui est conforme à ce que la théorie prédisait qu’il devait arriver compte tenu de la hausse observée des températures des océans de la planète de 0.5°C durant la même période. Des changements de cette magnitude sont capables d’affecter significativement le trajet et la force du courant jet, le comportement de la mousson, et le trajet des systèmes météorologiques porteurs de pluies ou de neiges. Par exemple, la position moyenne du courant jet a reculé vers le Pôle de 270 miles (435 kilomètres) durant une période de 22 ans terminant en 2001, en ligne avec les prévisions des modèles climatiques. Une année naturellement extrême, quand elle est prise dans une atmosphère autant modifiée, est capable de produire de dramatiques et sans précédents extrêmes climatiques tel que nous avons observé en 2010 et 2011. C’est la meilleure théorie que j’ai pour expliquer les extrêmes des événements météorologiques de 2010 et 2011 - des extrêmes climatiques naturels tel que El Nino, La Nina, et d‘autres schémas météorologiques naturels combinés avec des changements significatifs de la circulation atmosphérique et l‘accumulation de chaleur et d‘humidité supplémentaire causé par le changement climatique du à l‘Humanité pour créer une période extraordinaire d‘événements météorologiques extrêmes. Cependant, je ne crois pas que des années comme 2010 ou 2011 vont devenir la « nouvelle normale » dans les décennies à venir. La plupart des inondations de 2010 et 2011 ont indiscutablement été lourdement influencées par le puissant El Nino puis La Nina qui s‘est produit, et nous sommes bons pour quelques années calmes sans fort El Nino ou La Nina. Il existe également la possibilité d’une éruption volcanique majeur dans les tropiques ou une période de faible activité solaire significative puisse contribuer à refroidir le climat pour quelques années, réduisant les extrêmes de chaleurs et d’inondations (bien que les éruptions volcaniques favorisent les sécheresses). Mais la hausse ininterrompue de gaz à effet de serre que l’humanité émet dans l’air exerce une formidable pression sur le système climatique à évoluer vers un nouvel, bien plus chaud, et radicalement différent état , et les extrêmes météorologiques de 2010-2011 suggère que la transition est déjà bien engagé. Une planète plus chaude a plus d’énergie pour alimenter des tempêtes plus fortes, des vagues de chaleur plus chaudes, des sécheresses plus intenses, des pluies diluviennes plus puissantes, et des fontes de glaciers records alimentant la hausse du niveau de la mer. Je m’attends à ce que d’ici 20 ou 30 ans, les années météorologiques comme celle à laquelle nous venons d’assister en 2010, deviennent le nouvelle norme.

Enfin, je vous laisse avec une citation du blog sur le changement climatique du docteur Ricky Rood, dans un post récent, Changement de conversation : Météo extrême et climat : « Sachant que les gaz à effet de serre sont bien connus pour retenir l’énergie à la surface de la Terre, ce qui nient un impact de l’Homme sur la météorologie doivent proposer un mécanisme viable sur comment la Terre peut contenir plus d’énergie, sans que la météo ne change. Pense-y. »

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Tiens, j'avais manqué cette histoire de records en Bolivie et Colombie. Faut dire qu'au Pérou, on a dépassé les 39º avec un record à 41. Et tout ça dans une année La Nina !

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour ceux qui ont du temps à tuer, ou ceux qui pensent que la prose de la NOAA vaut bien la prose de Tolkien, la vénérable administration vient de pondre un rapport de 218 pages (et 147 MB en haute résolution !!!! ) concernant 2010. Par contre, n’espéraient pas que je vous fasse la traduction :lol2: :lol2: :lol2:

http://www.ncdc.noaa.gov/bams-state-of-the-climate/2010.php

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Le spectacle vient de commencer... Après avoir perdu 149 375 km² le 2 juillet, voici que la banquise vient de perdre 177 188 km². Évidement, ce sont des chiffres provisoires et la précision au km² près importe peu, mais la tendance est bien là... Je n'ai pas regarder toute les années, mais rien que par rapport au mythique été 2007, on fait aussi bien. Les rythmes de fonte quotidien avaient atteint sur les 4 premiers jours de juillet, 143 000 ; 162 000 ; 202 000 ; 131 000 km² :whistling:

L'anticyclone polaire semble faiblir un peu pour la mi-juillet, mais reste bien présent. Tout comme en 2007, la différence pourrait bien se jouer à cette époque de l'année en grande partie. Dans cette optique, il n'y a plus qu'à prier pour que ces 10 premiers jours de 2011 ne fassent pas trop de dégâts...

post-3513-1309767289_thumb.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Ce type n'est plus un scientifique pour moi. Et après, on viendra nous sortir des "études" qui nient le RC. Les gens sont vraiment aveugles ou malhonnêtes (ou les deux).

Partager ce message


Lien à poster
Partager sur d’autres sites

Surtout aveugle, c'est le drame... Quelques malhonnêtes comme ce guignol ont suffit à convaincre beaucoup d'honnêtes qui sont maintenant sincèrement certain que tout ceci n'est qu'une vaste fumisterie.

Partager ce message


Lien à poster
Partager sur d’autres sites

Allez, dans une série mémorable par l'absence de lecture et de réaction, j'avais annoncé Juin à 0.08°C +/- 0.1°C, ce qui donne un résultat mémorablement inexacte puisque l'UAH a annoncé 0.314°C pour Juin... Cela représente une erreur de 2.3 sigma, ce qui n'est pas rien pour un bruit blanc gaussien.

Pour rester dans le mémorable, je n'ai aucune preuve que mon délire a un fondement mathématique. Je n'ai pas assez de puissance de calcul sous OOo et Basic pour tester toutes les possibilités et vérifier la convergence de la solution mathématique... Je vais essayer de m'acharner puisqu'il parait que je suis buté, mais j'y serais encore aux calendes grecs du jugement dernier à ce rythme...

Juillet devrait afficher une anomalie de 0.16 +/- 0.1°C, mais je sens bien que cela va encore être une sous estimation.

Partager ce message


Lien à poster
Partager sur d’autres sites

Je cherche un mot d’introduction, mais je ne trouve rien d'autre que le très bateau : j'espère être lu plus que par quelques motivés déjà convaincus... :crying:

Donc, allez, pour ne pas changer, je vais parler de l'Arctique. Encore une fois, l'évolution de la banquise est un paramètre critique du temps sensible sur le plancher des vaches. J'insiste lourdement dessus, mais les gens vont sans doute encore pester après ce temps pourri, qu'il n'y a plus de saison ma pauvre dame, et éventuellement dériver sur le réchauffement. « Vous vous rendez comptez, ma brave dame ? Il pleut comme vache qui pisse au mois de Juillet. Et on nous parle de réchauffement... mais où va le monde, ma brave dame, où va le monde ? » (ceci est une fiction et toute ressemblance avec des personnes réelles seraient fortuites évidement :whistling: ). On en discutais justement avec Boitsfort dans le sujet approprié après qu'Ongbak est fait part de son désespoir. Ce blocage qui nous colle est entre autres une conséquence de la lente agonie de l'Arctique. Cet Hiver aussi d'ailleurs. Et l'Hiver dernier aussi. Et l’Été russe de 2010 aussi. Et... Bon je m'arrêtez là, mais les preuves s'accumulent pour montrer qu'à jouer avec le feu la glace Arctique, on a complétement fait dérailler l'Hémisphère Nord, au sens strict du terme. Le courant jet , le fameux rail des tempêtes, se fait tabasser la gueule sans aucune délicatesse par les remontées subtropicales au pôle Nord (rassurez moi, je ne suis pas en train de radoter ? Parce que là, j'ai l'impression de dire tout le temps la même chose...:D ).

Un peu de musique :

(ce n'est pas pour moi, c'est pour la banquise. Vu comment je m'acharne comme un missionnaire au pays du Soleil Levant en l'an de grâce 1590, elle finir bien par devenir populaire :lol2: :lol2: Et il est plutôt bien foutu Eric Saade)

Bref, que c'est-il passé cet été ? « Simplement » un méga blocage sur le Pôle Nord, qui se résume assez bien ainsi :

rhavn241.gif

rhavn242.gif

nstdevtimeseries.png

Une patate anticyclonique à 1025/1035 hPa sur le Pôle Nord, un 500 hPa qu'il faut aller chercher à 5600 ou 5800 mètres, rien de moins, la barre symbolique des 0°C à 850 hPa qui livre un combat pour l'honneur et peut être pour tenir encore une année de plus, mais qui de tout façon est condamné, et une banquise qui en dessous agonise comme une vache fraichement égorgée. Que du bonheur...

Cela implique un bouleversement de la circulation à l'échelle de l'Hémisphère Nord.

Par exemple, on peut noter une récurrence d'une AO négative. Si en Juin, l'AO reste suffisamment variable pour laisser planer le doute sur le caractère significatif ou non de la baisse des années récentes, pour le mois de Juillet la réponse est clair. L'AO creuse de plus en plus dans le négatif. Pour Juillet 2011, on pourrait même atteindre des valeurs vertigineusement négatives. Sur les 15 premiers jours, cela devrait déjà atteindre les -1.5 environ. Il faudra voir la deuxième partie de mois, mais on pourrait bien faire péter quelques planchers bas...

15827979.jpg

Les restes du vortex et la zone faiblement barocline sont rejetés loin de l'Arctique, notamment sur l'Est du Canada ou l'Ouest européen.

C'est une des causes du temps plutôt bof qui règne en maître depuis Juin sur l'Europe de l'Ouest. La synoptique de ces derniers temps a déjà été longuement discutée, je ne vais pas m'épancher plus.

On peut aussi noter les valeurs de températures fortement élevées au bord de l'Arctique. Par exemple, Eureka a atteint les 20°C ces derniers temps, Inuvik aussi, Котельный des îles de Nouvelle Sibérie s'est fait une série de 5 jours à plus de 10°C de maximales avec une pointe à 14.4°C (ce n'est pas exceptionnel relativement au années récentes, mais ce n'est pas vraiment non plus la normale).

D'où sort cette anomalie ? Il y a un élément de réponse que je voudrais développer. Déjà, il est clair qu'une telle anomalie n'est pas sensé être stable, dans la description classique de la physique de la Terre. C'est quand même le coin le plus froid de l'hémisphère Nord en moyenne.

Une première réponse vient des anomalies OLR, Outgoing Longwave Radiation.

Les anomalies montrent une large anomalie positive au dessus de la banquise :

8517011940190104926.png

Les anomalies sont de l'ordre de 10 à 20 W/m² tout de même, ce qui n'est pas rien.

En valeur absolue, c'est encore plus éloquent. On distingue nettement un geyser à cet endroit :

851701194019084925.png

Localement, les 240 W/m² sont atteint alors qu'autour, cela tourne à 220 W/m², voire moins. Il y a donc bien une source nette d'énergie venue du Pôle par rapport à l’environnement proche.

On peut comparer aux années précédentes pour mieux appréhender le caractère exceptionnel du phénomène.

climindex85170119401901.png

Juin 2011 apparait en quatrième position derrière 2007, 2005, 2002, et devant 1998.... Aucune surprise donc. Pour ceux qui voient comment est foutu l'Arctique et comment fonctionne le NCEP NCAR, j'ai pris entre la latitude 90°N et 75°N, ce qui inclus un bon bout de la mer des Barents mais exclu une partie de la mer de Sibérie Orientale, ce qui biaise légèrement les résultats. La forte valeur de 1990 est par exemple du à une anomalie en mer de Barents qui n'a, a priori, pas de lien avec la banquise (mais je n'ai pas non plus vérifié dans le détail), alors que toute l’anomalie de Juin 2011 ne passe pas.

L'explication la plus probable tient à deux facteurs je penses. L'amincissement de la banquise d'une part, la hausse du contenu en chaleur de l'océan Arctique. Cela fait un certain que la banquise est considérée comme une couverture isolante, qui empêche l'océan profond d'échanger de la chaleur, c'est-à-dire tant d'en recevoir en été qu'en rendre en toute saison. La perte d'épaisseur de banquise,et la perte de banquise tout court, permet je penses à l'océan Arctique d'accumuler plus de chaleur, et de relâcher cette chaleur. À mon sens, c'est la principale explication de la hausse graduelle des OLR, et du nouveau sommet de 2011.

Sur la carte de l'âge des glaces, on distingue une nette entaille dans la banquise la plus âgée, donc la plus épaisse, au niveau de la mer de Sibérie Orientale qui correspond à la région de fortes valeurs d'OLR :

http://img23.imageshack.us/img23/9339/20110405figure5.png

De plus, les températures de surfaces sont très élevées même en zone de fonte, ce qui suggère un océan déjà "chaud" avant la fonte :

satanomarcd00.png

Ceci impacte en retour l'ensemble de la colonne atmosphérique, puisque le géopotentiel 500 hPa par exemple ne cesse de grimper :

climindex85170119401901.png

Il n'y a par contre pas d'évolution sensible sur l'ensemble de l'été :

climindex85170119401901.png

J'ai déterré pour le coup un papier publié par deux russes au sujet de l'Hiver 2005-2006. Sans s'en rendre compte, je penses qu'ils ont en fait expliqué un dipôle arctique négatif en Hiver pour l'Europe, mais le plus intéressant est l'équation très approximative qu'il propose pour modéliser simplement le schmilblick :

http://eprints.ifm-geomar.de/8738/1/2009JD013568-pip.pdf

C'est l'équation 4), le truc en ps ≈ … (n'allez pas croire que je vais la recopier ici :lol: )

En reprenant les paramètres prescrits, et en choisissant α = 20° , θc = -2 , Fs = 220 W/m² (basé sur les valeurs OLR) et r0 = 2000000 mètres

Je trouve une anomalie de surface de -565 Pa environ, soit 1008 hPa « net » dans une atmosphère moyenne.

Bien sûr, ce n'est qu'indicatif, et on trouve même un résultat à l’opposé de l'attendu :lol: . Les auteurs ont développés spécifiquement cette équation pour la mer de Barents un mois d'Hiver 2006, et il n'est peut être pas judicieux de l'étendre trop dans l'espace-temps. Pour autant, cela montre aussi le poids relativement important de la convection si on accepte l'hypothèse que l'équation a quand même un fond d'exactitude.

Il n'y a pas besoin de ce résultat curieux pour justifier ce qui suit, mais je tenais quand même à faire la remarque.

Ce qui suit est le fait que je penses improbable que la source de chaleur Arctique soit la seule raison du blocage. Il pourrait exister d'autres facteurs envisageables (refroidissement progressif de la stratosphère ? Là se trouve de lourds soupçons.)

Pour autant, l'anomalie polaire est sans doute bien alimenté par source de chaleur, et il existe un jeu de rétroaction qui pérennise cette anomalie. L’anomalie polaire ne place, la banquise dégage plus vite, alimentant en retour l’anomalie polaire, qui en retour fait encore plus dégager la banquise. Décembre 2010 a sans doute vu ce jeu macabre. La baie d'Hudson et la Baie de Baffin alimentaient un blocage monumentale sur l’Atlantique, provoquant une alimentation en air doux de l'Est Canadien. Je n'ai pas fais les calculs avec l'équation des deux russes pour vérifier la causalité entre le blocage et le déficit de banquise, mais elle eu sans doute été employé à meilleur escient en ces lieux et en ces temps.

En conclusion, oui, le mois de Juillet ne s'annonce pas caniculaire, ni même chaud, mais les perturbations de plus en plus violentes de l'Arctique ne sont pas sans conséquences ; et paradoxalement le temps assez facilement frais (en tous cas par rapport aux années récentes) depuis l’année dernière pourrait bien être lié à la fonte de la banquise et à l’énorme déséquilibre énergétique engendré.

Partager ce message


Lien à poster
Partager sur d’autres sites

Paix, tu fais quoi comme job dans la vie ?

Je suis bleuffé par tous tes articles que tu semble écrire "pour le fun". Si tu n'est pas chercheur, tu ne penses pas à une reconversion ? Désolé je fais encore un hors sujet...

Edit: et tu es sous linux pour octave ? car sur windows j'ai pas vraiment compris comment on pouvait avoir autre chose que la vieille fenetre de commande toute pourrie de cygwin.

Modifié par jackflyer

Partager ce message


Lien à poster
Partager sur d’autres sites

Je crois que nous allons pulvériser des records dans le hors sujet à nous deux ... :D

Je suis étudiant, bac+1 obtenu Dieu seul sait comment après 3 années dans le supérieur. À ce rythme, j'y suis encore aux trompettes du jugement dernier, dans le supérieur...

À propos d'Octave, il y a plusieurs réponses. Déjà, je n'utilise pas couramment Octave. J'ai appris son existence il y a peu, et j'ai un peu de mal à m'y mettre. Je reste avec le trio Windows/OOo/Basic. J'utilise parfois Linux, mais à cause de ces ******* de chez Windows qui ont réussi à imposer un monopole, j'ai toujours récupérer des systèmes Windows, et j'ai appris l'informatique avec, et j'ai eu des logiciels compatibles Windows uniquement. Si je le voulais vraiment, je pourrais quitter totalement Windows, j'ai déjà essayé, mais c'est dur. Rien que pour les jeux, la plupart ne sont pas compatible Linux, et on ne peut pas passer sa vie avec les données OLR ou l'épaisseur de la banquise :lol2: :lol2: .

Par contre, si Octave est effectivement compatible WIndows, je pense que c'est bien une compatibilité minimale avec la fenêtre toute pourrie en effet.

Pour ne peut être complétement HS, la banquise pulvérise elle aussi des records. On reste assez proche du niveau de 2007 tout de même, avec une différence de 250 000 km² à l'avantage de 2011, plus ou moins la superficie du Royaume Uni de Grande Bretagne et d'Irlande du Nord et plus ou moins 8 fois la superficie de la Belgique. J'ai fais une petite simulation rapide. Si on suit le rythme de fonte de 2006 dès demain, rythme de fonte qui a été le plus lent des années récentes pour Août, 2011 éviterait même de passer devant 2005 et d'arriver ainsi en quatrième position. C'est juste pour situer un peu le problème. On peut toujours répliquer que plus on avance vers le Pôle Nord, plus la fonte devient difficile. Mais cette année c'est du lourd quand même. Un autre point est que le rythme de fonte de 2007 en Août était dans la moyenne des années récentes, et le plus gros c'est joué en Juin/Juillet 2007. Vu qu'à la mi-juillet, on a un avantage net sur 2007, il n'aurait même pas besoin d'un mois d'Août exceptionnel pour se faire le record. Tout ceci reste évidement des considérations très générales pour baliser un peu l'intervalle où pourrait évoluer la banquise en 2011. Deux années ne sont évidemment pas directement comparables.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Le rythme de fonte de ces dernières a rarement été égalé à mon avis. Il reste encore un gros morceau, mais le record est menacé, c'est évident.

Partager ce message


Lien à poster
Partager sur d’autres sites

Paix, à ta place j'enquêterais pour savoir s'il y a moyen de faire un doctorat, même sans diplôme; enfin si c'est ce que tu veux faire... (j'imagine que t'es étudiant en sciences) Tu dois leur montrer tout ce que tu écris sur ce forum. Et si ça marche pas et que tu es prêts à bouger, il y a peut-être des pays qui regardent moins les diplomes qu'en france. Luc Trullemans est bien rentré en météo sans diplome (si je me souviens bien)

Pour linux, tu peux avoir un dual boot ubuntu/windows...ou alors ça vaut peut-être la peine d'acquérir matlab.

Si tu tape 'rxvt' dans google, tu trouvera des pistes pour avoir une belle console sur windows, mais j'ai personnellement jamais réussi à avoir un truc bien...

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant

×