Aller au contenu
Les Forums de MeteoBelgique
Philippe

A propos du réchauffement climatique

Messages recommandés

Si moi je devais tant désinformer mes étudiants dans mes cours, on me virerait ou en tout cas on me sommerait de changer. Là, je constate que ce n'est pas le cas. J'aimerais bien qu'on surveille un peu plus les dires de la sacro-sainte profession de journaliste. Ce serait mal vu, mais c'est une question d'éducation.

Partager ce message


Lien à poster
Partager sur d’autres sites
Loin de moi l'idée de vous insulter.

L'idée qu'il y a effectivement des incertitudes sur la températures se révèle bien au fond avec les divergences de tendances linéaires depuis 2002 des différentes bases de données. Positive pour la plupart des bases (l'UAH est même au double de la NASA :whistling: ) mais décroissante pour l'HADCRUT3 et stable très légèrement négative pour le RSS. Donc, effectivement, un plateau de températures avec les incertitudes peut vite se transformer en pente négative ou positive. Mais, personnellement, je "crois" à la signification de la moyenne en physique, et quand on fait la moyenne de ces tendances linéaires, c'est quand même du positif depuis 2002.

Par contre je n'ai pas encore lu le papier de Scafetta. Preomis, je le ferais :D.

Pour les insultes, je ne vous visais pas ;-)

A suivre également, l'expérience CLOUD au CERN qui va tenter de mettre en avant la formation de nuages par l'intermédiaire des rayons cosmiques...Rayons cosmiques qui sont bien sûr liés à l'activité solaire...

Possible lien entre la formation de nuages de basse altitude et les rayons cosmiques. Activité solaire baisse, rayons cosmiques augmentent, nuages de basse altitude augmentent, refroidissement de la terre.

Evidemment, le refroidissement ne se fait pas instantanément vu l'inertie des océans ce que Scafetta tente de mettre en lumière.

Les mesures d'irradiance solaire effectuées par divers organismes ne sont pas identiques.

Partager ce message


Lien à poster
Partager sur d’autres sites

L'expérience CLOUD m'intéresse aussi, on verra bien ce qu'elle donne. Si certains veulent en savoir un peu plus :

CLOUD – Cosmics Leaving OUtdoor Droplets

Rayons cosmiques et formation des nuages

L’expérience CLOUD (Rayons cosmiques produisant des gouttelettes extérieures) exploite une chambre à brouillard pour étudier un lien possible entre les rayons cosmiques galactiques et la formation des nuages. Elle est alimentée par le Synchrotron à protons du CERN, qui est ainsi le premier accélérateur de particules utilisé pour étudier la science des climats et de l'atmosphère. Les résultats pourraient considérablement modifier notre compréhension des nuages et du climat.

Les rayons cosmiques sont des particules chargées qui bombardent l'atmosphère de la Terre depuis l'espace extra-atmosphérique. Des études suggèrent qu'ils pourraient avoir une influence sur l’épaisseur de la couverture nuageuse de par la formation de nouveaux aérosols (minuscules particules en suspension dans l'air qui constituent le germe des gouttelettes des nuages). Ces études sont étayées par des mesures prises par satellite révélant la possibilité d’une corrélation entre l'intensité des rayons cosmiques et l’épaisseur de la couverture nuageuse à basse altitude. Les nuages exercent une forte influence sur l'équilibre énergétique de la Terre; des changements d'à peine quelques pour-cent ont une incidence considérable sur le climat. Comprendre la microphysique sous-jacente dans des conditions de laboratoire contrôlées pourrait contribuer à révéler la relation entre les rayons cosmiques et les nuages.

L'expérience CLOUD est menée par une équipe interdisciplinaire de scientifiques provenant de 18 instituts de 9 pays. Elle comprend des physiciens de l'atmosphère, des physiciens du Soleil, ainsi que des physiciens des rayons cosmiques et des particules. Le PS constitue une source artificielle de rayons cosmiques qui permet de simuler les conditions naturelles. Un faisceau de particules est envoyé dans une chambre de réaction ; ses effets sur la production d'aérosols sont ensuite analysés.

La phase initiale de l'expérience fait intervenir un détecteur prototype, mais l'expérience CLOUD complète comprendra une chambre à brouillard et une chambre de réaction de dernière génération, équipées d’une vaste palette d’équipements extérieurs pour contrôler et analyser leur contenu. Les conditions de température et de pression de n’importe quel endroit de l'atmosphère peuvent être recréées dans les chambres et toutes les conditions expérimentales peuvent être contrôlées et mesurées, y compris l'intensité des « rayons cosmiques » et le contenu des chambres.

http://public.web.cern.ch/public/fr/Research/CLOUD-fr.html

Partager ce message


Lien à poster
Partager sur d’autres sites

Le thermomètre donne encore et toujours tort aux sceptiques, convaincu de l'éminence d'un refroidissement climatique. Pour l'année civile 2010, on reste sur des niveaux records, statistiquement indiscernable de 1998 et 2005. De plus, et c'est un point capital à souligner : 2010 a eu une activité solaire très faible, et a été bien plus une année La Nina qu'El Nino, deux facteurs notoirement connu, surtout chez les sceptiques, pour plomber les moyennes, ce qui n'était pas arrivé ni en 2005 ni en 1998. Bref, on voit toujours passer les mêmes arguments sur l'origine naturelle du réchauffement climatique, alors que tout indique le contraire :

NASA Research Finds 2010 Tied for Warmest Year on Record

January 12, 2011

Global surface temperatures in 2010 tied 2005 as the warmest on record, according to an analysis released Wednesday by researchers at NASA's Goddard Institute for Space Studies (GISS) in New York.

GISS temperature data graph

In 2010, global temperatures continued to rise. A new analysis from the Goddard Institute for Space Studies shows that 2010 tied with 2005 as the warmest year on record, and was part of the warmest decade on record. (Image credit: NASA/Earth Observatory/Robert Simmon)

post-3513-1294944238_thumb.png

The two years differed by less than 0.018 degrees Fahrenheit. The difference is smaller than the uncertainty in comparing the temperatures of recent years, putting them into a statistical tie. In the new analysis, the next warmest years are 1998, 2002, 2003, 2006, 2007 and 2009, which are statistically tied for third warmest year. The GISS records begin in 1880.

The analysis found 2010 approximately 1.34°F warmer than the average global surface temperature from 1951 to 1980. To measure climate change, scientists look at long-term trends. The temperature trend, including data from 2010, shows the climate has warmed by approximately 0.36°F per decade since the late 1970s.

"If the warming trend continues, as is expected, if greenhouse gases continue to increase, the 2010 record will not stand for long," said James Hansen, the director of GISS.

The analysis produced at GISS is compiled from weather data from more than 1000 meteorological stations around the world, satellite observations of sea surface temperature and Antarctic research station measurements. A computer program uses the data to calculate temperature anomalies — the difference between surface temperature in a given month and the average temperature for the same period during 1951 to 1980. This three-decade period acts as a baseline for the analysis.

The resulting temperature record closely matches others independently produced by the Met Office Hadley Centre in the United Kingdom and the National Oceanic and Atmospheric Administration's National Climatic Data Center.

The record temperature in 2010 is particularly noteworthy, because the last half of the year was marked by a transition to strong La Niña conditions, which bring cool sea surface temperatures to the eastern tropical Pacific Ocean.

"Global temperature is rising as fast in the past decade as in the prior two decades, despite year-to-year fluctuations associated with the El Niño-La Niña cycle of tropical ocean temperature," Hansen and colleagues reported in the Dec. 14, 2010, issue of Reviews of Geophysics.

A chilly spell also struck this winter across northern Europe. The event may have been influenced by the decline of Arctic sea ice and could be linked to warming temperatures at more northern latitudes.

Arctic sea ice acts like a blanket, insulating the atmosphere from the ocean's heat. Take away that blanket, and the heat can escape into the atmosphere, increasing local surface temperatures. Regions in northeast Canada were more than 18 degrees warmer than normal in December.

The loss of sea ice may also be driving Arctic air into the middle latitudes. Winter weather patterns are notoriously chaotic, and the GISS analysis finds seven of the last 10 European winters warmer than the average from 1951 to 1980. The unusual cold in the past two winters has caused scientists to begin to speculate about a potential connection to sea ice changes.

"One possibility is that the heat source due to open water in Hudson Bay affected Arctic wind patterns, with a seesaw pattern that has Arctic air downstream pouring into Europe," Hansen said.

Pour la NASA, sur l'année civile, en anomalie :

2010 avec +0.63°C

2005 avec +0.62°C

1998 avec +0.56°C

2002 avec +0.56°C

Pour le NCEP/NCAR, en "absolue" :

post-3513-1294944555_thumb.png

2005 avec 14.406°C

2010 avec 14.393°C

2002 avec 14.297°C

1998 avec 14.266°C

Pour l'UAH (ils ont refait les moyennes sur la période de 30 ans la plus récente, donc 2008 passe assez nettement en négatif) :

post-3513-1294944880_thumb.jpg

1998 avec +0.424°C

2010 avec +0.411°C

2005 avec +0.262°C

2002 avec +0.220°C

Mais comme 2011 s'annonce un peu plus fraîche (c'est à dire "seulement" une des 10 années les plus chaudes) avec les conditions Nina qui semblent vouloir persister, on peut être sûr que 2010 va être "oubliée" ou profit de 2011 ou 2008. On se console comme on peut.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour insister encore un peu plus, mais 1995 et 1996 au niveau mondial ont de fortes similitudes avec 2010. La température est une fonction de plusieurs variables, et si on joue au jeu des dérivées partielles en fixant certaines variables, cela devient très intéressant. Déjà, pourquoi 1995 et 1996 ? De multiples point de vues, on est dans un situation assez proche entre ces deux années.

Du point de vue de l'activité solaire, celle-ci a été faible en 1995/96/97 du à la transition entre le cycle 22 et 23. En 2010, elle a été faible avec la transition que l'on sait entre le cycle 23 et 24.

post-3513-1295220843_thumb.png

Du point de vue Pacifique, l'ENSO a été dans une configuration assez proche en 1995 et 2010, mais 1995 a été un peu plus chaud en moyenne sur l'année. En 1996, la moyenne a été proche de celle de 2010, mais dans une configuration différente avec un maintien en faible Nina :

Le dessin est un peu chargé (juste un peu :whistling: ) mais je pense qu'il reste lisible (j'espère en tout cas :blush: )

post-3513-1295221458_thumb.png

La PDO par contre est assez nettement différente entre 2010 et 1995/1996 (tout ne peut être parfait... ).

post-3513-1295221758_thumb.png

L'AO en 1995 est assez nettement différente de celle en 2010, alors que 1996 affiche une assez belle concordance avec l'épisode de 2010, bien que de magnitude largement inférieur en 1996 :

post-3513-1295221824_thumb.png

De plus, si l'on considère des indicateurs plus indirects comme l'activité cyclonique (au hasard :whistling: ), on tombe à nouveau sur une bonne concordance. La saison cyclonique Atlantique 2010 se compare bien avec 1995, un peu moins avec 1996 mais cette dernière comparaison reste valide. Pour la saison cyclonique Pacifique Est ou Ouest, la PDO fortement différente entre 1995/1996 et 2010 a joué sans doute un rôle important. Par définition, une saison record n'a pas d'équivalent, et vu le niveau d'activité cyclonique du Pacifique en 2010, on ne peut pas trouvé d'équivalent... Malgré tout, 1995, et plus marginalement 1996 pour le seul Pacifique Est enregistre une activité cyclonique sous les normales.

Je vous l'ai présenté ici d'un point de vue strictement qualitatif, mais j'ai quand même fait un peu de qualitatif derrière, il ne faut pas croire :D . Histoire d'être sûr que mon blabla tienne la route quand même. Bref, ce bref (poil à Joseph... ) exposé des faits laisse quand même apparaît une concordance assez remarquable entre trois années si proches. Maintenant, là où on se gausse :

1995 :

post-3513-1295222264_thumb.png

1996 :

post-3513-1295222278_thumb.png

2010 (désolé pour la qualité, il est 1h du mat' et la flemme de chercher un hébergeur externe... ) :

post-3513-1295222411_thumb.jpg

Mais où est Charlie ?

Heu,... Non

Mais où sont passés les 0.27 à 0.35°C de diff' ? ....

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Du 1er Janvier au 19 Janvier 2008, PDO négative, activité solaire au fond du trou, événement La Nina :

post-3513-1295649001_thumb.png

Du 1er Janvier au 19 Janvier 2010, PDO négative, activité solaire au fond du trou, événement La Nina :

post-3513-1295649047_thumb.png

Je ne vous fait pas de dessin sur le mois de Janvier le plus chaud entre les deux. Évidement, Janvier est loin d'être fini, on pourrait trouver des tas de point d'appochements, sans doute que beaucoup s'en foutent, mais même sur 3 ans, une tendance au réchauffement est palpable. Le creux de 2011 risque d'être sans commune mesure avec celui de 2008.

Partager ce message


Lien à poster
Partager sur d’autres sites

Changement climatique : 2010 est l'une des années les plus chaudes

20 janvier 2011 – L'année 2010 a été l'une des années les plus chaudes jamais observées, avec 2005 et 1998, selon l'Organisation météorologique mondiale (OMM).

« Les données pour 2010 confirment la nette tendance au réchauffement à long terme de la planète », a déclaré le Secrétaire général de l'OMM, Michel Jarraud. « Les dix années les plus chaudes jamais observées sont toutes postérieures à 1997 », a-t-il ajouté.

En 2010, la température moyenne à l'échelle du globe s'est révélée supérieure de 0,53 °C à la moyenne de la période 1961-1990. Ces statistiques sont fondées sur les données actualisées par l'Unité de recherche sur le climat et le Centre Hadley du Met Office du Royaume-Uni, le Centre national de données climatologiques des États-Unis (NCDC) et l'Administration américaine pour l'aéronautique et l'espace (NASA).

En décembre 2010, l'étendue des glaces de mer dans l'Arctique a été la plus faible jamais enregistrée, avec une superficie moyenne mensuelle de 12 millions de kilomètres carrés, soit 1,35 million de kilomètres carrés de moins que la moyenne en décembre pour la période 1979-2000.

Sur la décennie 2001-2010, la température moyenne à l'échelle du globe est supérieure de 0,46 °C à la moyenne pour la période 1961-1990 et est la plus élevée jamais enregistrée sur une décennie depuis le début des relevés instrumentaux, souligne l'OMM. Ces dernières années, le réchauffement a été particulièrement prononcé en Afrique et dans certaines parties de l'Asie et de l'Arctique, de nombreuses régions enregistrant des températures supérieures de 1,2 à 1,4 °C à la moyenne à long terme.

2010 a été une année exceptionnellement chaude sur une grande partie du continent africain, dans le sud et l'est de l'Asie, au Groenland et dans l'Arctique canadien, de nombreuses régions enregistrant des températures annuelles records.

En 2010, certaines zones continentales ont connu des températures nettement inférieures à la moyenne, et notamment une partie de l'Europe septentrionale ainsi que le centre et l'est de l'Australie.

Le mois de décembre 2010 a été exceptionnellement chaud dans l'est du Canada et au Groenland. Il a été anormalement froid dans de vastes zones du nord et de l'ouest de l'Europe, avec des températures moyennes mensuelles inférieures de 10 °C à la normale en certains endroits de la Norvège et de la Suède. De nombreuses régions de Scandinavie ont connu leur mois de décembre le plus froid jamais observé.

Dans le centre de l'Angleterre, la température moyenne en décembre a été la plus basse depuis 1890. De fortes chutes de neige ont gravement perturbé les transports dans une bonne partie de l'Europe. Les températures ont également été inférieures à la moyenne dans une grande partie de la Fédération de Russie et dans l'est des États-Unis, où la neige a aussi perturbé fortement les transports.

L'année 2010 a été marquée par un grand nombre de phénomènes météorologiques extrêmes, dont la vague de chaleur en Russie et les crues dévastatrices dues à la mousson au Pakistan.

Début janvier 2011, plus d'un million de personnes ont été affectées par des inondations au Sri Lanka. Les Philippines ont été aussi durement touchées par des inondations et des glissements de terrain en janvier.

Au Brésil, pendant la deuxième semaine de janvier, des crues soudaines dans les zones montagneuses proches de Rio de Janeiro ont fait plus de 700 victimes, la plupart à la suite de coulées de boue. Il s'agit du plus grand nombre de victimes imputables à une seule catastrophe naturelle de toute l'histoire du Brésil.

Des inondations de grande ampleur se sont produites dans l'est de l'Australie en décembre et pendant la première quinzaine de janvier, en corrélation avec la poursuite de l'épisode La Niña de forte intensité. Les plus gros dégâts ont eu lieu à Brisbane, qui a connu sa deuxième crue la plus importante des cent dernières années après celle de janvier 1974.

Source : http://www.un.org/apps/newsFr/storyF.asp?N...atique&Cr1#

Partager ce message


Lien à poster
Partager sur d’autres sites

Encore un article du blog de Jeff Masters, qui parle des multiples inondations exceptionnelles de 2011. Sans doute encore un autre indice que le climat change et qu'il n'y a pas besoin d'avoir un réchauffement de plusieurs dizaines de degrés à l'échelle pour que cela devienne préjudiciable à l'échelle locale.

2011: Year of the flood

The year 2010 was one the worst years in world history for high-impact floods. But just three weeks into the new year, 2011 has already had an entire year's worth of mega-floods. I'll recap here six remarkable floods that have already occurred this year.

Brazil

Brazil suffered its deadliest natural disaster in history last week, when torrential rains inundated a heavily populated, steep-sloped area about 40 miles north of Rio de Janeiro. Flash floods and mudslides from the heavy rains have claimed at least 772 lives, including 357 in Nova Friburgo and 323 in Teresópolis. The storm left 126 people missing, the Brazilian Health and Civil Defense Ministry said Thursday. Rainfall amounts of approximately 300 mm (12 inches) fell in just a few hours in the hardest-hit regions. Damage estimates are currently $1.2 billion, and 13,000 are homeless. Latest rainfall forecasts from the GFS model show the heaviest rains during the coming week staying well south of the Rio de Janeiro area, which will give the flood region time to dry out and recover.

brazilfloods2011.jpg

Figure 1. Flooded stream in Teresópolis. Image credit: Wikipedia.

Australia Queensland

Australia's most expensive natural disaster in history is now the Queensland flood of 2010 - 2011, with a price tag now as high as $30 billion. At least 31 have been killed since December in the floods, and another 40 are missing. According to the Australian Bureau of Meteorology, in 2010 Australia had its wettest spring (September - November) since records began 111 years ago, with some sections of coastal Queensland receiving over 4 feet (1200 mm) of rain. Rainfall in Queensland and all of eastern Australia in December was the greatest on record, and the year 2010 was the rainiest year on record for Queensland. Queensland typically has its rainiest years when La Niña events occur, due to the much warmer than average ocean temperatures that occur along the coast. The BOM noted, "Previous strong La Niña events, such as those of 1974 and 1955, have also been associated with widespread and severe flooding in eastern Australia. Sea surface temperatures off the Queensland coast in recent months have also been at or near record levels." The BOM's annual summary also reported, "Sea surface temperatures in the Australian region during 2010 were the warmest value on record for the Australian region. Individual high monthly sea surface temperature records were also set during 2010 in March, April, June, September, October, November and December. Along with favourable hemispheric circulation associated with the 2010 La Niña, very warm sea surface temperatures contributed to the record rainfall and very high humidity across eastern Australia during winter and spring." Queensland has an area the size of Germany and France combined, and 3/4 of the region has been declared a disaster zone. The latest GFS precipitation forecast for the coming week shows new heavy rains of 3 - 5 inches can be expected over the extreme northern portion of Queensland, but the majority of the state will receive lesser rains that should not further aggravate the flooding situation.

rockhampton.jpg

Figure 2. The airport, the Bruce Highway, and large swaths of Rockhampton, Australia, went under water due to flooding from the Fitzroy River on January 9, 2011. The town of 75,000 was completely cut off by road and rail, and food, water and medicine had to be brought in by boat and helicopter. Image credit: NASA.

Australia Victoria

From January 12 - 14, extremely heavy rains over the southern Australian state of Victoria caused major flooding that killed one person and caused hundreds of millions in damage. Kevin Parkyn, a senior forecaster with the Bureau of Meteorology said "Victoria is experiencing one of its worst flood events in its history" after "a week in which rainfall totals have been smashed in parts of Victoria". Bureau of Meteorology senior forecaster Terry Ryan said "It's the worst flood in western Victoria in their history as far as our records go in terms of the depth of water and the number of places affected." According to atmospheric moisture expert Dr. Kevin Trenberth of the National Center for Atmospheric Research, extratropical storm systems like the one that affected Victoria get 70% of their moisture from the surrounding atmosphere, and 30% due to evaporation from the surface. Since the airmass that supplied Victoria with its flooding rains traveled over the already-flooded portions of Queensland to the north before reaching Victoria, the moisture from the Queensland floods contributed significantly to the Victoria floods. Little rain is predicted over Victoria during the coming week, fortunately.

100-year flood in Sri Lanka

As I reported in my previous post, at least 43 are dead and damage estimates are at $500 million in Sri Lanka, which suffered a 1-in-100 year flood this month.

South Africa

Heavy rains of up 345 mm (13.6") have fallen in South Africa so far this month, resulting in deadly floods that have killed 40 people. Seven of the country's nine provinces have been declared disaster zones. Agricultural damage alone from the floods is estimated at $145 million. Heavy rains and severe flooding have also affected neighboring Mozambique, where 13 people are dead and 13,000 homeless or suffering damaged homes. Neighboring Zimbabwe has seen its heaviest rains in 30 years in recent weeks, according to the nation's Civil Protection Unit, but severe flooding has not yet hit that nation. La Niña events commonly cause heavy rains in southern Africa. Sea surface temperatures off the east coast of South Africa were 0.2 - 0.4°C above average during December 2010--nowhere near record levels, but warm enough to contribute to enhanced rainfall.

Philippines

Very heavy rains since late December have triggered a major flooding disaster in the Philippines, where 40 are dead, 453,000 people displaced, and 1.2 million people affected. The heavy rains were caused when a cold front moved over the eastern Philippines and lingered for many days. Heavy rains are common in the Philippines during La Niña events, as unusually warm waters accumulate by the islands. This winter, the waters in the central Philippines (10N to 15N, 120E to 130E) were at the warmest levels in history--1.0°C above average during December. The exceptionally warm waters allowed more moisture than usual to evaporate into the air, enhancing rainfall.

Commentary

The year 2011 has begun with a remarkable number of high-impact floods world-wide, and much of the blame for this can be placed on the current La Niña event occurring in the Eastern Pacific. NOAA's Climate Prediction Center currently puts the La Niña event in the "strong" category, and whenever a La Niña or El Niño event reaches the strong category, major perturbations to global weather patterns occur. This typically results in record or near-record flooding in one or more regions of the globe. When one combines the impact of La Niña with the increase of global ocean temperatures of 0.5°C (0.9°F) over the past 50 years, which has put 4% more water vapor into the atmosphere since 1970, the result is a much increased chance of unprecedented floods. A 4% increase in atmospheric moisture may not sound like much, but it turns out that precipitation will increase by about 8% with that 4% moisture increase. Critically, it is the extreme rainfall events that tend to supply the increased rainfall. For example, (Groisman et al., 2004) found a 20% increase in very heavy (top 1%) precipitation events over the U.S. in the past century, and a 36% rise in cold season (October - April) "extreme" precipitation events (those in the 99.9% percentile--1 in 1000 events. These extreme rainfall events are the ones most likely to cause floods.

References

Groisman, P.Y., R.W. Knight, T.R. Karl, D.R. Easterling, B. Sun, and J.H. Lawrimore, 2004, "Contemporary Changes of the Hydrological Cycle over the Contiguous United States: Trends Derived from In Situ Observations," J. Hydrometeor., 5, 64.85.

Milly, P.C.D., R.T. Wetherald, K.A. Dunne, and T.L.Delworth, Increasing risk of great floods in a changing climate", Nature 415, 514-517 (31 January 2002) | doi:10.1038/415514a.

Santer, B.D., C. Mears, F. J. Wentz, K. E. Taylor, P. J. Gleckler, T. M. L. Wigley, T. P. Barnett, J. S. Boyle, W. Brüggemann, N. P. Gillett, S. A. Klein, G. A. Meehl, T. Nozawa, D. W. Pierce, P. A. Stott, W. M. Washington, and M. F. Wehner, 2007, "Identification of human-induced changes in atmospheric moisture content", PNAS 2007 104: 15248-15253.

Trenberth, K.E., J. Fasullo, and L. Smith, 2005: "Trends and variability in column-integrated atmospheric water vapor", Climate Dynamics 24, 741-758.

Jeff Masters

http://www.wunderground.com/blog/JeffMaste...1731#commenttop

Partager ce message


Lien à poster
Partager sur d’autres sites

Un jour, il n'y a pas si longtemps, Phil Jones avait dit que le réchauffement n'était pas statistiquement significatif depuis 1995. Cela avait été la curée, les journaleux en manque de nouvelles sensationnelles s'étaient excités en interprétant cela comme une absence de réchauffement. J'avais même été faire un tour dehors pour me calmer en découvrant le truc sinon j'aurais fait un malheur <_< . M'enfin bref, Tamino a repris l'analyse de Phil Jones en virant l'influence des facteurs exogènes (les fameux facteurs qui font qu'on peut trouver une tendance au refroidissement en prenant les bonnes périodes de références. Absolument non significatif statistiquement parlent et à la limite de l'admissible en sciences, mais bon...).

Le résultat est que la tendance au réchauffement est significatif depuis 1995 et même depuis 2000. Bref, le refroidissement, ce n'est pas pour aujourd'hui :

Phil Jones was Wrong

Posted on January 21, 2011 by tamino| 29 Comments

There. I said it.

Wrong about what, you wonder? During an interview for the BBC he was asked, “Do you agree that from 1995 to the present there has been no statistically-significant global warming?” Jones replied, “Yes, but only just.”

Sorry, Phil, I disagree.

Jones based his statement on straightforward analysis of the data and reported his result honestly. The HadCRUT3v data set (which is from Jones’s institution) shows warming since 1995, but it’s not statistically significant. But then, climate trends over such short time spans (yes, for climate 15 years is a short time span) don’t usually pass statistical significance tests.

But by removing the influence of exogenous factors like el Nino, volcanic eruptions, and solar variation (or at least, approximations of their influence) we can reduce the noise level in temperature time series (and reduce the level of autocorrelation in the process). This enables us to estimate trend rates with greater precision. And when you do so, you find that yes, Virginia, the trend since 1995 is statistically significant. And that’s true for all 5 major data sets, including the HadCRUT3v data set from Phil Jones’s organization.

Let’s analyze the adjusted (exogenous-factor-compensated) data we got from our last analysis. We’ll first fit a trend line since 1975 to estimate the autocorrelation of the noise. Then we’ll estimate the warming rate (and its probable error) by linear regression on the data from various start years to the present, for all start years from 1975 to 2005.

Here’s the adjusted data based on the HadCRUT3v data set:

post-3513-1295720973_thumb.jpg

Here are the warming rates estimated from each starting year to the present:

crurate.jpg

Note that until 2001, the error bars (which are 2-sigma) don’t include the possible value zero. Therefore, until 2001 the warming is statistically significant (using the usual de facto standard in statistics).

Not only is the warming since 1995 statistically significant, the warming since 2000 is as well!

The same result emerges from the analysis of adjusted data from NASA GISS:

gissrate.jpg

Certainly, we shouldn’t fault Jones for not estimating the influence of exogenous factors when computing warming rates and their statistical significance. His analysis was straightforward and standard, and his statement was scientifically conservative (which is a common practice among scientists).

Just as certainly, we should fault those who claim that Jones’s “not statistically significant” statement means “not warming.” For most of those who do so, it’s not even an honest mistake.

http://tamino.wordpress.com/2011/01/21/phil-jones-was-wrong/

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites
Etonnant, en effet, cette baie d'Hudson orientale non-prise par la glace.

Reursnow.gif

Curieux de connaître la période de retour d'un tel phénomène en plein coeur de l'hiver.

Je n'ai pas encore lu (je sature un peu là avec les publi's scientifiques :lol: ), mais cela répondra sans doute de manière plus pertinente à votre question :

http://www.cgd.ucar.edu/oce/mholland/paper...eaiceArctic.pdf

Partager ce message


Lien à poster
Partager sur d’autres sites
Petite résumé intéressant des possibles causes des changements climatiques par Nicolas Scafetta.

"Nicola Scafetta graduated from the Universita’ di Pisa (Italy) in Physics in 1997 and from the

University of North Texas with a Ph. D. in physics in 2001. From 2002 to 2005 he was a

research associate and since 2005 a research scientist at the department of physics at Duke

University. His interest is in theoretical and applied statistics and nonlinear models of complex

processes including solar-climate physics and climate change. He has taught Astronomy at

Duke University, and several undergraduate and graduate physics courses at the University of

North Carolina in Greensboro, at the University of North Carolina in Chapel Hill and at Elon

University. He is currently associated and a co-investigator of the Active Cavity Radiometer

Irradiance Monitor (ACRIM). He has over 48 peer-review scientific publications of various

kinds. He is one of the contributing authors of “Climate Change Reconsidered: The Report of

the Nongovernmental International Panel on Climate Change (NIPCC)” editors S. Fred Singer

and Craig Idso, The Heartland Institute, 2009. He is the author with Bruce J. West of Disrupted

Networks: From Physics to Climate Change, World Scientific Publishing Company, 2010. He

has organized several scientific international conference sessions focusing on solar variation

and climate change for the American Geophysical Union."

Les théories du GIEC sont fortement mis à mal...

Intéressant de noter que déjà des séries de mesures ont du mal à être cohérentes alors les théories du GIEC

qui en découlent...

Je continue à le répéter , mesurer des températures est quelque chose de très très difficile à faire...

Malheureusement, tout élément subit, au cours du temps, des altérations qui ne peuvent être négligées.

Ce rapport met en lumière l'énorme incertitude qui plane sur le climat contrairement à la pensée du moment.

Evidemment, ce rapport est anglais mais est très instructif pour ceux qui veulent une autre vision du climat que celle du GIEC.

http://scienceandpublicpolicy.org/images/s...hange_cause.pdf

Tenez, skepticalscience.com vient de publier un graphique qui met en lumière ce que beaucoup de sceptiques semblent oublier lorsqu'ils critiquent les mesures de températures. Trois grandes méthodes différentes, 10 séries différentes, un même résultat :

post-3513-1296071158_thumb.jpg

La notion de température globale est pertinente, car à l'échelle de plusieurs mois/années, la température de l'air s'homogénéise sur de grands volumes. La température a beau être une grandeur intensive, elle représente malgré tout quelque chose, et peut être mesuré de manière ponctuels, ce que prouve la concordance entre réanalyse, température mesurée par satellite et température mesurée par des stations de surface.

Partager ce message


Lien à poster
Partager sur d’autres sites

Ah oui, c'est lui qui a fait ses études au Texas et qui travaille à la Duke University, une université 'de recherche' privée.

Partager ce message


Lien à poster
Partager sur d’autres sites

On essaye de sauver ce qu'il peut être de manière un peu pathétique ces derniers temps chez les sceptiques :

<h1 class="entry-title">Mid-January 2011 SST Anomaly Update</h1> Posted on January 27, 2011 by Anthony Watts anomnight.current.small.gif Full size image of above here

Guest post by Bob Tisdale

This mid-month update only includes the shorter-term NINO3.4 and global SST anomaly graphs; that is, the ones from January 2004 to present. Both the NINO3.4 and Global SST anomalies have dropped.

As noted in the November 2010 SST Anomaly Update, the global SST anomalies do not appear as though they will drop to the level they had reached during the 2007/08 La Niña, even if one were to account for the differences in NINO3.4 SST anomalies. This of course will be raised by alarmists as additional proof of anthropogenic global warming.

But the reason the global SST anomalies have warmed in that time is due primarily to the fact that the East Indian and West Pacific Oceans (about 25% of the surface area of the global oceans) can warm in response to both El Niño and La Niña events. Refer to Can El Niño Events Explain All of the Global Warming Since 1976? – Part 1 and Can El Niño Events Explain All of the Global Warming Since 1976? – Part 2, and the video included in La Niña Is Not The Opposite Of El Niño – The Videos.

Keep in mind, the warm water released from below the surface of the Pacific Warm Pool doesn’t simply vanish at the end of the El Niño.

#############

NINO3.4

NINO3.4 SST anomalies for the week centered on January 12, 2011 show that central equatorial Pacific SST anomalies have dropped in the past two weeks. They cycled back down to near their earlier low for this La Niña season. They’re at approximately -1.8 deg C.

zxp5l0.jpg http://i53.tinypic.com/zxp5l0.jpg

NINO3.4 SST Anomalies – Short-Term

GLOBAL

Weekly Global SST anomalies have dropped to a new seasonal low, but they are far from the low reached during the 2007/08 La Niña. They are presently at +0.04 deg C.

2choryb.jpg http://i51.tinypic.com/2choryb.jpg

Global SST Anomalies – Short-Term

SOURCE

OI.v2 SST anomaly data is available through the NOAA NOMADS system:

http://nomad3.ncep.noaa.gov/cgi-bin/pdisp_sst.sh?lite

Cependant, si l'auteur veut ici faire référence à l'Indian Oscillation Dipole (IOD) pour expliquer le réchauffement de l'océan Indien Est, c'est râpé puisque l'oscillation est en phase neutre comme en 2008 :

post-3513-1296195590_thumb.png

Et l'IOD n'a jamais été connu pour avoir une influence notable sur le climat mondial.

L'IOD est une oscillation qui est partiellement liée à l'EL Nino Southern Oscillation (c'est à dire El Nino/La Nina) est explique une part de la variabilité des températures de la surface de l'Océan Indien.

Et si l'auteur veut parler de la PDO pour expliquer le réchauffement de l'Océan Pacifique Ouest, il a oublié que la PDO est toute aussi négative actuellement qu'en 2008, et qu'une PDO négative n'a jamais été réputée pour aider le réchauffement de la planète (le pic négatif le plus à droite c'est aujourd'hui, le deuxième pic négatif le plus à droite c'est 2008) :

post-3513-1296196030_thumb.png

Et en dehors de la simple étude des SSTs, la surface des continents s'annonce bien chaude aussi. À part un petit degré de différence, il n'y a aucune différence avec le début de l'année 2008.

P.S. : Désolé, j'ai zappé la référence http://wattsupwiththat.com/2011/01/27/mid-...anomaly-update/

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Allez, j'avais autre chose à foutre de mon dimanche soir, mais à ce niveau d'inexactitudes, je me devais de réagir. Le pire, est c'est ce qui m'a réellement poussé à réagir, est que Bob Tisdale, via Watts Up With That, va touché un très large public qui se laissera sans doute convaincre, alors qu'un tel article mérite une attention digne de sa méthodologie : nulle. Je devrais peut-être ouvrir un blog, ce serait peut être un lieu plus approprié, mais j'aime bien me la ramené ici, même si j'ai parfois l'impression de causer dans le vent :D . Bref, passer ce moment de justification parfaitement inutile, voici un article publié par Bob Tisdale, un gars convaincu de l'origine naturelle du réchauffement, intitulé Can Most Of The Rise In The Satellite-Era Surface Temperatures Be Explained Without Anthropogenic Greenhouse Gases? :

http://bobtisdale.blogspot.com/2011/01/can...ellite-era.html

Je vous passe le copiez-coller de l'intégralité de l'article, il y en a un paquet. Je vous ferais quelques citations en passant mais n'allez pas croire que ce sont des citations hors-contexte. Vous pouvez toujours lire l'intégralité du paquet si vous n'êtes pas convaincu. Je vous passe aussi tous les tildes, mais c'est bien « El Nigno » qu'il faut lire et non « El Nino »...

Mon intention n'est pas de juger le gars. Il était peut être certain que ce qu'il faisait était exact, et j'ai moi même déjà d'énormes conneries en stat's sans m'en rendre compte (c'est d'ailleurs cela la joie des statistiques, avoir raison dans l'erreur :lol: ). Je voudrais surtout procéder à une inspection de la méthodo mise en place pour voir où ce situent les (nombreux) problèmes. J'y va par étapes, parce qu'il y a de quoi dire. Ceci n'est donc sans doute que le premier épisode de la saison (il n'y aura pas de saison 2 par contre :lol: )

On commence directement avec cette première phrase :

In this post, I divide the globe (60S-60N) into two subsets and remove the linear effects of ENSO and volcanic eruptions from GISS Land-Ocean Temperature Index data since 1982.

Déjà là cela commence à sentir mauvais.

Il a pris la série du GISS (la série de température de la NASA) pour le globe limité à 60S-60N. Pourquoi 60S-60N ? En fait, il voulait reconstruire les températures qu'aurait mesurées les satellites au début du 20ème siècle. En effet, la zone du globe couverte par les satellites n'inclut pas les pôles. En castrant la série GISS à 60S-60N, Tisdale isole ainsi le signal de température mesurée par les satellites. Déjà à ce niveau, cela pose question, puisqu'on a une perte nette d'informations.

Ensuite, il parle d'effet linéaire de l'ENSO et des éruptions volcaniques. C'est bien, sauf que, où est passé l'influence solaire ? Et là, c'est la première grosse erreur méthodologique. En effet, en terme de chiffre, l'influence du Soleil est de l'ordre de 0 à 0.08°C, influence équivalente ou un peu plus forte pour l'ENSO qui s'étend de 0 à 0.15°C. Ces deux chiffres sont donnés en termes absolus, c'est à dire que cela peut aussi bien être +0.08°C que moins -0.08°C pour l'influence solaire par exemple. Il néglige donc un facteur non négligeable dans son analyse.

C'est une règle de base, en sciences. Quand on navigue à vue, il est toujours important d'avoir un ordre de grandeur de chaque facteur en tête pour savoir ce qui peut être négligé et ce qui ne peut l'être.

Une autre succession d'erreurs méthodologiques invalident ensuite un article qui ne fait que commencer.

Il part de cette image (en rouge, la série de température du GISS limité à 60S-60N et en violet l'indice Nino 3.4 multiplié par 0.16 et descendu vers le bas de 0.01 et décalé vers la gauche de 3, dont la référence doit être ici : http://www.cpc.ncep.noaa.gov/products/anal...ensoyears.shtml )

deuxdzjpg.png

Et en faisant courbe rouge moins courbe violette, il obtient la courbe olive :

8vyd54jpg.png

Première erreur, il s'aligne sur l'événement El Nino 97/98. En clair, il s'est arrangé pour que le bras ascendant de la courbe violette colle parfaitement au bras ascendant de la courbe rouge, en réajustant la courbe violette. Ce n'est pas gênant en soi, du moins statistiquement parlant. Par contre, physiquement parlant, cela devient franchement douteux. Cela supposse que le réchauffement observé en 97/98 est uniquement imputable à l'événement El Nino. On oublie, et le Soleil, et la PDO, et les gaz à effet de serre, et tout le reste. Pour Tisdale, il n'ya qu'une raison au pic de 98, c'est l'El Nino. Franchement douteux donc.

De plus, il est prouvé que la magnitude de l'El Nino 98 a eu un impact différent des autres El Nino. Le réchauffement a été bien plus prononcé et bien plus durable à la suite de l'El Nino 98 qu'a la suite de tous les autres El Nino. En clair, on parle d'une réponse non linéaire. Revenons donc aux fondements mathématiques.

Une réponse linéaire, c'est quand la variable (ici la température du globe 60S-60N) varie proportionnellement à la cause (ici, l'ENSO mesuré par l'indice Nino 3.4). En général, on estime que la réponse linéaire est un coefficient de l'ordre de 0.07 à 0.085, c'est à dire que la température du globe augmente de 0.07 à 0.08 °C pour une unité de l'indice Nino 3.4. Évidemment, cela peut être aussi dans le négatif, par exemple pour une Nina unité qui culmine donc à un indice de -1, l'influence sera de -0.07 à -0.08°C pour la température du globe. De façon encore plus explicite, lors de l'El Nino 98, l'indice Nino 3.4 est monté à 1.8 sur 12 mois mobile, ce qui fait une influence de 0.13 à 0.14°C si on suppose la linéarité. Vu qu'on peut difficilement faire mieux qu'El Nino 98, ceci explique d'où sort la fourchette de 0 à 0.15°C donné précédemment. Je n'oublie évidement pas qu'en réalité la réaction El Nino 98 n'était pas linéaire, mais c'était pour planter un peu le décor. De plus, plutôt que faire une erreur statistique, tout le monde préfère s'abstenir de rechercher l'influence véritable de l'El Nino 98 et garde une influence positive de l'ENSO de 0.13 à 0.14°C en 98, même si cette valeur reste probablement en deçà de la valeur réelle. Les problèmes de réactions non linéaires d'un système aussi complexe que l'atmosphère terrestre sont lui d'être triviales.

Le fait est donc que s'aligner sur l'El Nino 98 est une grave erreur. Ainsi, Tisdale trouve un coefficient de l'ordre de 0.16 en procédant de la sorte, c'est à dire le double de la fourchette communément admise !!! C'est à dire que pour Tisdale, une variation de une unité de l'indice Nino 3.4 implique une variation de 0.16°C de la température de surface. Deux remarques cependant pour décharger un peu Tisdale. À ce que j'ai compris, il a fait un lisage sur 13 mois pour l'indice Nino 3.4, au lieu des 12 mois dont je parlais précédemment pour la fourchette 0.07 – 0.08. Cependant, cette différence est négligeable. L'autre point, de plus grande importance cette fois-ci, est que Tisdale s'est limité à un globe 60S-60N, hors cette portion a une réaction bien plus prononcé à un événement ENSO. En clair, la fourchette 0.07-0.08 ne peut être directement comparé au 0.16. Je n'ai pas de réel point de comparaison, car je n'ai jamais vu une étude « globale » sur un globe ainsi amputé, mais malgré tout la valeur probable du coefficient doit à peine être supérieur à la fourchette donnée. En se basant sur les séries satellites qui ont une couverture spatiale à peine plus étendu que le globe 60S-60N, cela doit plutôt être de l'ordre de 0.09 ou 0.1, cependant toujours bien loin des 0.16 que Tisdale trouve.

Pour la suite, il corrige également la série de température des effets des volcans, en gardant la même méthodo. Là encore, c'est une erreur. On ne peut estimer l'influence d'un signal sur un autre simplement en les posant côte à côte... Je ne va pas refaire le même laïus, mais la réaction aux volcans est au minimum linéaire, est implique donc une étude plus approfondie en prenant en compte chaque événement et non pas un événement ponctuel. En clair donc, il mais à l'échelle un indice des événements volcanique, en l'occurrence l'épaisseur optique des aérosols, en multipliant la série par 2.7 et en faisant la soustraction entre série des températures et série de l'épaisseur optique des aérosols multiplié par 2.7. Je n'ai pas eu le cœur de vérifier la pertinence de ce facteur, mais cela doit être du même acabit que le coefficient 0.16 pour la série Nino 3.4.

Bref, après ce jeu de massacre d'une série de données, il obtient la figure suivante :

zur19ijpg.png

Premier point, il reste une tendance linéaire non négligeable, c'est à 0.011° par an à peu près (il lisse sur 13 mois pour sa part), c'est à dire un peu plus d'un degré par siècle.

Au final, il en arrive à cette figure qui ne veut déjà plus rien dire, et pourtant avec laquelle il va poursuivre son travail :

m96slyjpg.png

Je continuerais à causer une autre fois de sa méthodo, puisque les choses vont maintenant devenir intéressante ; vu qu'il manipule par la suite des concepts tel qu'El Nino et La Nina....

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Je continuerais de disséquer le taf de Tisdale à l'occasion, quand j'aurais un peu plus de temps :whistling:

Pour l'instant, cette bref réponse pour dire que Janvier 2011 est loin d'avoir été aussi froid que Janvier 2008, Janvier 2011 se plaçant dans le top 20 (je n'ai pas cherché le rang exact, c'est au pif :lol: ) d'après le NCEP NCAR :

post-3513-1296677534_thumb.png

Plus impressionnant, le période Novembre 2010 - Janvier 2011 est aussi chaude que la période Novembre 1997 - Janvier 1998, toujours pour le NCEP NCAR alors que nous actuellement dans une forte Nina :

post-3513-1296677652_thumb.png

Mais évidemment, le réchauffement actuel est dû :

à l'ENSO

à la PDO

à l'activité solaire

à l'effet d'ilôt de chaleur urbain

autre

(rayer la mention intutile)

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Tiens, est le NSIDC vient d'annoncer qu'après Décembre, c'est autour du mois de Janvier d'établir de nouvelles références en terme d'absence de banquise :

February 2, 2011

Arctic Oscillation brings record low January extent, unusual mid-latitude weather

Arctic sea ice extent for January 2011 was the lowest in the satellite record for that month. The Arctic oscillation persisted in its strong negative phase for most of the month, keeping ice extent low.

20110202_Figure1_thumb.pngFigure 1. Arctic sea ice extent for January 2011 was 13.55 million square kilometers (5.23 million square miles). The magenta line shows the 1979 to 2000 median extent for that month. The black cross indicates the geographic North Pole. Sea Ice Index data. About the data.

—Credit: National Snow and Ice Data Center

High-resolution image

Overview of conditions

Arctic sea ice extent averaged over January 2011 was 13.55 million square kilometers (5.23 million square miles). This was the lowest January ice extent recorded since satellite records began in 1979. It was 50,000 square kilometers (19,300 square miles) below the record low of 13.60 million square kilometers (5.25 million square miles), set in 2006, and 1.27 million square kilometers (490,000 square miles) below the 1979 to 2000 average.

Ice extent in January 2011 remained unusually low in Hudson Bay, Hudson Strait (between southern Baffin Island and Labrador), and Davis Strait (between Baffin Island and Greenland). Normally, these areas freeze over by late November, but this year Hudson Bay did not completely freeze over until mid-January. The Labrador Sea remains largely ice-free.

20110202_Figure2_thumb.png Figure 2. The graph above shows daily Arctic sea ice extent as of January 31, 2011, along with daily ice extents for previous low-ice-extent years in the month of January. Light blue indicates 2010-2011, green shows 2005-2006 (the record low for the month was in 2006), and dark gray shows the 1979 to 2000 average. The gray area around the average line shows the two standard deviation range of the data. Sea Ice Index data.

—Credit: National Snow and Ice Data Center

High-resolution image Conditions in context

Air temperatures over much of the Arctic were 2 to 6 degrees Celsius (4 to 11 degrees Fahrenheit) above normal in January. Over the eastern Canadian Arctic Archipelago, Baffin Bay/Davis Strait and Labrador Sea, temperatures were at least 6 degrees Celsius (11 degrees Fahrenheit) higher than average. Temperatures were near average over the western Canadian Arctic Archipelago and Scandinavia.

As in December 2010, the warm temperatures in January came from two sources: unfrozen areas of the ocean continued to release heat to the atmosphere, and the wind patterns accompanying the negative phase of the Arctic oscillation brought warm air into the Arctic. Near the end of January the negative Arctic oscillation pattern broke down and turned positive, which usually favors ice growth. It is unclear how long it will remain in a positive mode.

20110202_Figure3_thumb.png Figure 3. Monthly January ice extent for 1979 to 2011 shows a decline of 3.3% per decade.

—Credit: National Snow and Ice Data Center

High-resolution image January 2011 compared to past years January 2011 had the lowest ice extent for the month since the beginning of satellite records. The linear rate of decline for the month is –3.3% per decade.

Ice extent for the Arctic as a whole increased at an average of 42,800 square kilometers (16,500 square miles) per day through the month of January, which is about average.

20110202_Figure4_thumb.png Figure 4. This graph shows the ice extent in Hudson Bay from late November to the end of January, for the last five years. This year, Hudson Bay froze up substantially later than in previous years. MASIE data.

—Credit: NSIDC /NIC MASIE Product

High-resolution image Slow regional ice growth

In contrast, regional ice growth has been particularly slow compared to past years. Hudson Bay did not completely freeze up until mid-January, about a month later than normal according to Canadian Ice Service analyses. The Labrador Sea region is still largely free of ice, except in protected bays along the coast. Normally at this time of year, ice extends several hundred kilometers from the coast all the way to northern Nova Scotia.

20110202_Figure5_thumb.png Figure 5. These images show high and low atmospheric pressure patterns for January 2011 (left) and the January 1968-1996 average (right). Yellows and reds show higher pressures; blues and purples indicate lower pressures, as indicated by the height of the 850 millibar pressure level above the surface, called the pressure surface. Normally, the pressure surface is nearer to the surface around the pole, winds follow the pressure contours around the pole (the polar vortex), and cold air is trapped in the Arctic. This year, the pressure pattern is allowing cold air to spill out of the Arctic into the mid-latitudes.

—Credit: NSIDC courtesy NOAA/ESRL PSD High-resolution image

Potential links with mid-latitude weather

While the Arctic has been warm, cold and stormy weather has affected much of the Northeast U.S. and Europe. Last winter also paired an anomalously warm Arctic with cold and snowy weather for the eastern U.S. and northern Europe. Is there a connection?

Warm conditions in the Arctic and cold conditions in northern Europe and the U.S. are linked to the strong negative mode of the Arctic oscillation. Cold air is denser than warmer air, so it sits closer to the surface. Around the North Pole, this dense cold air causes a circular wind pattern called the polar vortex , which helps keep cold air trapped near the poles. When sea ice has not formed during autumn and winter, heat from the ocean escapes and warms the atmosphere. This may weaken the polar vortex and allow air to spill out of the Arctic and into mid-latitude regions in some years, bringing potentially cold winter weather to lower latitudes.

Some scientists have speculated that more frequent episodes of a negative Arctic Oscillation, and the stormy winters that result, are linked to the loss of sea ice in the Arctic. Dr. James Overland of NOAA Pacific Marine Environmental Laboratory (PMEL) recently noted a link between low sea ice and a weak polar vortex in 2005, 2008, and the past two winters, all years with very low September sea ice extent. Earlier work by Jennifer Francis of Rutgers University and colleagues also suggested a relationship between autumn sea ice levels and mid-latitude winter conditions. Judah Cohen, at Atmospheric and Environmental Research, Inc., and his colleagues propose another idea—a potential relationship between early snowfall in northern Siberia, a negative phase of the Arctic Oscillation, and more extreme winters elsewhere in the Northern Hemisphere. More research on these ideas may shed light on the connections and have the potential to improve seasonal weather forecasting.

Further reading

Francis, J.A., Chan, W-H., Leathers, D.J., Miller, J.R., Veron, D.E., 2009. Winter Northern Hemisphere weather patterns remember summer. Geophys. Res. Lett. 36, L07503, doi:10.1029/2009GL037274.

Overland, J.E., Wang, M-Y., 2010. Large-scale atmospheric circulation changes are associated with the recent loss of Arctic sea ice. Tellus 62A, 1-9.

Cohen, J., J. Foster, M. Barlow, K. Saito, and J. Jones, 2010. Winter 2009-2010: A case study of an extreme Arctic Oscillation event. Geophys. Res. Lett., 37, L17707, doi:10.1029/2010GL044256.

http://nsidc.org/arcticseaicenews/index.html

Et pour l'Hémisphère Sud ce n'est pas tellement mieux ces derniers temps, si ce n'est qu'on se maintient au dessus de la moyenne moins deux écarts-type :

ssstddevtimeseries.png

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Promis, après je vais me pieuter :whistling:

Mais pour dire aussi que si l'on prend une définition plus restrictive de la banquise (90% de glace au minimum) et une définition un peu plus large de la baie d'Hudson (incluant le détroit d'Hudson), l'englacement total n'est toujours pas fait, alors que la fonte commence d'ici un mois et demi, un mois au pire.... :

post-3513-1296685560_thumb.jpg

On a quand même réussi à étendre la couverte de glace jeune, c'est pas la panacée mais c'est toujours mieux que la glace grise d'il y a 15 jours : http://ice-glaces.ec.gc.ca/prods/WIS54SD/2..._0005559616.gif

Partager ce message


Lien à poster
Partager sur d’autres sites

Si certains veulent mieux comprendre les ressorts de la pensée "sceptique"... On rencontre souvent en tout premier lieu, en se promenant sur des sites sceptiques, une note donant ces types d'arguments : ici on est sceptique, c'est-à-dire pas de parti pris, on examine les faits d'un point de vue neutre, ....

Et il n'y a pas besoin ensuite de faire fumer le scroll de la souris pour trouver immédiatement de violentes charges contre les théories du réchauffement climatique, parfois très faiblement étayées par des faits. Bref, dans le genre Sainte-Nitouche ces sites marquent des points :whistling:

Un récent exemple montre combien la pensée des sceptiques est uniquement tournée vers un seul but, démonter la théorie du réchauffement climatique, peu importe les moyens.

Je vais faire un résumé rapide du truc en français, et je collerais derrière les liens vers les scènes du débat.

Début Janvier, un groupe écologique Australien, le Universal Ecological Fund (FEU), a publié un papier annonçant une hausse des températures de 1.5°C d'ici 10 ans, en 2020, soit des anomalies de l'ordre de 2°4C par rapport aux temps pré industrielle. Ce serait franchement alarmant, et un tel papier pourrait donner des arguments supplémentaires aux "alarmistes". En réalité, cette hausse de température est une valeur qui n'est pas tombé du ciel, mais n'est pas tout à fait exact. Elle correspond en fait à la température d'équilibre avec la quantité de gaz à effet de serre supposé être dans l'atmosphère en 2020. Cette température d'équilibre ne sera pas atteint en 2020, mais bien plus tard, le temps que la Terre se réchauffez complétement. L'inertie thermique des océans fait que cette température sera atteinte en réalité plusieurs siècles après 2020 (je n'ai pas les chiffres exacts du temps de retour à l'équilibre, désolé). De plus, vu que les émissions de gaz à effet de serre ne risque pas de s'arrêter brutalement en 2020, on ne risque pas de s'arrêter à 2°4C.... En side note (parait que la traduction en français est "apostille", jamais entendu, lu ou vu :huh: Je connais mieux l'anglais que le français, c'est affolant :lol: ), les températures prévus par le GIEC sont celle en 2100, pas les températures à l'équilibre. En gros, sauf peut être pour le scénario le moins "émissif", le B1 (c'est mal barré pour rester dans ce scénar'...), les températures continueront de monter sensiblement après 2100.

Début Janvier, un scientifique "sceptique", Dr Richard Lindzen, fait le même type d'erreur, mais en partant d'aujourd'hui. En gros, il suppose que les températures actuelles sont les températures de l'équilibre pour la concentration de gaz à effet de serre actuelle. En tenant en compte la totalité des gaz à effet de serre, il trouve qu'on s'est pris "seulement" 0.8°C de hausse alors qu'on est proche d'un doublement du taux équivalent de CO2 (le CO2 en lui même est passé de 280 ppmv à 390 ppmv, ce n'est pas un doublement, mais en prenant en compte aussi le CH4, les NOx, les trucs, les machins, les bidules, et autre,... convertit en équivalent CO2, cela donne un taux équivalent de CO2, on n'en est pas loin). Donc, Lindzen dit qu'un doublement de CO2, c'est 1° en plus environ, pas de panique,...

Les deux erreurs sont du même type (supposition d'un équilibre thermique instantanée, mais interprétation très différente pour chacun). Par contre, les réactions de la blogosphère sont radicalement opposé.

La blogosphère “alarmiste” s'abstient de prendre le papier de la FEU pour une vérité absolue, et critique immédiatement le papier en mettant en lumière les erreurs.

La blogosphère "sceptique" au contraire reproduit intégralement le papier de Lindzen, sans se poser de questions, et on assiste à une nouvelle charge contre les théories du réchauffement climatique.

Le plus intéressant reste à venir, puisque suite à cet épisode étudié par Skpetical Science, The Guardian publie aussi cette étude de cas. Confrontés à leurs propres contradictions, les soi disant sceptiques refusent une quelconque remise en cause.

Les commentaires qui s'en suivent se partagent donc entre attaques ad hominen, défense de Lindzen, discussion entre participants, changement de sujet pour essayer de noyer le poisson. On est plus proche de l'ambiance "Gunfight at the O.K. Coral" que d'un débat scientifique serein ou d'une "vrai" position sceptique scientifique.

Il y a donc des chances pour que je sois moi même bien plus sceptique que bien des "sceptiques" :P

En tout état de cause, le glissement sémantique est évident. Maintenant, être sceptique ce n'est plus avoir un point de vue neutre et factuel. De plus, cette dénomination est imposée par un groupe qui s'auto proclame sceptique, et biaise partiellement le débat en forçant ainsi une division manichéenne entre "alarmiste" et "sceptique", histoire de se faire passer pour les gentils si on a parfois des doutes...

Les liens en causes :

Le papier de la FEU

http://www.hoffmanpr.com/world/ClimateChan...20by%202020.pdf

Le papier de Lindzen

http://thegwpf.org/opinion-pros-a-cons/222...ate-action.html

Les réactions de la blogosphère remettant en cause les théories du réchauffement climatiques anthropogénique :

http://wattsupwiththat.com/2011/01/17/rich...climate-action/

Les réactions de la blogosphère soutenant les théories du réchauffement climatiques anthropogénique :

http://www.realclimate.org/index.php/archi...g-things-right/

L'étude de cas de Skeptical Science :

http://skepticalscience.com/a-case-study-i...-integrity.html (1er partie)

http://www.skepticalscience.com/follow-up-...skepticism.html (2è partie)

http://www.skepticalscience.com/a-case-stu...st-skeptic.html (3è partie)

L'article de The Guardian :

http://www.guardian.co.uk/environment/2011...art-of-comments

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Le refroidissement tant espéré reste quelque peu faiblard :whistling:

D'après la NASA ou l'UAH, on tourne autour de 0°C d'anomalie, mais par rapport à la référence 1981/2010 (respectivement 0.07°C et -0.09°C).

post-3513-1297458841_thumb.png

C'est à dire que même dans un contexte de réchauffement climatique (la moyenne 81/10 est quand même bien chaude...), Janvier n'est pas froid, juste "normal". Sinon, rien de très recherché, mais j'ai mis en parallèle l'évolution des températures de Janvier 2007 à Janvier 2008 et de Janvier 2010 à Janvier 2011. Les abscisses représentent les mois (1 : Janvier, 2 : Février, .... ). De plus, j'ai calculé la variation mensuelle de l'anomalie (Février 2007 - Janvier 2007 puis Mars 2007 - Février 2007, ... pour 2007/08 et 2010/11). Bon, j'ai un peu galéré avec mes couleurs, avec mes échelles, mais le résultat est un peu près potable je pense, et montre en tout cas que les températures sont largement supérieur en ce moment qu'il n'y a seulement trois, et que l'intensité du refroidissement est nettement plus faible en ce moment qu'il n'y a trois ans :

post-3513-1297458822_thumb.png

Certes, il y a l'activité solaire qui a vaguement réussi à décoller ces derniers temps, et l'enchaînement El Nino / La Nina est un peu différent cette année qu'en 2007/08, mais cela montre quand même que les "événements froids" sont de moins en moins froid (c'était déjà partiellement vrai en comparant 2007/08 à 98/01). Mais tant qu'on tracera des régressions linéaires entre un maximum et un minimum, on obtiendra des pentes négatives....

Pour Février, il est encore un peu tôt, mais cela risque de poursuivre la tendance de Janvier à un refroidissement en demi teinte. En plus, le NCEP NCAR a un petit problème de données :w00t::snow: (n'oubliez pas de regarder l'échelle :lol: )

post-3513-1297459242_thumb.png

post-3513-1297459110_thumb.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Je l'avais raté celle-ci. Maintenant, on va pouvoir commencé à compter le nombre de jours où la température a été positive à 850 hPa au Pôle Nord durant l'Hiver <_<

post-3513-1297460378_thumb.png

post-3513-1297460395_thumb.png

Heureusement que le climat se refroidi ...

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Les républicains viennent de présenter à la chambre des représentant une proposition de coupes budgétaires. On pourrait causer de toutes ces coupes budgétaires, qui s'approche plus d'un massacre à la tronçonneuse que d'autre chose, mais pour rester dans le sujet, il est proposé au milieu de ce joyeux massacre de diminuer le budget de l'EPA de 3 milliards de dollars, soit environ 30% du budget, de lui interdire de réguler les émissions de polluants et autre gaz à effet de serre, et de réduire son budget pour des programmes sur le changement climatique....

Ce serait quasiment la mise à mort de l'EPA pour un des pays qui émet le plus de polluants et gaz à effet de serre si cela passe. Jamais une science n'avait eu à tant souffrir de considérations politiques.

E.P.A. and Public Broadcasting Are on House Republicans’ List for Deep Cuts

By CARL HULSE and DAVID M. HERSZENHORN

Published: February 11, 2011

WASHINGTON — House Republicans on Friday rolled out what they called historic cuts in federal spending after conservatives in the party’s new majority demanded that the leadership follow through on a pledge to carve $100 billion from the current year’s budget.

Enlarge This Image

Ed Reinke/Associated Press

The spending bill, put forward by the Appropriations Committee for consideration on the floor next week, proposes slashing a wide portfolio of domestic programs and foreign aid. It blocks the spending of about $2 billion in unused economic stimulus money and seeks to prevent the Internal Revenue Service from enforcing the new health care law. The measure also cuts financing directly from the office of the president.

Republicans take aim at some of their favorite targets in the measure, reducing financing to the Environmental Protection Agency by $3 billion — an almost 30 percent cut from current levels. The measure would also block the agency from implementing new emissions regulations, and it would cut more than $100 million in spending on climate change programs.

Housing, energy and transportation spending is also trimmed substantially. Dozens of programs, including the Corporation for Public Broadcasting, are eliminated.

“These were hard decisions, and I know many people will not be happy with everything we’ve proposed in this package,” Representative Hal Rogers, the Kentucky Republican who is chairman of the Appropriations Committee, said in a statement Friday night. “That’s understandable and not unexpected, but I believe these reductions are necessary to show that we are serious about returning our nation to a sustainable financial path.”

The bill, which allocates spending through the end of the fiscal year on Sept. 30, will run into stiff opposition from Senate Democrats, who warned that Republicans were on a dangerous path to a potential shutdown of the federal government. The Democrats are urging a more measured approach, along the lines of a five-year freeze at 2010 levels for many programs advocated by President Obama in his State of the Union address.

“The priorities identified in this proposal for some of the largest cuts — environmental protection, health care, energy, science and law enforcement — are essential to the current and future well-being of our economy and communities across the country,” said Senator Daniel K. Inouye, Democrat of Hawaii and chairman of the Senate Appropriations Committee. “Such an approach would knock the legs out from under our nascent economic recovery, kill jobs and do virtually nothing to address the long-term fiscal crisis facing our country.”

Were the Republican cuts to be enacted in full, they would reverberate throughout the operations of federal agencies, and represent one of the largest efforts to reverse the outflow of federal dollars in modern times.

“It is not going to be pretty,” said Representative Mike Simpson, Republican of Idaho and the chairman of an appropriations subcommittee that finances the Interior Department and other agencies. He said his committee had tried to be selective in reaching its goal.

“Obviously we don’t want to close the national parks and some other things,” he said. “There are areas where we can find reductions, which we’ve done. Are all of those acceptable to everybody? I don’t know.”

Democrats warned that Republicans were proposing unacceptable reductions with time running short before a March 4 deadline when the stopgap measure now financing the federal government runs out. Democrats said a stalemate would lead to a government shutdown like the one in 1995 that followed a face-off between Congressional Republicans and the Clinton administration.

“We know cutting is necessary; the question is what are we going to cut,” the Senate majority leader, Harry Reid of Nevada, told reporters on a conference call. “We cannot use a meat ax, and that’s what they are doing.”

Mr. Reid declined to specify an amount that Democrats would be willing to slice from federal spending this year, but he also chastised Republicans for struggling to agree on such a number among themselves.

Senator Charles E. Schumer of New York, the No. 3 Democrat, said Republicans had boxed themselves in by specifying a target for cuts without first identifying how to carry out the reductions. “The trouble they’re having is that they seem to have a number in their head but not where the cuts come from,” Mr. Schumer said. “And so when they try to implement their number, it doesn’t work.”

House leaders had initially proposed a smaller level of reductions in domestic spending and foreign aid amounting to about $32 billion through Sept. 30. Republicans said those cuts, prorated for the balance of the fiscal year, would have fulfilled their campaign pledge to cut $100 billion from Mr. Obama’s budget request, which was never enacted.

But Republicans who campaigned on the $100 billion figure balked, forcing the Appropriations Committee back to the drawing board. The new cuts will total about $60 billion, and the plan appeared to be winning support from the conservative rank and file.

“House Republicans will keep our word to the American people,” said Representative Mike Pence, Republican of Indiana.

The Republicans had given themselves an extraordinarily difficult task by promising ahead of the November elections to exclude military and domestic security spending from their reductions. Roughly two-thirds of federal spending is for Social Security, Medicare and interest on the debt, and therefore outside the control of lawmakers looking to exact immediate cuts. Pentagon and security spending further narrowed the portion of the federal budget headed for the chopping block.

http://www.nytimes.com/2011/02/12/us/polit...rss&emc=rss

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

L'Amazonie a connue une sécheresse extrême en 2010, 5 ans seulement après la sécheresse déjà exceptionnel de 2005. Alors que 1997 n'avait pas non plus été triste point de vue sécheresse et mortalité des arbres, la succession de 3 événement aussi extrême en 15 ans, censé se produire une fois tous les 100 ans environ, montre que l'Amazonie commence à souffrir du réchauffement climatique. Plus inquiétant, l'Amazonie pourrait rapidement devenir une source de carbone. La très forte surmortalité des arbres en 2005 et 2010 a dégagé des tonnes de CO2. Alors qu'habituellement l'Amazonie absorbe 1,5 milliard de tonnes de CO2 par an, compensant la déforestation, les feux de forêts et servant de tampon (buffer en anglais) au changement climatique, la sécheresse de 2010 pourrait relâcher 5 milliards de tonnes de CO2, c'est à dire émettre quasiment autant de CO2 que les USA en 2009 par l'utilisation des énergies fossiles... On s'approche donc rapidement du risque de voir l'Amazonie devenir une source de carbone, amplifiant alors fortement le réchauffement climatique. Et cela rappelle certaines canicules européennes récentes (2003 et 2010...) où la forêt était là aussi devenue une source de carbone.

De plus, il existe une "bataille" pour savoir la sensibilité du climat à un doublement de la quantité de CO2 (passage de 280 ppm en 1800 à 560 d'ici pas longtemps). Les empoignades ont surtout lieu sur le sujet des rétroactions, puisque la sensibilité du climat au seul doublement du CO2 est faible. Certains préfèrent supposer que le climat connait des fortes rétroactions négatives, et donc que la sensibilité est faible. D'autre (comme les scientifiques du GIEC... ) supposent que les rétroactions seront surtout positives, et donne une estimation élevée de la sensibilité (environ 3° +/- 1°). Malheureusement, les observations actuelles tant au niveau de l'Arctique que de l'Amazonie (même si ici il s'agit de rétroaction sur le cycle du carbone plutôt que sur les températures) ou des nuages montrent qu'on est plutôt parti pour des rétroactions positives....

Science: Second ‘100-year’ Amazon drought in 5 years caused huge CO2 emissions. If this pattern continues, the forest would become a warming source.

Lead author Simon Lewis: "Current emissions pathways risk playing Russian roulette with the world's largest rainforest."

February 8, 2011

New research shows that the 2010 Amazon drought may have been even more devastating to the region’s rainforests than the unusual 2005 drought, which was previously billed as a one-in-100 year event.

Analyses of rainfall across 5.3 million square kilometres of Amazonia during the 2010 dry season, published in Science, shows that the drought was more widespread and severe than in 2005.

The UK-Brazilian team also calculate that the carbon impact of the 2010 drought may eventually exceed the 5 billion tonnes of CO2 released following the 2005 event, as severe droughts kill rainforest trees. For context, the United States emitted 5.4 billion tonnes of CO2 from fossil fuel use in 2009.

The authors suggest that if extreme droughts like these become more frequent, the days of the Amazon rainforest acting as a natural buffer to man-made carbon emissions may be numbered.

Lead author Dr Simon Lewis, from the University of Leeds, said: “Having two events of this magnitude in such close succession is extremely unusual, but is unfortunately consistent with those climate models that project a grim future for Amazonia.”

That’s from the University of Leeds’ news release, “Two severe Amazon droughts in five years alarms scientists.” The Science article itself is “The 2010 Amazon Drought” (subs. req’d).

Here’s a figure from the paper comparing the two droughts [click to enlarge]:

f1large.jpg

(A and B) Satellite-derived standardized anomalies for dry-season rainfall for the two most extensive droughts of the 21st century in Amazonia. (C and D) The difference in the 12-month (October to September) MCWD [maximum climatological water deficit] from the decadal mean (excluding 2005 and 2010), a measure of drought intensity that correlates with tree mortality. (A) and © show the 2005 drought; (B) and (D) show the 2010 drought.

Here’s more from the release:

The Amazon rainforest covers an area approximately 25 times the size of the UK. University of Leeds scientists have previously shown that in a normal year intact forests absorb approximately 1.5 billion tonnes of CO2.1 This counter-balances the emissions from deforestation, logging and fire across the Amazon and has helped slow down climate change in recent decades.

In 2005, the region was struck by a rare drought which killed trees within the rainforest. On the ground monitoring showed that these forests stopped absorbing CO2 from the atmosphere, and as the dead trees rotted they released CO2 to the atmosphere.

The unusual drought, affecting south-western Amazonia, was described by scientists at the time as a ‘one-in-100-year event’, but just five years later the region was struck by a similar extreme drought that caused the Rio Negro tributary of the Amazon river to fall to its lowest level on record….

The new research, co-led by Dr Lewis and Brazilian scientist Dr Paulo Brando, used the known relationship between drought intensity in 2005 and tree deaths to estimate the impact of the 2010 drought.

They predict that Amazon forests will not absorb their usual 1.5 billion tonnes of CO2 from the atmosphere in both 2010 and 2011, and that a further 5 billion tonnes of CO2 will be released to the atmosphere over the coming years once the trees that are killed by the new drought rot….

“Our results should be seen as an initial estimate. The emissions estimates do not include those from forest fires, which spread over extensive areas of the Amazon during hot and dry years. These fires release large amounts of carbon to the atmosphere.”

Some global climate models suggest that Amazon droughts like these will become more frequent in future as a result of greenhouse gas emissions.

Dr Lewis added: “Two unusual and extreme droughts occurring within a decade may largely offset the carbon absorbed by intact Amazon forests during that time. If events like this happen more often, the Amazon rainforest would reach a point where it shifts from being a valuable carbon sink slowing climate change, to a major source of greenhouse gasses that could speed it up.

“Considerable uncertainty remains surrounding the impacts of climate change on the Amazon. This new research adds to a body of evidence suggesting that severe droughts will become more frequent leading to important consequences for Amazonian forests.

“If greenhouse gas emissions contribute to Amazon droughts that in turn cause forests to release carbon, this feedback loop would be extremely concerning. Put more starkly, current emissions pathways risk playing Russian roulette with the world’s largest rainforest.”

The study itself concludes starkly:

The two recent Amazon droughts demonstrate a mechanism by which remaining intact tropical forests of South America can shift from buffering the increase in atmospheric carbon dioxide to accelerating it. Indeed, two major droughts in a decade may largely offset the net gains of ~0.4 Pg C year−1 in intact Amazon forest aboveground biomass in nondrought years. Thus, repeated droughts may have important decadal-scale impacts on the global carbon cycle.

Droughts co-occur with peaks of fire activity. Such interactions among climatic changes, human actions, and forest responses represent potential positive feedbacks that could lead to widespread Amazon forest degradation or loss. The significance of these processes will depend on the growth response of tropical trees to increases in atmospheric carbon dioxide concentration, fire management, and deforestation trends. Nevertheless, any shift to drier conditions would favor drought-adapted species, and drier forests store less carbon. If drought events continue, the era of intact Amazon forests buffering the increase in atmospheric carbon dioxide may have passed.

The scientific literature has warned for years that the Amazon that could effectively become a positive (amplifying) feedback under conditions of unrestricted greenhouse gas emissions. Let’s hope it’s not coming even faster than predicted.

For more, see Nick Sundt at the WWF Climate Blog, and MSNBC and the Guardian and BBC.

P.S. J'ajouterais d'ailleurs que cette histoire de forêt amazonienne n'est pas étrangère sans doute à la forte variation de la quantité de CO2 atmosphérique cette année (+2,76 ppm entre 2009 et 2010, pratiquement aussi importante que la pointe à +2.9 ppm entre 97 et 98)

post-3513-1297602760_thumb.jpg

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Février reste dans la continuité d'une année fraîche mais sans plus. Le refroidissement est présent, mais loin d'être marqué.

post-3513-1299330789_thumb.png

La banquise Arctique reste à des niveaux exceptionnellement bas. On a manqué le record de très peu, puisque l'extent de la banquise en 2005, année du record, et 2010, sont statistiquement les mêmes à 14.36 millions de km². Le NSCIDC n'entretient ses séries que depuis 1979, donc cela est à proprement parlé un record sur 30 ans, mais les différentes études paléoclimato montrent que la banquise a actuellement la plus faible extension depuis l'Holocène, il y a 8000 ans environ...

post-3513-1299331258_thumb.png

La NASA vient aussi de subir un revers, leur satellite Glory qui était censé étudier avec encore plus de finesse le budget énergétique de la Terre, ne s'est pas en orbite :

Steve Cole

Headquarters, Washington

202-358-0918

stephen.e.cole@nasa.gov

March 04, 2011

RELEASE : 11-050

NASA's Glory Satellite Fails To Reach Orbit

WASHINGTON -- NASA's Glory mission launched from Vandenberg Air Force Base in California Friday at 5:09:45 a.m. EST failed to reach orbit.

Telemetry indicated the fairing, the protective shell atop the Taurus XL rocket, did not separate as expected about three minutes after launch.

A press briefing to discuss the Glory launch failure is planned at Vandenberg for approximately 8:00 a.m. EST. NASA Television will carry the press conference live at:

http://www.nasa.gov/ntv

The new Earth-observing satellite was intended to improve our understanding of how the sun and tiny atmospheric particles called aerosols affect Earth's climate.

Partager ce message


Lien à poster
Partager sur d’autres sites

http://wattsupwiththat.com/ vient d'être proclamé blog scientifique de l'année : http://2011.bloggi.es/

Je suis dégoûté. Ce n'est pas une réaction épidermique du type, ce sont des sceptiques, ce sont les méchants très très méchants, il faut faire un auto da fé. Mais maintenant, n'importe qui peut écrire n'importe quoi et recevoir l'insigne honneur d'être le blog de l'année. WUWT n'est pas un blog scientifique, juste une collection d'opinions très centré USA sur le sujet de l'environnement essentiellement, et appuyé de manière plus ou moins rigoureuse par quelques faits soigneusement choisi. Sans non plus aller jusqu'à réclamer une méritocratie, on est dans une société du diktat de l'opinion où l'information est complétement tuée par les médias et l'opinion publique.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant

×