Aller au contenu
Les Forums de MeteoBelgique
paix

Les stats

Messages recommandés

Bon je vais vous balancer deux trois morceaux sur les stats histoire de savoir où l'on va un peu des fois, parce que quand on voit les énormités qui sont parfois sortis...

Je vous passe ce PDF à lire en priorité :

www.info.univ-angers.fr/~gh/tuteurs/statistiques_pour_statophobes.pdf

et je reviendrais plus tard pour développer (c'était surtout pour commencer le sujet en fait ce message :lol: )

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Il a l'air bien ce pdf, c'est mon imprimante qui va morfler parce qu’il est quand même assez long :lol:

Partager ce message


Lien à poster
Partager sur d’autres sites

Assez rapidement. Donc on a la moyenne (cf. le PDF) est un paramètre de position (il fait 10°C de moyenne à Nancy, 25°C à Miami, il fait plus chaud à Miami). L'écart type est un paramètre de dispersion (il fait 10°C à Nancy, 10°C à Dublin, mais l'écart type est de 6.4°C et 3.9°C respectivement). On peut exprimer l'écart à la moyenne en sigma. Un mois à 24°C à Nancy cela rentre dans le cycle saisonnier (+2.1 sigma) alors que cela ne rentre pas dans le cycle saisonnier pour Dublin (+3.5 sigma). Rentre et rentre pas sont ici définis par l'écart en sigma. Si les températures suivent une loi normale (en l'occurrence, ce n'est pas exacte mais en première approximation on va dire que si), 68% des valeurs sont entre -1 et +1 sigma, 95% entre +2 et -2 sigmas, et 99% entre -3 et +3 sigma. Il existent d'autres loi de distributions comme la loi de khi deux, la loi gamma, loi GEV, la loi de Student... mais bon en général quand même quand on est au delà des 3 sigmas faut se poser des questions. Les lois de distributions permettent de quantifier la probabilité qu'une variable prenne une valeur spécifique. C'est comme cela qu'on se fait des tests statistiques. On construit des variables, on les fait coller à des distributions de références (voir la littérature), et on détermine quelles valeurs elle peut prendre. C'est là qu'on sort des statistiques et qu'on rentre dans des notions de logique basico basique. Ce qu'on cherche à tester c'est une hypothèse H0. L'hypothèse H0, c'est genre ma variable aléatoire est positive, ou bien le suspect n'a pas étranglé sa concubine après l'avoir poignardé à 56 reprises, ou bien... L'erreur de première espèce consiste à rejeter l'hypothèse nulle à tort. J'affirme que ma variable est bien négative, alors qu'elle ne l'est pas ; j'affirme que le suspect est innocent alors qu'il ne l'est pas,... L'erreur de deuxième espèce consiste à accepter l'hypothèse nulle à tort.

En toute logique, si on cherche à diminuer le risque de première espèce alpha, on augmente le risque de deuxième espèce beta. Cela ne sert donc à rien de vouloir prendre des seuils à 5% ou moins et forcer comme un bourrin. On suppose le suspect innocent jusqu'à preuve du contraire. Si on veut minimiser le risque d'envoyer un prison en tôle, on va chercher à diminuer le risque alpha. On va donc essaye de trouve le maximum de preuves pour éviter l'erreur judicaire. Pour autant on ne peut pas être excessivement exigeant, sinon on risque de laisser un psychopathe en puissance être relâché. Donc un risque alpha ne se choisit pas au petit bonheur la chance.

D'autre part, il faut savoir formuler son hypothèse H0. Par exemple, posons H0 : cette canicule est dû à la variabilité naturelle. Cette hypothèse n'a aucun sens, le climat est maintenant si massivement forcé que l mythique "variabilité naturelle", cette espèce d'invocation divine comme le disait un gars de Sks, n'existe plus vraiment en tant que telle. L'importance de la formulation de l'hypothèse H0 définit l'erreur du troisième type. Mauvaise formulation du problème, donc une conclusion des plus foireuses malgré une démonstration impeccable.

Partager ce message


Lien à poster
Partager sur d’autres sites

Ouaip, c'est ce qui est résumé à peu près dans le pdf ^^

Pour l'écart-type (sigma) à ce que j'ai capté c'est égal à la racine carrée des [somme (xi - m)² / (n-1)]

Donc le calcul, si j'ai bien capté le truc, pour une variable aléatoire X est :

racine carré [ E((X-E(X))² ] =

racine carré [ E(X)² - E(X²) ] =

racine carré [ Variance(X) ]

D'ailleurs cette écart en sigma on le retrouve dans les graphiques du volume de la banquise par exemple :

BPIOMASIceVolumeAnomalyCurrentV2_CY.png

Les dernières années on remarque bien qu'on est dans du 2/3 d'écart sigma. Y'a pas photo que l'état de la banquise est à ces moments là loin de son état " normal" :lol:

Modifié par passiion

Partager ce message


Lien à poster
Partager sur d’autres sites

En stat's faut saisir la notion de sommes des carrés des écarts en fait. Si on a deux données, -2 et 2, la moyenne est nulle et l'écart moyen : -2 + 2 = 0 est nul. Cela ne marche pas... Il faut donc calculer la somme des carrés des écarts, et éventuellement prendre la racine. Ici, cela ferait -2² + 2² = 8, donc la racine est 2*sqrt(2), ce qui doit faire 2.8 ou quelque chose comme cela. Ainsi donc, la variance est défini comme la somme des carrés des écarts à la moyenne divisé par le nombre de donnés (8/2 soit 2 dans le cas précédent) et l'écart type comme la racine du bazar soit sqrt(8) / 2 = sqrt(4/2) = 1.4. L'avantage de l'écart type, c'est qu'il se chiffre dans la même unité que les données. Un mois à 8° de moyenne et avec un écart type de 2°C par exemple, c'est assez intuitif à conceptualiser, cela veut dire que la majorité des obs's sont tassés entre 4°C et 12°C. Si on parle d'un mois à 8°C de moyenne et 4°C² de variance -> ????

Cette notion de somme des carrées des écarts est fondamentale en statistiques. Pour estimer l'écart type, comme dit, on divise la racine de la somme par le nombre de donnés (ici intervient une petite subtilité, on peut être amené à diviser par le nombre de données moins un comme tu le montre dans ta première équation). Dans un modèle de régression par exemple on retrouve la même idée. On a différent somme de carrés : la somme des carrées du modèle SCE, la somme des carrées des données SCT (qui peut donner l'écart type), et la somme des carrées des erreurs SCR. Cela permet de vérifier la qualité du modèle assez rapidement. Si la SCE est très faible comparé à la SCT, c'est que le modèle n'est pas bon.

D'autre part, il faut également rester prudent avec l'évaluation de l'écart type. Comme l'Arctique est en cours de crash, et qu'on calcule l'écart type sur l'ensemble des données (79 - 12 comme marqué dessus), cela élargit l'intervalle des 2 sigmas. Ce n'est pas faux alors, mais il faut rester conscient que l'intervalle donnée est aussi impacté pas cette évolution rapide et donc que les données récentes restent en dehors de cette intervalle élargie. En clair, la banquise se crashe. Sur ce graphique (un peu chargé :s je suis vraiment pas doué pour le graphisme ...) en pointillé c'est la normale 79-98 et en traits plein c'est la normale 79-12. La différence est juste sans équivoque :

d2a2.jpg

Le parti pris de Piomas peut se justifier, mais il faut toujours garder en tête les hypothèses. Bien sûr que 2012 est normal dans un certain sens, puisque la fonte de 2012 s'est produite. Dans ce sens, il est logique que les années récentes peinent à aller sous les deux sigmas. Par contre, si on veut regarder l'évolution, 2012 n'aurait jamais pu se produire dans le contexte d'un climat un peu moins à la dérive. Les stat's, c'est peut être beaucoup de formules compliquées, mais elles se trouvent dans des bouquins et il n'y a pas de raisons de s'inquiéter pour cela. La base, c'est déjà d'éviter l'erreur du troisième type, et là ce ne sont plus des stat's.

P.S. : Ce qui est hallucinant aussi pour la banquise, c'est que la moyenne 79-12 est quasi égale à la borne inférieur de l'intervalle à 2 sigmas de la normale 79-98, alors qu'on a rajouté juste une quinzaine de données...

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

En parlant de variance, ça continue à envoyé avec la banquise. L'extent pète un plomb :

Sea_Ice_Extent_v2_L.png

Faut croire que la banquise perd les pédales entre minimum et maximum :lol:

Partager ce message


Lien à poster
Partager sur d’autres sites

Je pensais à le faire depuis longtemps ^^" mais il faudrait que je continue ce sujet. Un peu de musique (j'ai déjà du le donné, mais là entre Dirk le mineur et le displacmeent mineur, fallait bien sortir quelque chose en D mineur -je n'ai pas dit démineur bande de geeks ^^ - ) :

Il existe différentes méthodes pour lisser un jeu de données.

Je vais repartir de ce post de tamino :

http://tamino.wordpress.com/2013/12/16/smooth/

Il réalise différents lissages dans les données du mois de Novembre vu par le GISS de la NASA :

giss_nov2.jpg

Il a notamment une courbe spline, lowess :

giss_nov3.jpg

Moyenne mobile, gausienne, polynomiale de degré 6 :

giss_nov5.jpg

C'est pareil que pour les indices, il faut savoir prendre toutes ces méthodes avec du recul. Les avantages des unes sont les inconvénients des autres et réciproquement. Personnellement, je suis comme Tamino et j'ai un petit faible pour le LOWESS, mais aucune méthode n'est la méthode ultime.

Commençons donc par la moyenne mobile. Tout le monde sait que la moyenne de 8 et 4 c'est 6. Cela peut sembler simple. Sauf que je vais faire exprès de compliquer le truc (ne vous inquiétez pas, c'est pour mieux comprendre la suite :lol2: ). En fait une moyenne mobile c’est la convolution des données par un signal rectangulaire (ne vous barrez pas en courant, cela va aller ^^" ).

Il faut s'imaginer cela un peu comme une chaîne de fabrication, ou un ribosome, selon vos références. Illustration :

post-3513-1387895039_thumb.png

En rouge les données. En bleu, la moyenne mobile en cours de calcul. Et en noir le signal rectangulaire. En fait, ce qui se passe, on défini un espace local. Par exemple si c'est une moyenne mobile 13 mois, le local sera 6 mois avant, maintenant, et 6 mois après. Le signal rectangulaire veut dire que chaque données sur cet espace local aura même pondération. Si la série est :

8 - 6 - 7 - 4 - 3 - 8 - 8 - 5

Est que le local est 3 unités centrées, alors la moyenne mobile est :

7 - 5.7 - 4.7 - 5 - 6.3 - 7

Jusque là tout se passe bien. L'intérêt de parler de convolution entre les données (en rouge sur le crobar) et un signal rectangulaire (en noir) permet une généralisation. Pour ceux qui ont subi leur cours de maths en secondaires (ça arrive ^^ ), c'est de là que vient la formule de l'espérance :

33b7f5de16f4807daf3faf51c0a566c5.png

L'espérance est une généralisation de l'idée de moyenne, et c'est en fait un produit de convolution.

Le défaut de la moyenne mobile sont multiples. D'une part il y a des effets de bord. Sur le crobar j'ai amené la moyenne à l'origine. Mais si on réfléchi, cela devient vite compliqué. Reprenons notre exemple :

8 - 6 - 7 ...

La moyenne au pas 2 est 7 (jusque que là tout va bien). Mais la moyenne au premier pas ????

La réponse, c'est qu'il n'y a pas de réponse. Il n'est pas possible de calculer la moyenne mobile sur les premières valeurs. On peut alors soit laisser un blanc, soit diminuer la taille de l'espace locale jusqu'à rejoindre la première valeur (ce que j'ai fait dans le schéma). Dans les deux cas, ce n’est pas satisfaisant.

L'autre difficulté, la moyenne mobile est un filtre passe bas effroyablement mauvais. La moyenne mobile est utile pour lisser quand on est loin des bords. Par contre elle est incapable de faire le tri entre les variations hautes et basses fréquences.

Regardons alors le LOWESS :lol:

Il s'agit de faire passer localement un polynôme de petit ordre, généralement une régression linéaire (ordre 1) ou un polynôme d'ordre 2. La notion de locale est alors définit par une fonction de poids. Il est intéressant de noter que le LOWESS d'ordre est en fait une moyenne mobile. Le passage à l'ordre 1 ou 2 permet cependant de rendre le lissage plus efficace et très apprécié. Il nécessite des calculs relativement lourd. Hormis cela, il est facile à mettre en œuvre et ne suppose aucune connaissance a priori. Il a cependant le désavantage de demander une grande quantité de données. La régression locale est purement empirique, la masse d'informations doit donc être suffisante pour avoir une bonne estimation. Le LOWESS peut être sensible sur les bords également, mais cette tendance est nettement moins marqué que chez la moyenne mobile. De plus, il donne toujours une estimation du lissage, même sur le premier et le dernier point de données. C'est l'avantage de la régression.

L'autre méthode est un lissage polynomiale avec une bête équation type : a + b*x + c*x² + d*x3 +...

À l'ordre 1, c'est une régression linéaire. Cela peut se défendre comme méthode de lissage, mais ce n'est pas la meilleure qui soit. À l'ordre 2, cela devient plus intéressant. Par contre plus on augmente le degré, plus on augmente le degré de liberté. À l'ordre 6, cela ne ressemble plus à rien notamment. Il n'y a qu'à voir ici :

giss_nov5.jpg

La courbe bleue est surajusté des données. On devine bien que si on extrapole un tout petit la courbe bleue, on devrait subir une chute verticale d'ici 2020. Tout sauf crédible. J'ai pompé d'Internet une image pour illustrer :

highVarianceHighBias.png

Une régression linéaire (ordre 1) est trop rigide. Une régression d'ordre beaucoup va suivre chaque point mais ne décrira pas correctement les données pour autant. Un ordre 2 (ici en pointillé) ait le meilleure compromis.

Un lissage gaussien, c’est un peu comme la moyenne mobile, sauf que ce n'est pas pareil :lol2: En fait, le produit de convolution se fait entre une fonction en cloche et le jeu de données. Elle est moins couramment utilisée mais se retrouve quand même régulièrement.

Je penserais à continuer le sujet à l'occasion :P ce sera tout, pour le moment...

Partager ce message


Lien à poster
Partager sur d’autres sites

Puisque c'est la saison, parlons de record...

Tout le monde s'imagine que lorsque le climat se réchauffe, il devrait y a voir de plus en plus de records chauds, et de moins en moins de records froids. Et bien, rien n'est plus faux. On peut très bien avoir un réchauffement avec une augmentation du nombre de record de froid. Cela peut sembler complétement aberrant, mais c'est ainsi. C'est la magie de l'utilisation des records. C'est pourquoi il faut manipuler ces notions avec prudences. Et c’est pourquoi cela n’est pas fait, cela permet des affirmations péremptoires faciles sur le fait que le climat se refroidit...

Nous allons éviter les grands développements mathématiques. J'illustrerais simplement avec des simulations. Vaillamment, Excel a calculé des séries avec les paramètres dont il était gavé, et nous allons les regarder. Ce sera donc bien purement illustratif, si quelqu'un trouve que ce n'est pas satisfaisant il peut se prendre un bon bouquin de stat's et aller dormir avec ^^ Je ne suis pas là pour démontrer quoique ce soit, juste montrer de manière simple et pratique là où il peut y avoir des écueils à éviter.

Chaque série suivra un cycle de 365 unités. Une année quoi :P mais cela reste des exemples totalement arbitraires. À chaque fin de cycle, le nombre de nouveau record est décompté. Pour le premier cycle, aucun décompte n'est fait vu que toutes les valeurs sont des records plus et moins.

Commençons donc par ce que nous pouvons appeler de manière totalement non reconnu l'effet rebond. La série se réchauffe progressivement avec, sa variabilité augmente aussi un peu avec le temps. Et là, paf la dernière année est plus fraîche :

4am3.jpg

La tendance est bien à la hausse, de manière évidente. La série se réchauffe un peu plus vite que le signal, mais la différence est faible. Elle est du au fait qu'il y a un bruit rouge plutôt costaud qui est appliqué, avec une variabilité qui augmente dans le temps. L'un dans l'autre cependant, la série reproduit bien la tendance à la hausse du signal. Et là, si on regarde le nombre de records de froid et de chaud par cycle :

nfrm.jpg

Le nombre de record de froid est très faible évidement. Par contre sur le tout dernier cycle, nous avons 4 records négatifs, et 3 records positifs. Fin du réchauffement, début du retour des mammouths, voire retour de la Terre boule de neige ? À l'évidence non. Le signal est clairement à la hausse. En fait les 3 cycles précédents ont établis quasiment tout les records positifs. Du coup, le dernier cycle qui arrive derrière, étant un peu plus frais, a plus de mal à faire du record positif. Du coup, le nombre de record chute, et dans ce contexte les records froids ont plus de place. L'ensemble des possibles a en fait été brutalement élargie vers le haut, et si le cycle suivant marque un peu le pas il ne peux plus atteindre de record. C'est sans doute ce qui s'est passé en partie aux USA. Après une année 2012 qui planait à 15 000, 2013 derrière s'est retrouvé un peu le bec dans l'eau derrière :

adfq.png

Comme en plus le climat est en train de déraillé, avec des soubresauts de plus en plus violents de la circulation, 2013 a connu aux USA plus de records négatifs que de records positifs. Cette année, c'était en Mars Avril, au moment où l'AO est passé à travers le plancher. La piscine de NAM- issu du SSW a été réactivée par des forçages arctiques notamment, et du coup le printemps en Europe ou en Amérique du Nord n'a pas été des plus doux... Au bilan, il n'y a donc quasiment pas eu de records dans un sens ou l'autre, mais proportionnellement les records de froids ont pu dominer.

Un autre cas, vraiment limite je vous l'accorde :lol: est celui où le climat se réchauffe, avec de plus en plus de records de froid :

wu6u.jpg

En fait la série, par rapport au signal, est totalement écrêté. Ce peut être le cas par exemple dans les régions côtières où la banquise persiste à l'année. Même si les advections douces peuvent être solides en altitude, les températures sont plaqués à 0 de force par la glace. C'est par exemple le cas pour Ostrov Kotel'nij (ici Juillet 2004) :

rb7p.gif

L'année 2004 peut sembler fraîche, mais en fait c'est juste que la norme est recalculée, et le réchauffement là bas est tellement édifiant que même une année normale d'il y a 10 ans parait être au fond du trou. La banquise avait une extension un peu près "normale", pour la dernière fois dans le coin là et donc l'air froid était conservé en basses couches.

Du coup, si la variabilité du climat augmente, on peut avoir de plus en plus de records négatifs. Les températures montent en moyenne mais ne peuvent pas passer à travers le plafond, par contre il n'y a pas de plancher :

3vc2.jpg

Ce n'est pas très net, mais il y a bien une légère domination des records négatifs. Cet exemple est certes un peu capilo-tracté pour le coup :P mais faut vraiment se méfier de cette idée foireuse qui veut qu'il y ai toujours plus de records positifs dans un climat qui se réchauffe. C'est tout sauf exact.

De plus, tout ces graphiques montrent que le nombre de records diminuent avec le temps. C'est en effet logique. La première mesure est de facto un record positif et un record négatif. La deuxième mesure a une chance sur deux d'être au dessus ou en dessous. La troisième mesure elle aura une chance sur trois ( 33% ) d'être en plein milieu des deux premières. La quatrième a une chance sur deux d'être en plein milieu ( 50% ). La cinquième a trois chances sur cinq ( 60% ). Et caetera... C'est de la pure logique, plus on a données. Étant donnée qu'il ne peut y avoir au mieux que 365 records quotidiens par an, on aura proportionnellement bien plus de record dans une série de 3 650 données que dans une série de 36 500 données... Dans le premier cas, 10% des valeurs sont des records, dans le deuxième cas seulement 1%. Il est donc normal qu'avec le temps, en augmentant la taille de l'échantillon, il y ai de moins en moins de records.

L'autre point, c'est que plus la variabilité augmente, moins il y a de records dans une série. C'est pareil cela peut sembler complétement contre intuitif de prime abord mais c'est tout à fait logique. Si la série augmente gentiment et linéairement, chaque nouvelle donnée sera un record. Si la série fait des hauts et des bas gigantesques, il y a peu de chance qu'une nouvelle valeur soit un record.

Sur une série avec une faible variabilité :

ufms.jpg

Et une avec une forte variabilité :

fmi8.jpg

La différence est évidente. Le phénomène de diminution du nombre de record est presque complétement masqué dans une série avec une faible variabilité. Il faut donc se garder de toute interprétation excessive au sujet des records. Il est très facile de se perdre en chemin.

post-3513-1388683069_thumb.png

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour étayer un peu avec de la littérature :

http://www.pik-potsdam.de/~stefan/Publicat...coumou_2011.pdf

Rahmstorf, S., & Coumou, D. (2011). Increase of extreme events in a warming world. Proceedings of the National Academy of Sciences, 108(44), 17905-17909.

R. et C. prennent bien soin notamment de tenir compte de cet effet de décroissance du nombre des records :

5zck.png

avant de conclure que la canicule de 2010 n'est pas tout à fait que naturel. La courbe en bleu est la loi théorique 1/n. La première donnée est un record chaud, probabilité 1/1. La deuxième, record chaud avec une probabilité 1/2 (et donc probabilité de record froid de 1/2). La troisième, probabilité de 1/3 d'un record chaud (et de 1/3 pour un record froid, et de 1/3 pour pas de record). La quatrième, probabilité de 1/4 (et 1/4 pour le record, et 1/2 pour pas de record). Et... C'est de là que vient la loi 1/n. On voit que la courbe rouge diverge sévère dans les années récentes. Certains négateurs sont prompt à dire qu'il y a moins de records que dans les années 30, ce qui est tout à fait vrai. Mais cela n'implique pas que le climat se refroidit. Il est normal que le nombre de record baisse avec le temps. C'est quand le nombre de record commence à ne vraiment plus coller avec la courbe théorique qu'il peut y avoir implication. En aucun cas simplement en comparant les records des années à maintenant.

De même R. et C. parlent bien de l'importance du ratio entre la tendance et la variabilité :

A central result is that the increase in extremes depends on the ratio of climate trend to short-term variability in the data. In either case that means that in data with large variability compared to the trend, such as daily station data, the climate-related increase will be relatively small. This theoretical result explains the previous finding that daily data from a single weather station may not yet show a major change in temperature

extremes due to global warming (12). In data where the standard deviation has a similar magnitude as the trend, such as monthly mean station data, the expected number of extremes is now several times larger than that in a stationary climate, so the majority of monthly records like the Moscow heat wave must be considered due to the warming trend.

"Un résultat central est que l'augmentation des extrêmes dépend du rapport entre la tendance climatique et la variabilité à court terme dans les données. Dans les deux cas, cela signifie que dans les données avec une grande variabilité par rapport à la tendance, telles que les données quotidiennes de la station, l'augmentation liée au climat sera relativement faible. Ce résultat théorique explique la conclusion précédente que les données quotidiennes d'une station météo unique ne peuvent pas encore montrer un changement majeur dans les extrêmes de température due au réchauffement climatique (12). Les données où l'écart-type a une valeur similaire à la tendance, telles que les données moyennes mensuelles de la station, le nombre prévu des extrêmes est maintenant plusieurs fois plus grand que dans un climat stable, de sorte que la majorité des records mensuels lors de la vague de chaleur de Moscou doivent être considéré du à la tendance au réchauffement."

C'est aussi la raison pour laquelle les régions tropicales, où la variabilité est très faible, sont plus vulnérable. Le ratio entre la tendance et la variabilité est suffisamment grand pour que d'ici les dizaines à venir des régions entières soient en terrain complétement inconnu. Et comme en plus ce sont des régions pas spécialement riches...

De même l'augmentation de la variabilité est bien observée :

http://www.pnas.org/content/early/2012/07/...276109.full.pdf

Hansen, J., Sato, M., & Ruedy, R. (2012). Perception of climate change. Proceedings of the National Academy of Sciences, 109(37), E2415-E2423.

La distribution des températures glisse vers le chaud, mais aussi s'élargit, ce qui fait que les extrêmes froids ont du mal à refluer. Et comme les extrêmes chauds explosent, le temps "moyen" se fait bouffer :

7znz.png

Hansen_Shifting_Distrubution_Summer_Temp

Nous retrouvons la même idée que celle dont nous tenions commerce pour l'Oscillation Arctique :

http://www.forums.meteobelgium.be/index.ph...st&p=474119

Le climat oscille de plus en plus d'un extrême à l'autre. Et pour un système dynamique, l'une des idées de bases est toujours la même. Quand il commence à osciller de plus ben plus brutalement, cela pue. Et ici, à l'évidence, cela sent franchement le cochon grillé...

D'autre part les records par rapport à une station ne sont pas forcément d'un grand intérêt. Il a par exemple été dit après la canicule de 2003 que les Étés allaient être de plus en plus chaud en Europe. Cela reste vrai, même si dans le 3.5 m² de salade où s'épanouit Caroline (la tortue, pas la demoiselle :P ) de son jardin il n'a fait à nouveau vraiment chaud qu'en 2006 :

Barriopedro, D., Fischer, E. M., Luterbacher, J., Trigo, R. M., & García-Herrera, R. (2011). The hot summer of 2010: redrawing the temperature record map of Europe. Science, 332(6026), 220-224.

http://idl.ul.pt/sites/idl.ul.pt/files/doc...o%20et%20al.pdf

post-3513-1388683069_thumb.png

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour ces posts :thumbsup:

Effectivement pas grand monde ne semble avoir conscience de cela.

Le dernier graphique est parlant quand même, et 2010 est littéralement un OVNI la dedans :lol:

Partager ce message


Lien à poster
Partager sur d’autres sites

Soit Marie-Élisabeth de Haut-Castel, un sujet du genre Homo, âgé de 8 ans et demi environ, porteuse de deux chromosomes XX, de constitution vigoureuse. En plus de ces avantages naturels, ces parents l'ont nourri préférentiellement au caviar et au saumon. Cela phosphore donc dans la caboche... Bref, Marie-Élisabeth (nous l'appellerons désormais Meu-Meu, ce sera plus court :lol: ) possède plusieurs bacs de lego, avec des briques lego de toutes les couleurs (Remarque à la con mais un peu sérieuse quand même, si vous voulez un conseil, déterrez votre bac de lego de quand vous étiez marmot ; ou embarquer celui de votre progéniture -ou de la progéniture de votre progéniture pour ceux qui sont jeunes depuis un peu plus longtemps-... Notez que cela marche aussi avec la boîte à boutons de la matrone :lol2: ). Illustration :

piezas-lego.jpg

Meu-Meu s'amuse donc bien avec ses legos. Elle a constitué deux bacs de briques. Le premier bac, sur laquelle elle a écrit un gros B bien gras, contient des briques rouges, jaunes, vertes, et bleues. Le deuxième bac, qu'elle nomme C, contient des briques rouges, jaunes, vertes, bleues, noires, et grises.

Elle veut se construire un porte-avion (pour l'anecdote, l'auteur avait ainsi construit un porte-avion en lego, dont le seul petit "souci" était le manque patent d'étanchéité :lol2: ) avec des briques rouges et jaunes. Et elle veut se construire un tout-terrain avec des briques vertes et bleues (là aussi c'est du vécu :lol2: ).

Meu-Meu se demande donc ce qui adviendra si elle utilise le bac B ou le bac C pour ses projets. Elle réfléchit donc un instant.

Meu-Meu envisage donc d'abord de prendre l'ensemble des briques rouges, jaunes, vertes et bleues du bac B. Elle nomme cet ensemble des briques rouges, jaunes, vertes, et bleues, du bac A. Si elle retire A de B, il ne lui restera plus rien au fond du bac. Son prévenant paternel lui apprend qu'il s'agit là du complémentaire de A dans B. Et donc le complémentaire de A dans B est "aucune brique".

Meu-Meu maintenant envisage de prendre l'ensemble A des briques rouges, jaunes, vertes et bleues, du bac C. Si elle retire A de C, ou, comme lui disait son père ; elle prend le complémentaire de A dans C, elle fait les comptes. Il lui reste des briques noires et grises. Meu-Meu se rend compte qu'ici là situation est bien différente. Elle a les possibilités suivantes, après avoir pris le complémentaire de A dans C. Elle peut soit utiliser des briques noires, soit utiliser des briques grises, soit utiliser des briques noires et grises, soit ne pas utiliser de briques du tout.

Quelques remarques s'imposent alors. Le complémentaire d'un ensemble A dans un ensemble B , ce n'est pas la même chose que le complémentaire de A en C. Pour ceux qui subissent leurs cours de maths, le complémentaire est souvent noter de manière courte A barre (qq chose du genre 6a20c28f63c41476245a7ed8849c286e.png ). Pour autant le complémentaire est bien toujours par rapport à un ensemble plus vaste. Le complémentaire, c'est aussi en quelque sorte la "soustraction" des ensembles.

Par exemple, si quelqu'un dit "il n'y aura pas de neige" mais que toutes les possibilités sont sur la table, cela ne veut pas dire qu'il fera beau, 35°C du soleil et des nanas. Si toutes les possibilités sont sur la table, dire que "il n'y aura pas de neige" laisse la possibilité de dire "il y aura un épisode massif de verglas" ou de dire "un ouragan passera dans le coin".

Par contre, si les deux seules possibilités sont "il neigera" et "il fera beau, 35°C du soleil et des nanas". Alors évidemment, dire "il ne neigera pas" revient à dire que "il fera 35°C, soleil, ...".

Un peu plus compliquer maintenant... Dire "il n'y a pas de réchauffement significatif sur les 15 dernières années" ne veut pas dire qu'il n'y a pas de réchauffement. Ici, quels sont les possibles ? Soit il y a un réchauffement significatif (pente significativement positif), soit il y a un réchauffement (pente positif), soit il n'y pas de réchauffement (pente nulle), soit il y a un refroidissement (pente négative), soit il y a un refroidissement significatif (pente significativement négative). Ouf, cela en fait des possibilités...

Donc l'affirmation qu'il n'y a pas de réchauffement significatif ne signifie pas qu'il n'y a pas de réchauffement. Il peut y avoir réchauffement non significatif...

Et c'est tout à fait ce que l'on observe dans les données :

post-3513-1389037803_thumb.png

Meu-Meu n'a donc toujours pas commencer à monter son porte-avion. Son père, malicieux, et voulant continuer à développer le QI de sa progéniture, lui dit alors : "Je t'affirme qu'il n'y a pas de briques noires dans le bac C". Meu Meu le regarde un peu étonné, sort une brique noire du bac et réplique : "Si, père". Et celui-ci de continuer : "Je t'affirme qu'il y a au moins une brique noire dans le bac B". Là, Meu-Meu est un peu plus embêtée. Elle doit vider son bac B, et vérifier brique après brique qu'aucune n'est noire. Ceci fait, elle réplique "Non, père".

La deuxième phrase "Je t'affirme qu'il y a au moins une brique noire dans le bac B" se dit mathématiquement :

Proposition 1 : Il existe brique, tel que brique appartienne à B et que brique soit noire.

Et cela s'écrit (histoire de dire qu'on n'a pas fait que jouer avec des legos :lol2: ) :

Proposition 1 : ∃ brique | [ ( brique ∈ B ) et ( couleur(brique) = noir ) ]

Pour la mettre en défaut il faut vérifier TOUTES les briques. Il faut donc vérifier :

Proposition 2 : Quelque soit brique de B, brique n'est pas noire.

Et mathématiquement :

Proposition 2 : ∀ brique, brique ∈ B, couleur(brique) ≠ noir

C'est un peu bourrin, mais cela dit l'a encore des trucs très prosaïques. Pour mettre en défaut une affirmation qui commence par quelque chose du genre "il existe un élément", il faut vérifier tout les éléments.

La première phrase "Je t'affirme qu'il n'y a pas de briques noires dans le bac C" se dit mathématiquement :

Proposition 1 : Quel que soit brique de C, brique n'est pas noire.

Et cela s'écrit :

Proposition 1 : ∀ brique, brique ∈ C, couleur(brique) ≠ noir

Pour la mettre en défaut il faut trouver UN contre exemple. Il faut donc vérifier :

Proposition 2 : Il existe brique, telle que brique appartienne à C et brique soit noire.

Et mathématiquement : ∃ brique | [ ( brique ∈ C ) et ( couleur(brique) = noir ) ]

Là aussi, c'est très prosaïque. Pour autant c'est là que les négateurs aiment se faire des illusions. Il est facile de dire qu'il y a eu des réchauffements par le passé, des vagues de froid, de la neige, des vagues de chaleurs,... Cependant, cela met donc seulement en défaut la proposition "Les événements extrêmes sont du au RC".

Or la proposition à mettre en défaut est plutôt "Le RC affecte tout les événements, extrêmes ou non". Cette proposition est plutôt du type quelque soit les événements. Donc son rejet passe par l'examen de chaque événement.

Dit autrement, il faut montrer que le climat depuis les dernières années est incompatible avec le RC. Et non pas affirmer qu'il y a déjà eu de la neige par le passé. Meu-Meu n'aurait jamais pu soutenir à son père que le bac C ne contenait pas de briques noires, simplement en lui sortant une brique rouge et en disant "tient il y a une brique rouge, donc pas de brique noire"... Et pourtant, combien de fois on entend "tient, il a fait 20°C le 14 Décembre 1642, donc pas de RC".

Pour autant, sommes-nous en position d'affirmer que "Le RC affecte tout les événements, extrêmes ou non" ? En effet, le père était dans un mensonge avoué, pour activer les neurones de sa fifille. Pour autant nous sommes là dans un cadre différent. Est-ce-que la proposition peut être avancé ?

C'est la difficulté de l'hypothèse H0 en fait. En France par exemple, et dans plusieurs autres pays, toute personne est supposée innocente jusqu'à preuve du contraire. Cela revient en fait à poser l'hypothèse H0 : la personne est innocente. L'accusation doit donc mettre en défaut H0 au delà d'un doute raisonnable par des preuves. Il est donc plus "difficile" de rejeter l'hypothèse H0, que de l'accepter. Le bénéfice du doute est à l'avantage de l'accusé.

Si l'hypothèse H0 est : la personne est coupable. Alors l'inculpé devra prouver son innocence, ce qui est plus difficile. Le bénéficie du doute n'est surement pas à l'accusé pour le coup...

Il existe deux risques qui sont alors définis. Partons de l'hypothèse H0 : L'accusé est innocent. Le risque alpha est le risque de première espèce, qui est le faux positif. L'accusé se retrouve en zonzon alors qu'il n'a rien fait. Le risque bêta est celui d'un faux négatif. On laisse l'accusé en liberté alors qu'il a commis le crime.

Et partons de l'hypothèse H0 : l'accusé est coupable. Le risque alpha est le risque de première espèce, qui est le faux positif. L'accusé se retrouve en liberté alors qu'il est coupable. Le risque bêta est celui d'un faux négatif. On coffre l'accusé pour rien.

La manière de poser l'hypothèse conditionne les risques pris. Notamment, cela ne sert à rien de vouloir diminuer le risque alpha, sinon le risque bêta explose.

L'hypothèse H0 n'est donc jamais posé gratuitement. Pour le climat, l'hypothèse H0 est bien que tout événement est impacté par le RC.

Cela ne veut pas dire que le RC cause des événements extrêmes.

C'est ce que défend par exemple Trenberth :

http://onlinelibrary.wiley.com/doi/10.1002/wcc.142/abstract

La température :

post-3513-1389045316_thumb.png

Et l'humidité :

post-3513-1389045356_thumb.png

présentent une tendance très claire et les événements climatiques ne peuvent plus être le seul résultat de la variabilité naturelle. L'idéal du climat pur et vierge du 19è siècle n'existe plus. L'appel à la variabilité naturelle fait plutôt invocation mystique à une puissance surnaturelle pour essayer de se rassurer.

Il existe un troisième type d'erreur, et c'est pour cela que j'ai fait ce pavé (entre autre). C'est la mauvaise formulation du problème. Et là...

Encore, faire des tests stat's, comme on dit, RTFM. Une bonne doc, on balance les formules à Excel et démerde toi mon grand. Par contre, la logique... la formulation du problème... C'est un vrai carnage. Entre ceux qui sont convaincus que pas de réchauffement significatif équivaut à pas de réchauffement du tout. Ceux qui pensent que ah parce que cela s'est produit dans le passé, ah bien y a rien à voir. Ceux qui réfléchissent de manière binaire, si on dit non à une proposition et oui à l'autre il y a bien sur contradiction. Ceux... Enfin bref on ne pas faire le bestiaire de tous les passage à tabac de la logique la plus élémentaire. Avant de se poser la question du risque alpha et de la p-value et autre en stat's, il faut déjà être sûr que le problème est bien posé.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

On m'a demandé pas mal de trucs au sujet des records, alors je vais continuer un peu. Prenons cette fois-ci un fumeur avec un cancer des poumons qui s'est généralisé, en phase terminale, et qui trouve encore le moyen de fumer parce qu'il a besoin de sa nicotine. Toute la famille sera d'accord pour dire qu'il a fait un cancer à cause du tabac. Pour autant, personne n'a prouvé que son cancer était bien dû au tabac.... Ici l'intuition populaire a sans doute bien plus raison cependant.

On sait que le tabac augmente la probabilité de mourir de cancers ou de maladies cardio vasculaires. Pour autant, jamais personne n'a prouvé qu'un gars en particulier est mort à cause du tabac.

Pour le réchauffement climatique, l'idée est la même. Aucune événement "météo" (en dehors des éléments forcés directement comme la hausse des T, la fonte de la banquise, hausse du niveau de la mer,..) n'est dû en particulier au réchauffement climatique. Aucun. Par contre, le RC augmente bien la probabilité d'avoir des événements extrêmes, et modifie lourdement le contexte dans lequel se déroule la "météo" au quotidien. Dans la recherche ils tendent encore à avoir un peu mal apparemment avec cela aussi :lol2:

http://onlinelibrary.wiley.com/doi/10.1029...enticated=false

C'est la difficulté de l'attribution.

Le RC interfère avec tout, mais ne cause aucune synoptique particulière. Les événements extrêmes sont liés au RC, mais le RC ne cause aucun d'entre eux. Il est important de bien formuler son problème et de comprendre un peu ce que l'on dit. La

vague de froid aux USA est aussi lié au RC d'une manière ou d'une autre. Tout autant que le sont les vagues de chaleurs dans l'Hémisphère Sud.

Dans un autre sujet, cela rappelait de Février 2012. Sans doute parce qu'on arrive en Février, que l'Hiver pour l'instant est très doux, et donc c'est certain on est parti en Février pour avoir au moins 15°C ou 20°C de déficit sur la moyenne mensuelle. En France, si on prend le graphique qui va bien de MF :

post-3513-1390143772_thumb.jpg

Février 2012 n'est que la 6ème vague de froid sur une période d'environ 60 ans. Ce qui fait une période de retour de ... 10 ans pour un tel événement. Sur certaines stations, l'événement est un peu plus marqué certes, mais sans plus. À Bordeaux, c'est le troisième mois de Février le plus froid sur la période (derrière 63 et 56), ce qui fait une période de retour de 20 ans. Localement, le froid a donc été un peu plus appuyé, mais Février 2012 reste surtout un non événement. Et surtout, on ne parle là que des 60 dernières années, marqué par un fort réchauffement et une diminution de la probabilité des vagues de froid. Heureusement qu'il n'y a pas les mois des Hiver 1879 ou 1940 ou 1942 ou 1929 ou ... parce que là 2012 serait vraiment risible en comparaison.

Si on prend Juillet 2013 par exemple, personne ne s'est excité sur le sujet alors que la déviation dans le positif de Juillet 2013 est encore plus extrême que la déviation dans le négatif de Février 2012. Il faut rester un peu équilibré des fois aussi.

Et un autre point, prenons Juillet 2006 qui a pété du record avec une marge sur les Tm de 2°C environ. Est-ce quelqu'un s'imagine un mois de Février de 2°C sous la Tm de Février 56 ? Atteindre les -4°C de Tm à Bordeaux par exemple ?

Sans vouloir relativiser tout les records, il faut aussi rester équilibré dans le traitement. On n'est pas obligé de battre des records de froid avec une marge de 2°C pour que cela devienne "exceptionnel". Pour autant, entre être simplement dans la moyenne des aléas froids possibles, et approcher les planchers, il y a une différence. Quand on voit où se situe Février 2012 :

post-3513-1390143772_thumb.jpg

Il y a quand même de la place entre les précédents genre 85 ou 63 ou 56 et 2012.

Un gars me faisait d'ailleurs remarquer qu'il était "ambitieux" de vouloir atteindre le niveau de 85. Cela n'a aucun sens. L'atmosphère n'en a rien, mais alors rien, à secouer de savoir si c'est ambitieux ou pas. L'atmo' n'est pas là pour "compenser" ou être "ambitieuse". Les records sont bas, certes oui. Mais si les records sont bas, c'est qu'ils sont bas. Et donc c'est jouable. Si on n'a pas approché les records, c'est qu'on ne les a pas approché, point. Je ne vois pas l'intérêt de faire des contorsions pas possibles pour essayer de justifier que Février 2012 ici ou Janvier 2014 aux USA puisse être quelque part exceptionnel. On n'est pas obligé de battre forcément des records pour que cela deviennent exceptionnels. L'Hiver 1942 ne fait pas forcément parti de ses "hivers mythiques" que chaque passionné météo connait par cœur, aucun record météo bien notable ne lui ai associé, et pourtant il envoyé du steak le bestiaux. Chaque vague de froid a sa spécificité. C'est aussi pour cela que MF utilise 3 critères de classements. Mais quand, sur tout les critères, on se foire magistralement, c'est qu'on s'est foiré. Ce n'est pas la faute à des records trop bas, ou à un manque d'ambition de l'atmosphère.

Le même gars me faisait remarquer qu'en disant cela, il y avait sans doute un sentiment d'être dépossédé de sa vague de froid. Ouaip peut être, mais si c'est pour vivre la météo en mode déni dans un monde onirique qui n'existe pas, autant arrêter.

Enfin, j'avais posté ailleurs ceci :

http://www.wunderground.com/blog/JeffMaste...l?entrynum=2612

Comme le dit Jeff Masters, il y a bien sûr une plus grande exposition aux aléas. Le risque, classiquement, c'est un aléa et une vulnérabilité. Notre société est de plus en plus vulnérable, donc cela douille de plus en plus. Il est difficile alors de trouver une tendance dans le coût des catastrophes naturelles. Pour autant, tamino avait montré par exemple qu'il y a de solides raisons de penser que la hausse n'est pas forcément seulement du à une plus grande vulnérabilité :

http://tamino.wordpress.com/2012/11/03/unn...l-catastrophes/

De plus quand on fait les comptes :

billionDollarDis_V2-2.png

Comme par hasard, les événements réellement typés "froid" sont quasi absent. Seulement 3 événements sont retrouvés, et dans le bas du classement. Dans le top, on retrouve toujours inondations, sécheresses, et ouragans. De plus, nous avons derrière des éléments statistiques et physiques qui justifient un lien avec le RC pour ces événements.

Dans le même ordre d'idée toujours, à savoir "oui mais les événements froids valent bien les événements chauds"... Hansen a démontré rigoureusement le contraire :

http://www.forums.meteobelgium.be/index.ph...st&p=474763

Et plus intuitivement, cela se voit aussi au quotidien. Quelqu'un me parlait comme cela de ce qu'il avait neigé au Brésil cet Hiver (Août 2013). Oui sans doute, mais la neige au Brésil est rare mais pas impossible dans els hautes terres du Sud du pays. Et surtout, cela a duré un ou deux jours, et ce fut quasiment sans conséquences. En Argentine avec la vague de chaleur, ils en étaient fin Décembre a descendre dans la rue parce que l'approvisionnement en électricité s'était partiellement effondré dans la capitale. Et encore maintenant c'est tendu. Les événements typés "chauds" sont de plus en plus fréquents, et ont des conséquences de plus en plus lourdes.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

http://www.youtube.com/watch?v=pEXNKDVs8Sw

Pour répondre à une question à propos du bruit rouge, nous pouvons aussi discuter des bruits :P

En statistique, un bruit est une série de données qui se superpose à une autre série sans ajouter d'informations. En sciences atmo' la notion de bruit reste tout de même très relative. Le "bruit" autour de la tendance au réchauffement peut être expliqué essentiellement par l'ENSO et le Soleil par exemple ( http://tamino.wordpress.com/2012/01/21/201...rature-roundup/ ). Est-ce donc là un bruit ? De même, une tornade représente du "bruit" pour WRF, mais pas une cellule orageuse. Une cellule orageuse représente du bruit pour GFS, mais pas une dépression de mousson. Une dépression de mousson représente du bruit pour un modèle de l'ENSO (type Zebiak Cane pr exemple), mais pas une oscillation persistante de la convection tropicale. Etc... On s'arrête où ? Sans vouloir faire de la philo de comptoir, mais l'atmosphère a toutes les échelles est fondamentalement, sans concession, un système déterministe. Traiter les processus "sous maille" (de trop petite échelle) comme du bruit (on parle de processus stochastique pour ceux qui veulent du vocabulaire :P ) ou comme du chaos est bien pratique par moment. Mais ce n'est pas pour autant forcément très satisfaisant physiquement parlant. Enfin bref, le bruit donc.

Soit une série totalement arbitraire, disons y = 0.1*x :

at1y.jpg

Cette série est représentée en bleue. Et en orange, nous avons une série bruitée. La série orange a en théorie exactement la pente, à savoir 0.1*x. C'est bibi qui a monté le bazar, et je peux vous garantir que normalement la courbe devrait être à 0.1*x :P Sauf que le gentil tableur trouve 0.094*x. La différence est dû à l'ajout d'un bruit - 3*(ALEA()-0.5)) pour les curieux -. Il apparait alors une différence avec la série. Nous pouvons dire cependant avec une certitude absolue que la différence n'est pas significatif. En effet, c'est nous-même qui avons monté la série, il n'y a pas beaucoup de doutes à avoir :P

En statistiques, pour un bruit, il y a des tas de manières d'approcher la chose. Cependant, les deux plus importants paramètres sont à mon humble avis la moyenne et l'autocorrélation. Pour la moyenne cela devrait le faire ^^ La moyenne de 8 - 4 - 6 est bien 6 par exemple. Pour l'autocorrélation cela devient plus délicat sans doute.

Déjà, l'auto - corrélation, c'est bien une corrélation appliqué à soi même. Le préfixe auto (pas Otto :P ) désigne soi même en grec. on le retrouve partout : autocratie, automobile, autof... enfin bref voila :P Et corrélation est un processus statistique qui permet de juger du degré de dépendance entre deux variables.

En un mot donc, l'autocorrélation est le degré de dépendance d'une nouvelle valeur par rapport à la précédente au sein d'une même série. Par exemple, l'autocorrélation de la température moyenne mensuel est nul à strictement nul. Janvier peut être chaud et Février froid, ou réciproquement, ou les deux froids ensembles, ou les deux chauds ensemble, ou autre, et... La valeur d'une série ne porte aucune information sur la valeur suivante si l'autocorrélation est nulle.

Il existe également différentes autocorrélations. On peut décaler la série de plusieurs intervalles. Par exemple, on peut comparer Février à Décembre. Cela fait un décalage de deux mois. Notons que là aussi, l'autocorrélation est totalement archi nul. Noël au balcon, Pâques aux tissons ; cela n'a jamais marché.

On va donc se tracer un truc qui s'appelle l'autocorrélogramme (ne vous barrez pas encourant, cela va aller ^^" ) :

post-3513-1392075560_thumb.jpg

(Si quelqu'un veut le fichier de données, faut pas se gêner à demander. C'est juste que pour l'hébergement c'est compliqué ^^" )

Ce qui précède nécessite donc une explication. La corrélation est égale à 1 si la valeur suivante dépend exclusivement et totalement de la valeur précédente. C'est le cas pour la série vrai, où son autocorrélation est tout le temps la même. Pour un décalage de un intervalle, la valeur suivante est égale à la précédente, plus 0.1 unité. Pour un décalage de deux intervalles, la valeur suivante est égal à la pénultième, plus 0.2 unités. Et pour un décalage de 3 intervalles, la valeur suivante est à l'antépénultième, plus 0.3 unités. Etc... Quelque ce soit le décalage, l'autocorrélation est donc de 1.

Pour la série bruité, l'autocorrélation hésite autour de 0.9 environ. Le bruit détruit un peu l'autocorrélation. Plus le bruit est important par rapport au signal, plus l'autocorrélation baisse.

Par contre, pour le bruit, son autocorrélation est complétement nul (comme la température des mois de l'année....).

Notons qu'avec un décalage de zéro, l'autocorrélation est toujours égal à 1. En effet, quelque soit la série elle est toujours corrélé à elle même. Dit en bon vieux français : "Si tu sais la température de Février, bé tu la sais quoi. Par contre si tu décale d'un intervalle, bé te v'là bien baisé. Que veut-tu, si tu connais la température de Janvier, tu ne sais rien de la température de Février."

Pour parler un peu plus des bruits, on va donc distinguer le bruit blanc du bruit rouge. Les deux ont une moyenne nulle. La différence vient de ce que le bruit rouge a une composante d'autocorrélation.

Les séries :

post-3513-1392075481_thumb.jpg

Et l'autocorrélogramme :

post-3513-1392075526_thumb.jpg

Le bruit blanc a été généré avec la fonction ALEA(). Elle varie peut être un peu d'un tableur à l'autre (sur les anciens excels se doit être RAN qq chose de mémoire il me semble). En tout cas cette fonction génère un bruit blanc, en sortant des nombres aléatoires entre 0 et 1. J'ai juste retranché 0.5 pour avoir la moyenne nulle.

Pour le bruit rouge, il est généré entant qu'une somme d'un nombre aléatoire, plus une fraction du nombre précédent. Illustration :

post-3513-1392076164_thumb.png

J'essaye de vous faire un truc le plus simple, je ne sais pas si cela marche ^^" mais c'est important je pense de voir comment on construit un bruit rouge. À ce moment, il faut que vous notiez un truc (vous savez, la grosse ampoule de 50W au dessus de la tête...). En effet, par construction, nous avons 0.7 fois la valeur précédente. Et quand on calcule l'autocorrélation, oh surprise pour le premier décalage, elle vaut 0.7 environ. Ce n'est pas un hasard, même si c'est un cas particulier.

On peut faire des bruits encore "plus" rouge en faisant dépendre la valeur suivante, de la précédente et de la pénultième. Quand je dis "plus" c'est pour dire qu'on va toujours plus loin dans la folie :lol2: ne commencez pas à cherchez un bruit "très" ou "plus" rouge sur google ou dans un bouquin de maths ^^" La formulation dans Calc de LibreOffice ressemble à ceci :

post-3513-1392077173_thumb.png

La série :

19vk.jpg

Et l'autocorrélogramme :

cs46.jpg

Rien qu'à avoir la série, on se doute déjà que l'autocorrélation est beaucoup plus forte. Par la suite, on se contentera de faire dépendre la valeur suivante, de la précédente seulement. Il y a aura déjà bien assez de choses à dire. Je noterais aussi que cela n'est pas juste des stat's douteuses. Le mouvement des molécules de l'atmosphère est un bruit rouge par exemple. C'est ce qu'on appelle le mouvement brownien :

http://fr.wikipedia.org/wiki/Bruit_brownien

C'est aussi lié aux marches aléatoires :

http://fr.wikipedia.org/wiki/Marche_aléatoire

Quand on charge sur le paramètre d'autocorrélation, la série "marche" toute seule :

qmqw.jpg

Toujours un bruit rouge, mais avec des paramètres d'autocorrélation augmentés (0.7 et 0.3 respectivement). Cependant, dans le cas qui nous intéresse, le bruit reste du bruit, un bon bruit avec une moyenne bien nulle. Sans compter que ce n'est qu'une approximation. L'atmo' reste fondamentalement déterministe et ne se met pas à dériver toute seule...

Cependant, ce n'est pas une remarque totalement inutile. Le bruit rouge aussi tend un peu à "marcher tout seul". Si une valeur est élevée, la suivante a toute les chances de l'être. C'est un problème en statistiques. En effet, si la série est bruité par du bruit rouge, et que là ponctuellement pouf le bruit rouge part dans un sens. Cela crée localement une tendance alors qu'il ne se passe rien. L'incertitude est donc plus grande. C'est ce qu'on va tenter de traiter en statistiques avec le processus ARMA dont parle beaucoup Tamino.

Maintenant qu'on sait un peu, c'est quoi cette bête nommé bruit, qu'on sait qu'il peut être rouge ou blanc, voyons comment on peut le traiter. N'oublions pas notre objectif. Nous avons une série quelconque "pollué" par du bruit rouge, et nous voudrions savoir le plus exactement possible à quoi ressemble la vrai série.

Nous allons utiliser pour cela un processus, le processus ARMA.

La version maths de Wikipedia (après tout paraitre facile XD ) :

7be9c7800cbe7732c90daa7c8ae35299.png

http://fr.wikipedia.org/wiki/ARMA

Xt -> c'est ce qu'on cherche ^^ la valeur du bruit dans notre cas

epsilon -> c'est bruit, mais surtout un truc qu'on ne maitrise pas

phi (je n'ai pas dit fille :P ), l'espèce de queue de cochon de ce genre : φ -> c'est le paramètre de l'autorégression

thêta, ce machin : θ -> c'est le paramètre de la moyenne mobile.

Si on essaye de faire fi du premier émoi, on retrouve quand même deux ou trois trucs connus. La valeur de phi indique le degré de dépendance à la valeur précédente. Dans le cas de notre bruit rouge, c'était pose à 0.7 de valeur. Là où cela devient un peu technique pour suivre, c'est qu'il faut voir que pour un processus ARMA, nous ne sommes pas capable de décrire parfaitement la série. Il reste toujours un résidu epsilon, qui est réinjecté la fois suivante dans le processus pondéré par theta. C'est un bout qui manquait dans la construction d'un pur bruit rouge évidemment.

Un processus ARMA est décrit par deux paramètres, thêta et epsilon donc. En climato il est souvent question d'ARMA(1,1) qui est el cas le plus simple. Cela veut dire que la valeur suivante ne dépend que de la valeur et de l'erreur précédente. Cela correspond à notre bruit rouge (le premier, pas celui où nous sommes allé toujours plus loin ^^ ).

Je préfère éviter de m'appesantir sur le processus ARMA (se fait tard en plus :s ) pour arriver à du vraiment pratico concret. Le principal intérêt du processus ARMA, c'est qu'il permet de justifier d'un bon vieux truc bien pratique quand même. Si on appelle zigouigoui la valeur de l'autocorrélation au premier décalage, pour un ARMA(1,1) on définit un paramètre (demandez pas d'où cela sort ^^" ), tel-que :

V = racine [ (1+zigouigoui) / (1-zigouigoui) ]

Cela permet notamment d'augmenter la qualité de l'estimation de l'erreur. Si zigouigoui devient grand, V explose littéralement. Quelques valeurs pour illustrer :

V (zigouigoui=0) = 1

V (zigouigoui=0.6) = 2

V (zigouigoui=0.8) = 3

V (zigouigoui=0.946) = 6

V (zigouigoui=1) = + l'infini (vers l'infini et l'au delà ...)

Sks a un magnifique outil, le trend calculator :

http://www.skepticalscience.com/trend.php

Où il y a justement une gestion de l'autocorrélation possible ( "Show advanced options" ). Cliquez dessus pour voir (cela ne va pas péter, ne vous inquiétez pas ^^ ).Par défaut, Sks propose 1980-2010 pour le calcul de l'autocorrélation.

Si vous demandez la période 1998 - 2014 vous devriez avoir quelque chose qui a cette trogne :

a1j7.png

Notons que même là, la tendance reste significative. La probabilité d'une tendance négative est de seulement 15% environ. Ou dit autrement, est-ce-que vous seriez prêt à prendre un avion qui a quasi 9 chances sur 10 de terminer explosé façon puzzle sur le plancher des vaches, et vous crevant dans d'atroces souffrances ? Si la réponse est non, c'est que la tendance est significative.

Et maintenant, on demande la période 1950-2010 pour l'autocorrélation :

m93r.png

Cela change un peu à l'évidence.

On va mettre un peu les mains dans la mécanique pour voir ce qu'il se passe. Les données du GISS peuvent être récupérées ici :

http://www.woodfortrees.org/data/wti

Nous allons calculer l'autocorrélation sur le premier décalage (noté zigouigoui donc pour faire court) sur la période 1950-2010 et 1980-2010. Pour ma part j'ai :

zigouigoui (1950-2010) = 0.8968

zigouigoui (1980-2010) = 0.8098

Donc :

V (1950-2010) = 4.287

V (1980-2010) = 3.084

De plus à partir des graphiques nous pouvons dire que sigma (l'incertitude sur la pente) est :

sigma (1980-2010) = 0.129/2 = 0.0645

sigma (1950-2010) = 0.157/2 = 0.0785

Si on divise par deux, c'est parce que l'incertitude est donnée à deux sigmas (écrit en gros à côté ^^ ). Cependant là ce sont les sigmas suite à la pondération par l'autocorrélation. Et si on divisait par V pour faire sauter cette pondération ?

sigmaMC (1980-2010) = 0.0645 / 3.084 = 0.0209

sigmaMC (1950-2010) = 0.0785 / 4.287 = 0.0183

En gros, on retrouve la même chose. ouf ^^

Le sigma MC (en réalité, il doit valoir 0.018°C environ), c'est l'incertitude sur la pente du au modèle classique de la régression linéaire, c'est-à-dire que l'erreur est un bruit blanc. Comme sur les températures l'erreur est rouge, on multiplie par un coefficient pour compenser. C'est là que réside l'intérêt le plus immédiat en climatologie du processus ARMA.

P.S. : Cela marche encore mieux avec la période 1880-2010 :P

pwj0.png

Pouvez refaire le calcul, avec une autocorrélation à 0.9194 on a un sigmaMC calculé de 0.1782. C'est un peu approximatif, car on fait le chemin "inverse" quelque part. Normalement, le sigmaMC est connu, puis on multiplie par V pour avoir le sigma net de tout. Ici c'est purement pour l'exemple bien sûr.

P.S. 2 : Je viens de consulter le dico : http://fr.wiktionary.org/wiki/zigouigoui Et je me rend compte que zigouigoui a deux définitions possibles :blush: Je ne connaissais que la deuxième définition, ce n'était pas voulu la référence qui n'en est pas une ^^"

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour le post ;)

Newman et al. 2003 have found that the PDO can be modelled as a first-order autoregressive process driven by ENSO.

http://www.skepticalscience.com/Pacific-De...on-advanced.htm

Ils ont voulu dire quoi par autorégressif ? Parce que on pouvait s'en douter que la PDO est un truc autorégressif, comme 90% des trucs de l'univers :lol:

Partager ce message


Lien à poster
Partager sur d’autres sites

Je voulais parler de p-value, mais avant un petit mot sur la compensation encore, parce que j'ai réussi à me mettre la tête à ce sujet avec un gars (pour pas changer :P ). Ce qui me gêne surtout avec la compensation, c'est que c'est un processus actif, et une excuse à tout. On peut parler de choc compensé par exemple, quand le corps se mobilise pour réagir à une hémorragie massive par exemple. Cependant, le fonctionnement de la circulation est modifiée, et de manière active. Pour le climat, il n'y a pas un esprit surnaturel volant au dessus des eaux et disant : "ah ici il ont eu chaud depuis trop longtemps, faut y mettre un peu de froid". La Terre est en équilibre énergétique, à toute les échelles. En moyenne, on tend vers 0 car l'énergie se conserve. Mais parler de compensation masque les mécanismes. Ce n'est pas l'esprit de dieu planant au dessus qui agit pour "compenser". L'atmosphère n'a à rien, mais alors strictement rien à battre de savoir si c'est le moment de "compenser" les anomalies, si c'est "ambitieux" de vouloir battre les records, si... L'atmosphère se contente d'être en équilibre énergétique. C'est juste un équilibrage de l'énergie dans le système. Et parler de compensation masque la réalité que le bilan énergie peut être bousculée, et donc qu'une évolution du climat est possible. La compensation, le coup du "il a fait trop froid / chaud / sec / humide / autre donc on va le payer" ne tient pas. La Terre est un système fondamentalement, absolument déterministe. La Terre est déterministe, elle est en équilibre. Traiter tout les processus de plus petites échelles comme du bruit (souvent rouge ou blanc) ne doit pas faire oublier que la moyenne est nulle, parce que ces bruits sont eux même le résultat d'un déterministe et d'un équilibre énergétique. On ne payera jamais cet Hiver très doux, et en tout les cas ce n'est pas parce que l'Hiver a été doux que l'Été sera fin pourri. Un orage est en équilibre, tout comme l'ENSO ou le rayonnement global. Pour autant l'orage est du bruit pour l'ENSO, l'ENSO est du bruit pour le climat global.

Pour en revenir à la p-value donc. Quand on fait un test statistique, il existe une p-value. En fait, c'est la probabilité du faux positif, la probabilité de rejeter à tort l'hypothèse nulle H0. C'est la quantification du risque alpha : http://blogperso.univ-rennes1.fr/arthur.ch...ire-une-p-value

Nature en remet une couche :

http://www.nature.com/news/scientific-meth...-errors-1.14700

J'étais vaguement motivé pour vous traduire le bazar, mais je préfère encore citer la Bible (je sais, on cause stat's, bouh pas beau la religion, ...) :

"À tous, petits et grands, riches et pauvres, hommes libres et esclaves, elle [la bête] impose une marque sur la main droite ou sur le front.

Et nul ne pourra acheter ou vendre, s’il ne porte la marque, le nom de la Bête, ou le chiffre de son nom.

C’est le moment d'avoir du discernement : celui qui a l’intelligence, qu’il interprète le chiffre de la Bête, car c’est un chiffre d’homme ; et son chiffre est le six cent soixante-six."

TOB, Apocalypse, chapitre 13, verset 16 à 18.

C'est surtout pour dire qu'on est dans une société obsédée par les chiffres sans que nous comprenions vraiment ce que nous faisons. La marque des dissensions humaines (la "bête" dans le langage biblique) est bien un chiffre, on s'en fout un peu ici de savoir que ce soit le 666 ou le 3.1415. On accorde trop d'importance aux chiffres. Et dans une société bouffée par le besoin de tout quantifier, une société bouffée par une technicité envahissante, nous construisons les instruments de notre propre déchéance. La technique sert l'homme pr mieux l'asservir. Si je retrouve la boite des pilules de la motiv' je vous traduirais quand même le bazar de Nature.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

On va continuer sur les records et le bruit rouge (y a pas à dire, cela fait quand même soirée très (trop..) arrosé le bruit rouge :lol2:

bouteille-et-glace-de-vin-rouge-avec-des

)

Pour le GISS, Janvier est le TROISIÈME plus chaud. Par contre quand on regarde les données, il y a TROIS années plus chaudes en Janvier, donc Janvier 2014 est le QUATRIÈME. Il est où le truc ???

Si on regarde les données (les valeurs sont en centièmes de degrés) :

1988 53

2006 53

2004 56

2009 57

1998 60

2013 63

2010 66

2005 69

2014 70

2002 72

2003 72

2007 93

Simplement, on peut dire que Janvier 2014 est 4ème. D'accord. Mais alors, qui est troisième ? Qui est deuxième ? Le mois de Janvier 2003 est le deuxième parce que la canicule de 2003 en France ? Le mois de Janvier 2002 est le deuxième parce que v'là l'El Nino en 2002 ? Cela n'aurait pas de sens.

Nous n'avons pas les moyens de discriminer entre 2002 et 2003. Sans doute que si on calculait les anomalies aux millièmes, nous aurions par exemple 2002 à 0.724°C et 2003 à 0.719°C. Donc là oui, nous pourrions dire que 2002 est deuxième, donc 2003 troisième, et 2014 quatrième.

Mais alors, si on a le même millième ? la probabilité est faible, mais si par exemple Janvier 2002 est à 0.721°C et Janvier 2003 à 0.721°C, on fait quoi ??? Est-ce qu'on en revient à la théorie que, v'là la canicule de 2003, donc c'est sur, Janvier 2003 est plus chaud ? Cela n'aurait toujours pas de sens. Il faudrait alors descendre au dix millièmes. Sauf que, cela ne règle pas le problème.

Déjà, nous ne sommes pas capable de calculer l'anomalie à moins d'un centième. En plus, la précision doit être de l'ordre de 5 centièmes, si ce n'est pas un dixième, pour un mois particulier. Si nous n'avons pas les moyens de discriminer deux valeurs, on ne le fait pas. On dit que les deux valeurs sont égales au centième près.

Pour les températures d'une station, il est fait pareil. On ne sait mesurer la température qu'au dixième, avec une précision qui ne doit pas être loin du degré plein en pratique. Si donc le record est par exemple pour un jour ou un mois particulier de -41.8°C et qu'une nouvelle mesure donne -41.8°C, personne ne dit que le record est battu. Il est "juste" égalé. Aux USA, au pays des °F, cela arrive souvent. Il mesure les température au degré Fahrenheit près, ce qui fait environ 0.556°C. Autant dire qu'avec une telle précision, certaines stations ont 3 ou 4 jours de 3 ou 4 années complétement différentes avec le record mensuel. Et pour certains records quotidiens, je pense que ce ne doit pas être loin de la partouze :lol2:

Il n'est pas possible d'avoir plus de précision, cela ne sert à rien du faire du forcing pour reléguer Janvier 2014 à la quatrième place. De toutes les valeurs relevés, 0.70°C en Janvier est la troisième plus forte au centième près.

De plus, si on a 20 mois à 1°C et le 21è mois à 0.99, alors le 21è mois est le deuxième plus chaud ? À l'évidence oui. Cela a toujours fonctionné ainsi en climato' et il n'y a pas de raisons de faire autrement pour essayer de minimiser au possible Janvier 2014.

Cependant, il est évident que la notion de record peut vite atteindre des limites, et c'est là aussi un cas. Dans un climat qui se réchauffe, chaque mois n'est pas nécessairement un record.

De plus, par rapport au contexte, Janvier 2014 est encore plus extraordinaire. Arrivé à faire presque aussi bien que deux années El Nino récentes (2002 et 2003) alors qu'on traîne un Pacifique froid fricotant avec la Nina depuis un an, c'est juste débile.

Si on revient à du plus pertinent, pour la tendance elle est toujours plutôt à la hausse. Ce bon vieux graphique a déjà été présenté par ailleurs sur Internet :

post-3513-1392768474_thumb.jpg

Il représente la tendance de la date indiquée à maintenant, avec l'incertitude associée. L'incertitude tient compte de l'autocorrélation via la formule magique d'au dessus.

À l'évidence, la tendance au réchauffement se maintient. Il y a sans doute un ralentissement récent du réchauffement, mais en tout cas aucun refroidissement significatif.

Si maintenant, nous faisons l'opération inverse, et que nous fixons la date de départ et que nous regardons comment évolue la tendance. Nous allons voir l'effet que cela fait d'ajouter de nouvelles données, de mieux connaitre la série. Par exemple, à tout hasard, fixons le point de départ à 1998...

post-3513-1392768798_thumb.jpg

Cela patauge pas mal du à la courte période considérée, mais nous voyons qu'ajouter de nouvelles info's fait augmenter l'estimation de la tendance. Donc avant de dire quelque chose, il est est important d'attendre un peu que cela se stabilise, au risque de dire des bêtises plus grosses que soi. De plus, le réchauffement depuis 1998 est bien significatif maintenant. Et la conclusion est la même pour la tendance depuis 2002 :

pxyq.jpg

Rien de significatif, mais vu que la tendance tend à augmenter avec l'ajout de nouvelles données, on va attendre un peu avant de faire péter le champagne quand même...

De plus, on reste sur des rythmes de réchauffement très rapide. Si on évite de tenir à la culotte les données, la tendance récemment a un peu fléchit mais elle reste comprise entre 0.5°C et 1°C par siècle, ce qui est juste énorme par rapport à notre connaissance de la paléoclimato :

http://www.forums.meteobelgium.be/index.ph...st&p=475189

(faudra que je refasse le graphique ^^" il est en effet un peu inexact. L'ordi avait failli partir ad patres avec la masse de données à gérer. En incluant d'autres sources de données, cela fait un peu partir l'estimation en orange vers les fortes valeurs pour des variations sur 10 ans et moins, mais la conclusion reste la même fondamentalement)

Et surtout, on s'en fout un peu de savoir si Janvier 2014 est quatrième ou troisième plus chaud. Le fait que la Californie ou le Sud du Brésil manquent d'eau, que le RU, la Bolivie, le Zimbabwe, le Burundi,... se noient, que la banquise continue d'aller aussi mal, que l'Australie ou l'Argentine ou l'Alaska se soit fait déboîter la tronche, ... Tout ceci montre à quel point le réchauffement climatique ne se passe pas très bien. Et peu importante la quantification exacte. Sur le terrain, on en a franchement rien, mais alors rien à secouer que Janvier 2003 soit plutôt à 0.721°C ou plutôt à 0.719°C. La réalité, c'est que les événements extrêmes se multiplient, avec des conséquences de plus en plus grave.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites
Je voulais parler de p-value, mais avant un petit mot sur la compensation encore, parce que j'ai réussi à me mettre la tête à ce sujet avec un gars (pour pas changer :P ). Ce qui me gêne surtout avec la compensation, c'est que c'est un processus actif, et une excuse à tout. On peut parler de choc compensé par exemple, quand le corps se mobilise pour réagir à une hémorragie massive par exemple. Cependant, le fonctionnement de la circulation est modifiée, et de manière active. Pour le climat, il n'y a pas un esprit surnaturel volant au dessus des eaux et disant : "ah ici il ont eu chaud depuis trop longtemps, faut y mettre un peu de froid". La Terre est en équilibre énergétique, à toute les échelles. En moyenne, on tend vers 0 car l'énergie se conserve. Mais parler de compensation masque les mécanismes. Ce n'est pas l'esprit de dieu planant au dessus qui agit pour "compenser". L'atmosphère n'a à rien, mais alors strictement rien à battre de savoir si c'est le moment de "compenser" les anomalies, si c'est "ambitieux" de vouloir battre les records, si... L'atmosphère se contente d'être en équilibre énergétique. C'est juste un équilibrage de l'énergie dans le système. Et parler de compensation masque la réalité que le bilan énergie peut être bousculée, et donc qu'une évolution du climat est possible. La compensation, le coup du "il a fait trop froid / chaud / sec / humide / autre donc on va le payer" ne tient pas. La Terre est un système fondamentalement, absolument déterministe. La Terre est déterministe, elle est en équilibre. Traiter tout les processus de plus petites échelles comme du bruit (souvent rouge ou blanc) ne doit pas faire oublier que la moyenne est nulle, parce que ces bruits sont eux même le résultat d'un déterministe et d'un équilibre énergétique. On ne payera jamais cet Hiver très doux, et en tout les cas ce n'est pas parce que l'Hiver a été doux que l'Été sera fin pourri. Un orage est en équilibre, tout comme l'ENSO ou le rayonnement global. Pour autant l'orage est du bruit pour l'ENSO, l'ENSO est du bruit pour le climat global.

À l'état sauvage, certains éléphanteaux sont porteurs d'un gène qui prévient la formation des défenses. Les scientifiques ont constatés récemment que de plus en plus d'éléphanteaux naissaient porteurs de ce gène (ils n'auront pas de défenses devenus adultes). Comment expliquer cette situation

Comment expliquer cette situation ?

Cette situation est énigmatique et je suppose que la plupart de mes lecteurs ne sont pas biologistes, par conséquent, s'ils veulent proposer une réponse à ce problème, ils se fieront prioritairement à leur intuition. Il est probable que la majorité d'entre eux soit capable de proposer une ou plusieurs réponses spontanées. je fais le pari que beaucoup de ceux qui liront ces lignes proposeront un raisonnement du type de celui que développa une personne que j'interrogeais sur cette question : "Normalement, scientifiquement parlant, un être vivant quand il a, que ce soient des poils, des cornes ou n'importe quoi, ça sert à quelque chose, c'est utile. Donc quand c'est plus utile, ça change par mutation. Apparemment les éléphants n'ont plus vraiment besoin de leurs défenses comme avant. À quoi ça servait avant ? J'en ai aucune idée, peut-être pour se défendre. Là, ils peuvent vivre dans le cycle alimentaire et ils se défendent pas tout à fait, ça va. Ils peuvent avoir la nourriture tranquillement. Donc ils n'ont pas besoin de leurs défenses. On peut dire pareil, par exemple, pour les êtres humains. L'homme était poilu avant, puis, avec le temps, comme ils ont tué les autres animaux pour leur peau, pour leur cuir, ils l'ont porté. Après, avec le temps, ils ont eu une mutation, ils n'ont plus vraiment besoin de poils. Moins de poils qu'avant, parce qu'ils n'ont plus vraiment besoin de ces poils pour se chauffer."

Suivant un raisonnement plus sophistiqué, certains affirmeront peut-être, comme un autre interviewé : "Il y a une mutation génétique concernant les éléphants, à savoir que ça ne sert à rien d'avoir des défenses puisque de toute manière les hommes allaient les tuer et leur piquer. Donc du coup, ils ne naissent plus avec. Mais ça influe sur la génétique, c'est la peur d'être tué [...]. Comme c'est un danger pour eux-mêmes, ils veulent éviter d'être plus exposés à ce danger, et ainsi, en changeant le problème à sa source, ils peuvent éradiquer le danger."

En supposant que nombre de mes lecteurs imagineront des solutions proches de celles qui sont évoqués dans ces deux extraits d'entretien, je ne prend pas beaucoup de risques car elles dominèrent largement une enquête que je menais avec un groupe d'étudiants sur la réception du darwinisme en France. Cette recherche consistait à confronter soixante individus volontaires titulaires du baccalauréat (on s'assurait ainsi qu'ils avaient tous été familiarisés avec la théorie de Darwin, à un moment ou à un autre de leur scolarité) à l'énoncé de cette énigme.

La plupart optèrent pour une explication de finaliste soit en affirmant que les défenses des éléphants ne leur servaient plus, et que, devenues inutiles, elles tendaient à disparaitre, soit en soulignant que les chasseurs tuent les éléphants pour leurs défenses d'ivoire, et que leur disparition constitue donc une adaptation de l'espèce "éléphant" à leur environnement : les éléphanteaux muteraient pour se protéger de la convoitise des chasseurs. Contrairement à ce qu'affirmèrent nombre d'interviewés, il ne s'agit pas du tout d'une explication darwinienne. Les biologistes seraient déconcertés par une telle interprétation, cette situation, à vrai dire, n'est guère énigmatique pour eux. En fait ce mystère a été révélé et résolu par le professeur Zhang Li, zoologue à l'université de Pékin, qui a mené ses recherches depuis 1999 dans une réserve naturelle de la région du sud-ouest de Xishuangbanna (ça existe ça ? :lol2: ), où vivent les deux tiers des éléphants d'Asie chinois (la Chine est l'une des cent soixante nations qui ont signé un traité en 1989 interdisant le commerce de l'ivoire et des produits d'autres animaux en voie d'extinction ou menacés de l'être).

Les braconniers ne tuant pas les éléphants sans défenses (ceux-ci n'ont aucune valeur marchande pour eux), explique-t-il, ces mutants sont plus nombreux dans la population et le gène qui prévient la formation des défenses se propage parmi les éléphants. Alors que ce gène se trouve habituellement chez 2 à 5 % des éléphants d'Asie, on le trouve, à présent, chez 5 à 10 % de la population des éléphants chinois.

Cette "énigme", comme on le voit, peut être facilement résolu résolue si l'on mobilise le programme darwinien. Pourtant, assez peu d'individus sont capables de songer spontanément à ce type de solution, comme le montrent les résultats de l'enquête. En effet, le "finalisme" s'impose assez largement dans les discours alors que la solution darwiniennes reste en retrait. En effet, les scénarios finalistes représentent 43.3 % des évocations globales et concernent 72 % des interviewés. Le scénario darwinien, lui, représente 12.6 % seulement des évocations globales et concerne 27 % des interviewés.

Ces scénarios finalistes qui semblent si attractifs pour l'esprit ne peuvent prétendre au statut de proposition darwinienne, ils ne sont rien d'autre que les manifestations d'un lamarckisme implicite qui commande, sans que nous nous en rendions compte, notre représentation du monde du vivant et de son évolution.

Jean-Baptiste de Monet, chevalier de Lamarck, considère avec Darwin que les espèces n'étaient pas immuables comme l'affirmait la zoogonie biblique, mais sa théorie, contrairement à celle de Darwin, admettait que les êtres contenues dans toute vie, qui orientait l'évolution biologique. L'exemple emblématique de cette théorie étant l'idée que les girafes ont de longs cous parce que la force vitale le leur a allongé le leur a allongé puisque leur nourriture se trouve sur la cime des arbres. Cette adaptation acquise devient ensuite innée. Le milieu naturel aurait ici une influence, qui ne s'explique pas autrement que par l'intervention d'une hypothèse métaphysique : la force vitale, sur la structuration biologique des êtres. Darwin concevait, au contraire, l'évolution des espèces comme la conséquence d'un processus naturel de sélection qui permet la survie des individus les mieux adaptés. En d'autres termes, les individus ne s'adaptent pas biologiquement à leur environnement. S'ils survivent, c'est qu'ils sont, par le hasard des combinaisons génétiques, mieux adaptés que les autres. par exemple, dans cette théorie, les girafes n'ont pas vu subitement leur cou grandir, mais le hasard a fait que certaines avaient le cou plus long que d'autres. Celles-ci avaient plus de facilité pour se nourrir et donc se reproduire. Peu à peu, ou soudainement selon les cas, l'espèce la plus adaptée a vu son génotype se répandre, tandis que l'autre l'a vu s'éteindre.

Pourquoi le darwinisme est-il si contre-intuitif et le finalisme si attractif pour l'esprit ? C'est qu'un raisonnement implicite et captieux oriente nos intuitions en matière d'adaptation du monde vivant. Si l'on reprend l'exemple des éléphants, on peut le styliser de cette façon :

"Les scientifiques constatent qu'il y a de plus en plus d'éléphanteaux porteurs d'un gène qui prévient la formation des défenses. On peut en déduire qu'il y a de plus en plus d'éléphants sans défenses. Il se trouve que cette mutation, comme toute mutation, est très improbable en soi. On constate qu'elle est fonctionnelle puisqu'elle permet aux éléphanteaux de ne plus être abattus par les chasseurs. On peut toujours supposer que le hasard fait correspondre cette mutation et les services qu'elle rend à la population des éléphants, mais cela parait improbable. Dès lors, il faut bien qu'il y ait une force (vitale) qui fasse correspondre l'une (mutation) à l'autre (adaptation)."[/quote

Gérald Bronner, La pensée extrême

Je ne vous ai pas recopier la moitié d'un bouquin pour le plaisir :P Après qu'un mec du forum ai encore essayé de me soutenir que l'atmosphère compensé parce que, dixit "mais quand on a une onde de rossby y'a compensation entre les flux méridiens quand meme, d'un coté ça monte et de l'autre ça descend" - et parce que je suis buté sur le sujet quand même :lol2: -. C'est une explication finaliste comme l'histoire des girafes. Le fait que l'atmosphère ne compense que dalle. On constate un phénomène, alors on essaye de trouver une explication en adéquation, quitte à magouiller avec la physique. Dire que "l'atmosphère compense" c'est comme dire "les girafes ont allongé leur cou pour aller brouter la verdure". Cela fait peut être un peu bataille sémantique à ce niveau, mais les mots ont un sens et à ce niveau le sens des mots c'est aussi le sens qu'on donne aux sciences. Le choix des mots n'est donc pas juste une question sémantique... À toutes les échelles, l'atmosphère est en équilibre. Compenser, c'est une vision finaliste, c'est un mélange des causes et des conséquences. L'atmosphère n'a pas pour but que les descentes froides aillent de pair avec les remontées chaudes (par contre là c'est une question sémantique, la chaleur est associé à une remontée, et réciproquement. De là à y voir une symbole phallique XD ). L'explication, c'est l'équilibre énergétique de l'atmosphère.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant

×