Aller au contenu
Les Forums de MeteoBelgique
williams

différence de données importantes entre 2 pages de la NOAA

Messages recommandés

Je constate qu'un mois après le site Nomad1 ( http://nomad1.ncep.noaa.gov/ ) n'a pas réouvert les pages où il y avait des données mensuelles ou journalières suivant la zone que l'on choisissais. J'ai donc regardé l'anomalie de la SST que j'avais relevé sur le site Nomad1 sur telle(s) zone(s) pour la comparer avec celle(s) qu'on peut calculer avec les données de la SST sur la même zone dans le site http://www.esrl.noaa.gov/psd/cgi-bin/data/.../timeseries1.pl Mais par surprise je trouve des différences très importantes entre ces 2 sites comme une anomalie de SST de 0,179°C que le site Nomad1 avait donnée pour janvier 2014 en latitude 34.5° à 38.3° puis longitude -6 à -1° alors qu'avec ESRL NOAA je trouve une anomalie de 1,267°C malgré que je me base sur la même période (1971-2000) que celle de Nomad1 pour faire le calcul puisque la moyenne de la SST sur cette période dans cette zone est de 8,285°C pour ESRL NOAA et en janvier 2014 la SST a été 9,552°C donc une anomalie de 1,088°C entre ces pages de la NOAA.

Avez vous une idée de cette si grande différence de l'anomalie de la SST alors que les données doivent venir des mêmes enregistrements (même bouées ou des mêmes satellites) ??

merci

Williams

Partager ce message


Lien à poster
Partager sur d’autres sites
Deux jours après personne aurait la réponse sur un forum avec tant de personnes ??

Merci

Williams

En ce qui me concerne, je ne saurai te répondre. A mon avis l'amis Paix est plus calé pour répondre à ce genre de questions. Tu peux toujours essayer de lui envoyer en MP.

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est ce que je viens de faire, car je suis surpris de ceci et que personne semble avoir la réponse.

Williams

Partager ce message


Lien à poster
Partager sur d’autres sites

Une semaine après avoir posé la question par MP à Paix je suis bien surpris de ne pas avoir eu de réponse :huh:

Williams

Partager ce message


Lien à poster
Partager sur d’autres sites

Ouais j'arrive... J'ai pas internet la semaine moi ^^

Partager ce message


Lien à poster
Partager sur d’autres sites

Il t'avais répondu dans le topic de l'hiver :

C'est bizarre cette histoire ^^ Je n'ai jamais utilisé le nomads1, il reprenaient bien les données de la réanalyse ? Est ce qu'il n'y auraient pas des problèmes d'interpolation ? Les données de la réanalyse ne sont disponible que sur une grille 2.5° et si la réanalyse marche bien pour de la grande échelle ( au moins 4 fois la grille donc au moins 10° soit ~ 1000km ) pour la petite échelle cela peut flotter un peu. Comme cela je ne saurais trop quoi dire.

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon on a répondu en même temps et complétement floodé le forum du coup XD

Partager ce message


Lien à poster
Partager sur d’autres sites
Ouais j'arrive... J'ai pas internet la semaine moi ^^

Je le sais c'est pour cela que j'ai attendu 8 jours et n'avais pas vu la réponse dans l'autres post.

C'est dommage que nomads1 ne fonctionne plus car il y avait bp de données aussi bien mensuelles que journalières suivant les coordonnées qu'on donnait.

A part http://www.esrl.noaa.gov/psd/cgi-bin/data/...es/printpage.pl quel site (lien) connaissez vous où on a différents choix de données numériques journalières et voir mensuelles (comme par exemple la couverture neigeuse, l'anomalie de la SST...) suivant les coordonnées qu'on donne car dans le site ESRL ce n'est pas journalière et il n'y a pas la couverture neigeuse ??

Merci

Williams

Modifié par williams

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci Paix, mais les données qu'on peut avoir ici sont en .nc et avec le logiciel HDF Explorer quand on regarde les données journalières c'est pas sous forme de liste (les unes sous les autres). De plus ce n'est pas une moyenne par jours de l'enneigement sur telle zone suivant les coordonnées mais plutôt la moyenne de l'enneigement tout les 1° sur la zone choisie pour chaque jours lors de chaque page. Donc avec les données comme ceci on ne peut pas calculer sur Excel le taux de l'accroissement de l'enneigement en Siberie si non il faudrait un temps fou pour mettre tout ces données sur Excel et encore cela ne rentrerait dans une page.

Il doit y avoir d'autres pages où en choisissant une zone (coordonnées) cela calcul pour chaque jours la moyenne de l'enneigement et nous les donne les unes sous les autres ??

Merci

Williams

Partager ce message


Lien à poster
Partager sur d’autres sites

Au fait la réanalyse c'est 2.5° par 2.5°. Vous n'aurez jamais 1° :whistling:

Partager ce message


Lien à poster
Partager sur d’autres sites

Par contre je suis aussi en train de me dire, j'oubliais mais demain je suis censé rendre visite à la vénérable grand-mère :lol2: Je vous le ferais je ne sais pas quand alors :blush: dès que je peux

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon je suis sur le script finalement :P mais comme le dit Mary Poppins, pour bien faire il faut bien commencer ^^ Je suppose que vous avez Windows ? Si tel est le cas vous pouvez chercher sur le site de R le fichier d'installation : http://www.r-project.org/

Un lien de téléchargement par exemple :

http://cran.cnr.berkeley.edu/bin/windows/b...R-3.1.2-win.exe

Vous installez, normalement cela se fait tout seul. Par la suite vous lancez R, et il y a un menu "Packages" :

post-3513-1416778071_thumb.jpg

Vous allez sur "Installer le(s) package(s)". Il vous demandera peut être (sûrement) quel site miroir CRAN vous souhaitez utiliser. Si vous ne savez pas lequel choisir, vous prenez la ville française que vous préférez entre Lyon, Montpellier, Strasbourg et Paris :lol2: cela n'a pas vraiment incident (si vous voulez l'étranger vous pouvez aussi d'ailleurs, en pratique cela n'a aucune incidence). Ensuite vous avez un menu pour choisir le package qui va bien, il faut choisir ncdf :

xOVXGG.jpg

Vous le laissez installer, et à la fin ce devrait être bon. Au cas où, vous tapez derrière la flèche rouge dans la fenêtre graphique :

require(ncdf,quietly=FALSE)

entrée, puis

create.ncdf

entrée. Si il vous répond un truc imbuvable écris en bleu qui commence par "function (filename, vars, verbose = FALSE)" c'est que c'est bon ^^

dIxS6G.jpg

Partager ce message


Lien à poster
Partager sur d’autres sites

Donc, vous avez installez R, et le package NCDF, mais en fait cela ne servira à rien :lol2: Je n'avais pas fait attention mais le NCEP/NCAR a changé son standard de format pour passer au NetCDF4 fin Octobre. Du coup avec les anciens fichiers déjà téléchargés sur l'ordinateur, cela marchait bien, mais en téléchargeant les nouveaux fichiers le script me faisait la gueule :lol2: Je suis encore au standard NetCDF3 sur la plupart des scripts et c'est vrai qu'il devient vraiment urgent que je me mette à jour :blush: Il faut donc récupérer le package ncdf4 pour que tout fonctionne correctement :

http://cirrus.ucsd.edu/~pierce/ncdf/

Pour un ordinateur 64 bits (dit aussi "Au bonheur des dames"...) le fichier est celui-ci normalement :

http://cirrus.ucsd.edu/~pierce/ncdf/win64/ncdf4_1.12.zip

(ce n'est pas par indiscrétion, mais vous avez bien un Windows 64 bits ? ^^ vista, 7 ou 8 ? )

Vous le téléchargez quelque part où vous être sûr de le retrouver ^^ Ensuite on revient sur R, et là vous cliquez sur "Installer le(s) package(s) depuis des fichiers zip".

iKpzqQ.jpg

Il vous ouvre une boîte de dialogue, vous cherchez le fichier zip sur votre ordinateur, et après tout se passe bien. Il doit vous dire dans la boîte de dialogue, en bleu, que l'installation s'est faite (sur R, quand c'est vous qui causez c'est écrit en rouge, quand c'est l'ordi qui cause c'est écrit en bleu). Au cas où, vous tapez :

require(ncdf,quietly=FALSE)

entrée

ncvar_get

entrée

et qu'il vous répond une grande tartine imbuvable qui commence par "function(" etc... c'est que tout va bien.

En aparté, pour ceux qui veulent savoir ce qu'est le package ncdf4 :

http://cran.r-project.org/web/packages/ncdf4/ncdf4.pdf

Avant d'attaquer le vif du sujet, il va falloir récupérer les fichiers nécessaires. Pour notre cas, le répertoire général est ici :

http://www.esrl.noaa.gov/psd/data/gridded/...2.gaussian.html

Ce sont tout les produits de la réanalyse disponible sur une grille gaussienne T62 (ce qu'est une grille gaussienne T62, à vrai dire, on s'en cogne ^^ )

Déjà, le masque de terre (rien à voir avec The Mask ^^ ). Il est là pour dire quelles cases sont de la terre ferme, et quelles casses sont de l'eau liquide :

http://www.esrl.noaa.gov/psd/data/gridded/...2.gaussian.html

Le lien direct vers le fichier ( lien ftp ):

ftp://ftp.cdc.noaa.gov/Datasets/ncep.rean...nd.sfc.gauss.nc

C'est pareil, ce genre de fichier vous en faites un double que vous gardez dans un coin sûr de votre disque dur et vous ne touchez pas à la sauvegarde ^^ D'expérience, cela peut toujours être utile d'avoir un double de pas mal de fichiers (et pas que XD ). Le fichier avec lequel vous travaillerez, et bien vous le laissez dans un répertoire de travail, qui ne soit pas perdu au fin fond de l'arborescence si possible ^^ Par exemple, disons que vous l'avez mis sur : C:/Users/Willy/Documents/Reanalysis/land.sfc.gauss.nc

Ensuite, il nous faut le fichier de l'enneigement :

http://www.esrl.noaa.gov/psd/cgi-bin/db_se...37&vid=1527

Pour l'année 2014, le fichier est :

ftp://ftp.cdc.noaa.gov/Datasets/ncep.rean...c.gauss.2014.nc

Ensuite, le code :

require(ncdf4,quietly=FALSE)
poids<-matrix(c(224095.854314467,492538.796783404,773584.907511655,1053822.65573681,1332617.
85474423,1610161.23427326,1886144.33531172,2159054.48055724,2430713.19340885,2699
155.32453088,2964615.47666639,3226800.37414194,3485420.35972736,3741204.74566625,
3990892.20865072,4237119.27982778,4479872.35617611,4715324.72634605,4946712.01236
171,5174021.43103811,5394343.13865042,5607202.45527109,5815254.22159099,6018486.9
436155,6211911.52796999,6400026.7768762,6582822.29774918,6756685.57142179,6921242
.0119895,7079902.90714398,7232659.49153084,7373629.2396782,7508331.61448516,76367
59.17420566,7754791.4663803,7862174.19214511,7962891.19194403,8056936.90158182,81
39999.07154974,8211898.74560562,8276852.03608894,8334855.35460055,8379275.6231622
1,8416619.31833115,8446884.37702376,8465607.39821291,8472748.04342043,8472748.043
42055,8465607.39821279,8446884.37702376,8416619.31833124,8379275.62316215,8334855
.35460049,8276852.03608906,8211898.74560559,8139999.07154971,8056936.90158182,796
2891.19194412,7862174.19214505,7754791.46638024,7636759.17420566,7508331.6144852,
7373629.23967826,7232659.49153078,7079902.90714401,6921242.01198959,6756685.57142
156,6582822.29774934,6400026.77687621,6211911.52797002,6018486.94361532,5815254.2
21591,5607202.45527124,5394343.13865042,5174021.43103796,4946712.01236182,4715324
.72634596,4479872.3561762,4237119.27982765,3990892.20865077,3741204.74566621,3485
420.3597275,3226800.37414187,2964615.47666633,2699155.32453096,2430713.19340885,2
159054.4805572,1886144.33531177,1610161.23427326,1332617.8547442,1053822.6557368,
773584.907511711,492538.796783388,224095.854314446),nrow=94,ncol=1)
Longitude_min<-1
Longitude_max<-192
Latitude_min<-1
Latitude_max<-94
Time_min<-1
Time_max<-323
File_Snow<-nc_open(filename="C:/Users/Willy/Documents/Reanalysis/weasd.sfc.gauss.2014.nc",write=FALSE, readunlim=TRUE, verbose=FALSE,auto_GMT=TRUE, suppress_dimvals=FALSE )
File_Mask<-nc_open(filename="C:/Users/Willy/Documents/Reanalysis/land.sfc.gauss.nc",write=FALSE, readunlim=TRUE, verbose=FALSE,auto_GMT=TRUE, suppress_dimvals=FALSE )
Snow_extent<-matrix(c(0),nrow=366,ncol=1)
for(TeaTime in Time_min:Time_max)
{
    SnowCover<-matrix(c(0),nrow=94,ncol=192)
    for(Latitude in Latitude_min:Latitude_max)
    {
        for(Longitude in Longitude_min:Longitude_max)
        {
            Raw_SnowCover<-ncvar_get(File_Snow,varid="weasd",start=matrix(c(Longitude,Latitude,TeaTime)),count=matrix(c(1,1,1)))
            Land_Mask<-ncvar_get(File_Mask,varid="land",start=matrix(c(Longitude,Latitude,1)),count=matrix(c(1,1,1)))
            if(Raw_SnowCover>0)
            {
                SnowCover[Latitude,Longitude]<-poids[Latitude,1]*(1/192)*Land_Mask
            }
        }
    }
    Snow_extent[TeaTime,1]<-sum(SnowCover)
}
write.csv(Snow_extent,file="C:/Users/Willy/Documents/Reanalysis/Snow.csv")

Vous faites un copiez / coller, à tout hasard dans C:/Users/Willy/Documents/Reanalysis/Snow_Code.r

Et c'est pareil, ce genre de fichier, vous en faites une copie mise en sureté quelque part, ou cas où... Vous allez être amener à modifier un (tout) petit peu le fichier, mais vu qu'on a vite fait de tout faire foirer, il vaut mieux prendre ces précautions (et je parle d'expérience XD )

L'extension du fichier doit bien être

.r

pour indiquer que c'est un script de R. Bon dans l'absolu chuis pas sûr que cela change beaucoup l'extension pour ce cas là, mais on va essayer de faire un truc propre quand même ^^

Maintenons, allons-y pour disséquer un peu le code.

require(ncdf4,quietly=FALSE)

La ligne dit à R de charger le package ncdf4. C'est avec lui qu'on va travailler, autant ne pas l'oublier dès le début donc...

poids<-matrix(c(224095.854314467,492538.796783404,773584.907511655,1053822.65573681,1332617.
85474423,1610161.23427326,1886144.33531172,2159054.48055724,2430713.19340885,2699
155.32453088,2964615.47666639,3226800.37414194,3485420.35972736,3741204.74566625,
3990892.20865072,4237119.27982778,4479872.35617611,4715324.72634605,4946712.01236
171,5174021.43103811,5394343.13865042,5607202.45527109,5815254.22159099,6018486.9
436155,6211911.52796999,6400026.7768762,6582822.29774918,6756685.57142179,6921242
.0119895,7079902.90714398,7232659.49153084,7373629.2396782,7508331.61448516,76367
59.17420566,7754791.4663803,7862174.19214511,7962891.19194403,8056936.90158182,81
39999.07154974,8211898.74560562,8276852.03608894,8334855.35460055,8379275.6231622
1,8416619.31833115,8446884.37702376,8465607.39821291,8472748.04342043,8472748.043
42055,8465607.39821279,8446884.37702376,8416619.31833124,8379275.62316215,8334855
.35460049,8276852.03608906,8211898.74560559,8139999.07154971,8056936.90158182,796
2891.19194412,7862174.19214505,7754791.46638024,7636759.17420566,7508331.6144852,
7373629.23967826,7232659.49153078,7079902.90714401,6921242.01198959,6756685.57142
156,6582822.29774934,6400026.77687621,6211911.52797002,6018486.94361532,5815254.2
21591,5607202.45527124,5394343.13865042,5174021.43103796,4946712.01236182,4715324
.72634596,4479872.3561762,4237119.27982765,3990892.20865077,3741204.74566621,3485
420.3597275,3226800.37414187,2964615.47666633,2699155.32453096,2430713.19340885,2
159054.4805572,1886144.33531177,1610161.23427326,1332617.8547442,1053822.6557368,
773584.907511711,492538.796783388,224095.854314446),nrow=94,ncol=1)

Et bam dans ta gueule... C'est la matrice qui dit la superficie de chaque latitude de la grille en fait. Si certains veulent recompter. Pour l’anecdote, la superficie de "ma" Terre fait 509 880 000 km² de mémoire, il n'y a donc pas tout à fait le compte. La superficie de la Terre est de 510 070 000 km² normalement un peu près, cela dépend aussi à qui vous demandez : https://www.google.fr/search?q=superficie+terrestre Mais l'erreur reste faible. Après, je ne prétends pas avoir la meilleure solution, si quelqu'un a une meilleure matrice de pondération pour une grille T62, faut pas se gêner bien sûr ;)

Longitude_min<-1
Longitude_max<-192
Latitude_min<-1
Latitude_max<-94
Time_min<-1
Time_max<-323

C'est ici qu'il faut rentrer les valeurs que vous voulez. Alors ce n'est pas juste une petite case où vous rentrez vos coordonnées ^^ mais c'est presque tout comme. La différence essentielle et sensible, c’est qu'il faut donner un INDICE pour les latitudes et longitudes et non pas la VALEUR. Je m'explique... Pour R, lorsqu'il lit les fichiers, il lit case par case. Première case, deuxième case, etc... il ne sait pas que la première case c'est 88.542°N et 0°E par exemple. Il faut donc lui parler en terme de première case, deuxième case, etc... et non pas en terme de longitudes - latitudes - jour de l'année. Je vous ai donc préparer ce petit tableau qui donne les indices pour chaque longitudes et latitudes :

http://www.climatvisu.fr/Donnees_brutes/grille_gausienne.ods

Là aussi, ce fichier vous en faites un double ^^ c'est toujours utile aussi ce genre de fichier.

Et pour les jours,si vous ne savez pas, en cherchant sur Internet vous avez le rang de chaque jour. À l'époque Maxous le donnait dans les observations, mais depuis je ne sais pas ce qu'il est devenu ? Sur Wikipedia par exemple, vous apprendrez que le 12 Octobre est le 286ème jour de l'an ^^ http://fr.wikipedia.org/wiki/12_octobre

Par contre, l'interpolation vous pouvez oublier :whistling: Prendre les valeurs de la grille suffira largement en précision, et je n'ai pas envie de me casser la tête à faire un script de 15000 lignes pour calculer entre 37°8 et 42°3 Est ^^ De manière concrète donc, si vous voulez calculer l'enneigement entre 60°E et 160°E et au Nord de 40°N pour le 12 Octobre, vous mettrez les indices Longitude_min à 33, Longitude_max à 86, Latitude_min à 26, Latitude_max à 92, Time_min à 286 et Time_max à 286.

File_Snow<-nc_open(filename="C:/Users/Willy/Documents/Reanalysis/weasd.sfc.gauss.2014.nc",write=FALSE, readunlim=TRUE, verbose=FALSE,auto_GMT=TRUE, suppress_dimvals=FALSE )
File_Mask<-nc_open(filename="C:/Users/Willy/Documents/Reanalysis/land.sfc.gauss.nc",write=FALSE, readunlim=TRUE, verbose=FALSE,auto_GMT=TRUE, suppress_dimvals=FALSE )

Ces lignes permettent d'ouvrir les deux fichiers qui seront utilisés pour les calculs. Le point surtout à vérifier est le filename. Il faut évidement mettre le chemin exact des fichiers sur votre bécane. Par défaut je l'ai mis dans le dossier Reanalysis des Documents de Willy :P mais faites comme chez vous bien sûr, c'est votre bécane. Pour les autres options, on s'en fout un peu. Il y a truc pour demander à l'ordi de ne pas être trop bavard (verbose=FALSE) par exemple, etc... mais bon c'est sans importance

Ce seront les seules modif's que vous aurez à faire au fichier. Si vous avez des doutes n'hésitez pas à demander ;)

Snow_extent<-matrix(c(0),nrow=366,ncol=1)

Création de la matrice où seront écrit les résultats

for(TeaTime in Time_min:Time_max)
{
    SnowCover<-matrix(c(0),nrow=94,ncol=192)
    for(Latitude in Latitude_min:Latitude_max)
    {
        for(Longitude in Longitude_min:Longitude_max)
        {

Ce sont les boucles d'itérations successives. D'abord sur le temps, puis la latitude, puis la longitude

            Raw_SnowCover<-ncvar_get(File_Snow,varid="weasd",start=matrix(c(Longitude,Latitude,TeaTime)),count=matrix(c(1,1,1)))
            Land_Mask<-ncvar_get(File_Mask,varid="land",start=matrix(c(Longitude,Latitude,1)),count=matrix(c(1,1,1)))
            if(Raw_SnowCover>0)
            {
                SnowCover[Latitude,Longitude]<-poids[Latitude,1]*(1/192)*Land_Mask
            }

Ce sont les calculs de superficie à proprement parler. On sort l'information sur savoir si c'est de la terre ou de la mer ( variable Land_Mask) et on sort l'information sur la couverture neigeuse ( variable Raw_SnowCover ). En gros la fonction appelle le fichier qu'on vient d'ouvrir pour le lire depuis une matrice de début (start =) et sur un intervalle donné (count= -là aussi rien à voir avec un certain Quentin ^^ ). La superifice est calculée pour chaque point de grille et est écrite dans la matrice SnowCover. Cette matrice est donc la "carte" de l'enneigement du jour donné par TeaTime.

            }
        }
    }

On sort des itérations

    Snow_extent[TeaTime,1]<-sum(SnowCover)
}

On somme les superficies sur la "carte" (sum de SnowCover) puis on écrit le résultat dans une table qui est Snow_Extent

write.csv(Snow_extent,file="C:/Users/Willy/Documents/Reanalysis/Snow.csv")

On écrit la table dans un fichier de sortie. Là aussi vous aurez sans doute à modifier le répertoire de sortie. Le script enverra à nouveau vers le dossier Reanalysis des Documents de Willy ^^

Et voila, vous ouvrez le fichier CSV et vous pouvez les travaillez au corps. J'ai vérifié fissa le script, il a l'air d'être viable (il ne plante et ne donne pas de résultats aberrants a priori) mais je ne garantis rien moi :D Clause de non responsabilité et toussa ^^ non mais si vous pouvez tester un peu aussi et comparez pour l'HN aux données de l'université de Rutgers : http://climate.rutgers.edu/snowcover/ Vu la précision de la grille et toutes les approximations du script, c'est normal que cela diverge ( verge ^^ mais là nous ne sommes plus au 64 bits, au Bonheur des dames XD ami des blagues douteuses, bonsoir :whistling: ) enfin bref c'est normal que cela diverge un peu mais si vous avez 10 millions de km² dans la vue n'hésitez pas à venir râlez ici même ^^ Je tenterais aussi de le faire pour m'assurer de la fiabilité du script.

Bon après pour lancer le script vous avez deux méthodes. La méthode paix, dites aussi du gros bourrin, vous copiez coller dans R et vous le laissez se démerder ^^ faut juste penser à appuyer sur entrée à la fin. Soit vous êtes un homme civilisé qui entretenait de bons rapports avec R, et vous faites un petit :

source(file="C:/Users/Willy/Documents/Reanalysis/Snow_Code.r")

entrée

L'avantage de copier / coller, même si après c'est un peu le bazar dans R, est d'avoir directement l'erreur qui s'affiche quand une ligne part en choup. Cela facilite la correction du script je trouve, c'est plus visuel et plus direct. L'avantage de sourcer le script, c'est que visuellement c'est plus propre ^^

Enfin bref voila, j'ai tenté de faire aussi simple que possible, j'espère que je n'ai perdu personne :blush: Le script prend pas mal de temps à mouliner. Déjà on itère sur toutes les latitudes / longitudes, donc cela pompe sévère les ressources de l'ordinateur. Faudrait voir si il n'y a pas moyen de faire mieux, en évitant les itérations dans les itérations, mais comme cela je ne sais pas trop. Le fichier neige donne l'épaisseur de neige, pas une valeur binaire 1 / 0. Donc on ne peut pas tenter la méthode "je taille dans le tas" en multipliant directement la matrice brute par la matrice de la superficie, ce qui économiserait énormément de temps de calcul. Si j'ai une idée de génie un jour je vous le ferais savoir ^^ L'autre raison, c'est que de toute façon on n'est pas le NCEP/NCAR et que nous n'avons pas de supercalculateurs à notre disposition de toute façon. Si vous avez des angoisses, des questions existentielles, ou autre, n'hésitez pas.

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites
(ce n'est pas par indiscrétion, mais vous avez bien un Windows 64 bits ? ^^ vista, 7 ou 8 ? )

Non j'ai Window XP Edition Familiale 2002.

J'aurais cru que pour avoir ces données que cela soit plus simple comme pour les autres données c'est le cas dans les pages de NOAA :huh:

Je vais tout de même tenter ces prochains jours.

merci

Williams

Partager ce message


Lien à poster
Partager sur d’autres sites

De la part de paix ;) " A un moment il faut remplacer le chemin du répertoire. Le problème c'est qu'il faut mettre des slashs au lieu des back slashs comme sur windows. "

Partager ce message


Lien à poster
Partager sur d’autres sites

Ouaip c'est le truc bête mais R n'aime pas le back slash " \ " de Windows. La vraie question c'est surtout de savoir pourquoi Windows casse les bonbons avec son backslash... Il faut donc écrire : C:/Documents and Settings/ et non C:\Documents and Settings\

Pour XP savez-vous que le système d'exploitation n'est plus à jour ? :whistling: Après cela reste une bonne bête je ne dis pas, je continue encore à l'utiliser parfois, mais pour aller sur Internet ce n'est pas très recommandé ^^

Sinon pour faire un peu plus propre, vous mieux remplacer la ligne poids vec la matrice des données par :

poids<-as.matrix(read.csv(file="/home/aslan/Bureau/poids.csv",sep="",header=FALSE))

en remplaçant le file= par le chemin sur votre dur vers ce fichier : http://www.climatvisu.fr/Donnees_brutes/poids.csv

Vu comment le code s'affiche sur MB chuis pas sûr que cela marche le code que je vous ai passé :lol2: c'est plus propre d'avoir la matrice du poids de chaque latitude dans un fichier externe.

Partager ce message


Lien à poster
Partager sur d’autres sites

Tenez, à l'époque ce site avait été conçu pour donner la prévi en strato de l'ensembliste à Cirus :

http://www.climatvisu.fr

Bon du coup j'ai un peu étoffé :lol2: Mais je vous ai rajouté un truc de calcul de l'enneigement :

http://www.climatvisu.fr/Sortie_GFS/201412...Z/neige_out.txt

C'est l'enneigement total du monde, inclus l'Antarctique et le Groenland. Par contre, le truc ballot, c'est que le NCEP NCAR n'a pas mis à jour le fichier depuis fin Juin. Je vais leur écrire pour leur demander pourquoi. Sinon on verra. Mais si j'arrive à récupérer les données, comme je crois savoir que vous rechercher une information spécifique sur l'enneigement sibérien, je peux vous rajouter cela à l'occasion ;) Faudra juste me dire dans quelle boîte vous voulez que je calcule :whistling:

Modifié par paix

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant

×