Faire la pluie et le beau temps!
Quelle magnifique expression!
En météorologie, faire la pluie et le beau temps, n'est pas vraiment ce que désigne cette belle expression populaire, c'est à dire être très puissant, décider de tout.
Maîtriser le temps reste sûrement un fantasme largement répandu, avoir la toute puissance pour décider du temps qu'il fera.
Mais si les météorologues, amateurs ou professionnels, ont bien du mal à faire la pluie et le beau temps dans leur domaine, c'est que les données influant sur notre temps sont immensément nombreuses et compliquées.
Cependant, comment procèdent-ils? Quels sont leurs outils?
1) L'informatique
L'informatique est aujourd'hui le moyen le plus utilisé. Avec son perfectionnement, la fiabilité a beaucoup augmenté.
Les satellites, les ballons-sondes, les stations-météo, les bouées météo renvoient chacun des milliers de données aux programmes informatiques qui les analysent en modelisant: ce qui nous donnent les modèles.
Un modèle est donc un vaste programme informatique qui simule l'évolution future de l'atmosphère. Il en résulte des cartes thématiques ( vents, températures au sol, humidité, pression ) pour différentes échéances. Chaque simulation est remplacée ( réactualisée) par une autre plusieurs fois par jour le plus souvent. Ces réactualisations sont appelées des runs.
Ce sont les prévisionnistes qui interprètent ces cartes de modèles pour "traduire" au grand public ce qui risque de se passer.
Richardson fut le premier homo sapiens a essayer de calculer à la main des équations...en 1916. Des semaines de calcul pour une prévision à 6 heures qui se révèla fausse.
1946, premier outil électronique: l'ENIAC. 1000 opérations à la minute.
2001, le Fujitsu utilisé chez Météo-France produit 300 milliards d'opérations à la seconde.
2) Concrètement, comment fonctionnent ces ordinateurs?
Un modèle découpe l'atmosphère en millions de petits cubes tant horizontalement que verticalement. On les appelera des points ou des mailles. Chacun de ces points prévoit l'évolution des paramètres comme le vent, l'humidité...
Pour un maillage 2 fois plus précis qu'un autre, il faut 16 fois plus de calculs.
En fait, les équations de base sont relativement peu complexes ( hydrodynamique et thermodynamique) mais tout évènement plus petit que la maille tel le nuage, les pluies, la couche de neige, présence d'océan ou de végétation etc... rend la tâche plus complexe.
Ainsi, certains modèles sont plus précis que d'autres pour certaines régions alors que d'autres les dépassent dans d'autres régions ou pour tel ou tel type de temps.
GFS, UKMO, ECMWF, BOLAM, ARPEGE ( Météo-France ), GEM, GME, NOGAPS, JMA etc... sont autant de modèles, de nationalités différentes, à mailles plus ou moins fines qui sont utilisés.
L'excellent dossier d'infoclimat vous les décrira mieux que moi: Modèles numériques
3) Arpège, un exemple de modèle
IFS-Arpège est le modèle de Météo-France. Il comporte plusieurs centaines de milliers de lignes de programme.
Un pas de temps prévu = 15 minutes.
Il se représente l'atmosphère sur une grille de 20 millions de points. Il y a en fait 300 000 points au sol espacé d'environs 40 km X 60 niveaux en altitude ( jusqu'à 70 km d'alttude ).
Pour une prévisions à 10 jours, il y a 960 pas de temps. (4 X 24 X 10)
Les 20 millions de points sont recalculés 960 fois pour arriver à une prévision à 10 jours.
Plus l'ordinateur sera puissant, plus il tiendra compte du relief.
4) Quels satellites sont utilisés?
Les satellites géostationnaires: on utilise leurs images à la télé lors de la météo. Ils sont à 36000 km d'altitude et ne bouent pas par rapport au sol. Ils suivent la rotation de la terre. Très pratique pour surveiller l'évolution des nuages comme lors des orages.
Les satellites à défilement tournent plus vite et plus bas. Plus précis, mais passent au dessus du même endroit que 2 fois par jour.
Mais les satellites ne suffisent pas à faire une prévision. Il faut pour cela aussi connaître l'état actuel de l'atmosphère. Cela se fait grâce aux stations-météo et aux ballons-sondes.
En fait, les satellites sont pratiques seulement depuis quelques années car plus perfectionnés. Mais aussi parce qu'ils couvrent des endroits où il n'y a pas ou peu de Station ou de lancers de ballons-sondes comme les déserts. Idem, dans les océans, la rareté des bouées météo est palliée par les satellites.
Ces raretés dans certaines régions du globe expliquent en partie les erreurs de prévision. car les satellites ne suffisent à l'évidence toujours pas.
Mais notons que grâce à eux, on peut obtenir différents types de mesure comme l'imagerie infrarouge, la radiométrie des ondes, le radar-diffusomètre permettant de mesurer la hauteur des vagues, le vent dans les océans, etc...
5) La fiabilité des prévisions
Une chose est sure, les prévisions ne cessent d'être meilleures.
La prévision effectuée à 72h est presque aussi bonne que celle effectuée à 24h en 1980.
Comme je l'ai déjà dit plus haut, la rareté des mesures dans les océans et déserts, ainsi que dans les pays pauvres, sont une partie des causes des erreurs.
Mais les modèles ne sont pas encore assez précis de toute façon. Les plus fins, qui ont des mailles de 20km, ne peuvent pas repérer précisément les masses nuageuses plus petites, des reliefs plus petits ne sont pas bien pris en compte, etc...
Pour calculer la fiabilité, au niveau des températures, une différence de moins de 2° entre prévision et réalité est considérée comme une bonne prévision.
Pour les pluies, on ne calcule pas la quantité tombée mais l'occurence.
A l'échelle du département, les températures minimales et maximales ont 76% de bonnes prévisions.
Les précipitations, 89% de bonnes prévisions.
A l'échelle d'un huitième de la France, à J+1, la fiabilité de prévision est de 96%, à J+2, 93%, à J+3, 70%.
On accepte une erreur de 100km sur la position d'une zone de pluies, ou de quelques heures de retard. Pour les températures, il faut moins de 3 à 4° d'erreur.
Sources:MF
6) La prévision saisonnière:
Pour les semaines et les mois à venir.
Le temps étant influencé par les les océans et leur température, et ceux-ci ayant une inertie très forte, plus que l'atmosphère, leurs mouvement et température sont prévisibles longtemps à l'avance.
Grâce à des modèles climatiques, on arrive à prévoie le type de temps moyen dans telle région du globe avec telle ou telle configuration dans les océans et les airs.
Mais c'est très peu fiable.
Seules les régions intertropicales et la région sur le pourtour du Pacifique, plus stables, ou sujettes à el Niño sont plus faciles à appréhender.
Le grand public ne s'en sert pas, mais de nombreux Etats et nombreuses entreprises s'y intéressent pour prévoir les besoins énergétiques ou les rendements agricoles par exemple.
7) Petite histoire
Les faiseurs de pluie et prophètes du temps iront au bûcher! C'est une loi anglaise de 1677 qui disait cela.
Loi abrogée en 1959.
Quelle magnifique expression!
En météorologie, faire la pluie et le beau temps, n'est pas vraiment ce que désigne cette belle expression populaire, c'est à dire être très puissant, décider de tout.
Maîtriser le temps reste sûrement un fantasme largement répandu, avoir la toute puissance pour décider du temps qu'il fera.
Mais si les météorologues, amateurs ou professionnels, ont bien du mal à faire la pluie et le beau temps dans leur domaine, c'est que les données influant sur notre temps sont immensément nombreuses et compliquées.
Cependant, comment procèdent-ils? Quels sont leurs outils?
1) L'informatique
L'informatique est aujourd'hui le moyen le plus utilisé. Avec son perfectionnement, la fiabilité a beaucoup augmenté.
Les satellites, les ballons-sondes, les stations-météo, les bouées météo renvoient chacun des milliers de données aux programmes informatiques qui les analysent en modelisant: ce qui nous donnent les modèles.
Un modèle est donc un vaste programme informatique qui simule l'évolution future de l'atmosphère. Il en résulte des cartes thématiques ( vents, températures au sol, humidité, pression ) pour différentes échéances. Chaque simulation est remplacée ( réactualisée) par une autre plusieurs fois par jour le plus souvent. Ces réactualisations sont appelées des runs.
Ce sont les prévisionnistes qui interprètent ces cartes de modèles pour "traduire" au grand public ce qui risque de se passer.
Richardson fut le premier homo sapiens a essayer de calculer à la main des équations...en 1916. Des semaines de calcul pour une prévision à 6 heures qui se révèla fausse.
1946, premier outil électronique: l'ENIAC. 1000 opérations à la minute.
2001, le Fujitsu utilisé chez Météo-France produit 300 milliards d'opérations à la seconde.
2) Concrètement, comment fonctionnent ces ordinateurs?
Un modèle découpe l'atmosphère en millions de petits cubes tant horizontalement que verticalement. On les appelera des points ou des mailles. Chacun de ces points prévoit l'évolution des paramètres comme le vent, l'humidité...
Pour un maillage 2 fois plus précis qu'un autre, il faut 16 fois plus de calculs.
En fait, les équations de base sont relativement peu complexes ( hydrodynamique et thermodynamique) mais tout évènement plus petit que la maille tel le nuage, les pluies, la couche de neige, présence d'océan ou de végétation etc... rend la tâche plus complexe.
Ainsi, certains modèles sont plus précis que d'autres pour certaines régions alors que d'autres les dépassent dans d'autres régions ou pour tel ou tel type de temps.
GFS, UKMO, ECMWF, BOLAM, ARPEGE ( Météo-France ), GEM, GME, NOGAPS, JMA etc... sont autant de modèles, de nationalités différentes, à mailles plus ou moins fines qui sont utilisés.
L'excellent dossier d'infoclimat vous les décrira mieux que moi: Modèles numériques
3) Arpège, un exemple de modèle
IFS-Arpège est le modèle de Météo-France. Il comporte plusieurs centaines de milliers de lignes de programme.
Un pas de temps prévu = 15 minutes.
Il se représente l'atmosphère sur une grille de 20 millions de points. Il y a en fait 300 000 points au sol espacé d'environs 40 km X 60 niveaux en altitude ( jusqu'à 70 km d'alttude ).
Pour une prévisions à 10 jours, il y a 960 pas de temps. (4 X 24 X 10)
Les 20 millions de points sont recalculés 960 fois pour arriver à une prévision à 10 jours.
Plus l'ordinateur sera puissant, plus il tiendra compte du relief.
4) Quels satellites sont utilisés?
Les satellites géostationnaires: on utilise leurs images à la télé lors de la météo. Ils sont à 36000 km d'altitude et ne bouent pas par rapport au sol. Ils suivent la rotation de la terre. Très pratique pour surveiller l'évolution des nuages comme lors des orages.
Les satellites à défilement tournent plus vite et plus bas. Plus précis, mais passent au dessus du même endroit que 2 fois par jour.
Mais les satellites ne suffisent pas à faire une prévision. Il faut pour cela aussi connaître l'état actuel de l'atmosphère. Cela se fait grâce aux stations-météo et aux ballons-sondes.
En fait, les satellites sont pratiques seulement depuis quelques années car plus perfectionnés. Mais aussi parce qu'ils couvrent des endroits où il n'y a pas ou peu de Station ou de lancers de ballons-sondes comme les déserts. Idem, dans les océans, la rareté des bouées météo est palliée par les satellites.
Ces raretés dans certaines régions du globe expliquent en partie les erreurs de prévision. car les satellites ne suffisent à l'évidence toujours pas.
Mais notons que grâce à eux, on peut obtenir différents types de mesure comme l'imagerie infrarouge, la radiométrie des ondes, le radar-diffusomètre permettant de mesurer la hauteur des vagues, le vent dans les océans, etc...
5) La fiabilité des prévisions
Une chose est sure, les prévisions ne cessent d'être meilleures.
La prévision effectuée à 72h est presque aussi bonne que celle effectuée à 24h en 1980.
Comme je l'ai déjà dit plus haut, la rareté des mesures dans les océans et déserts, ainsi que dans les pays pauvres, sont une partie des causes des erreurs.
Mais les modèles ne sont pas encore assez précis de toute façon. Les plus fins, qui ont des mailles de 20km, ne peuvent pas repérer précisément les masses nuageuses plus petites, des reliefs plus petits ne sont pas bien pris en compte, etc...
Pour calculer la fiabilité, au niveau des températures, une différence de moins de 2° entre prévision et réalité est considérée comme une bonne prévision.
Pour les pluies, on ne calcule pas la quantité tombée mais l'occurence.
A l'échelle du département, les températures minimales et maximales ont 76% de bonnes prévisions.
Les précipitations, 89% de bonnes prévisions.
A l'échelle d'un huitième de la France, à J+1, la fiabilité de prévision est de 96%, à J+2, 93%, à J+3, 70%.
On accepte une erreur de 100km sur la position d'une zone de pluies, ou de quelques heures de retard. Pour les températures, il faut moins de 3 à 4° d'erreur.
Sources:MF
6) La prévision saisonnière:
Pour les semaines et les mois à venir.
Le temps étant influencé par les les océans et leur température, et ceux-ci ayant une inertie très forte, plus que l'atmosphère, leurs mouvement et température sont prévisibles longtemps à l'avance.
Grâce à des modèles climatiques, on arrive à prévoie le type de temps moyen dans telle région du globe avec telle ou telle configuration dans les océans et les airs.
Mais c'est très peu fiable.
Seules les régions intertropicales et la région sur le pourtour du Pacifique, plus stables, ou sujettes à el Niño sont plus faciles à appréhender.
Le grand public ne s'en sert pas, mais de nombreux Etats et nombreuses entreprises s'y intéressent pour prévoir les besoins énergétiques ou les rendements agricoles par exemple.
7) Petite histoire
Les faiseurs de pluie et prophètes du temps iront au bûcher! C'est une loi anglaise de 1677 qui disait cela.
Loi abrogée en 1959.
inscrit le 25/05/04
14K messages