Le principe de modélisation
Le terme modèle fait intuitivement référence au domaine informatique. Il est vrai que les modélisations actuelles sont tellement complexes qu'elles nécessitent de puissants moyens informatiques pour en venir à bout. Cependant, quelle que soit la complexité d'un GCM, il se construit toujours de la même façon, en 4 étapes fondamentales :
Etape 1 : mise en équations et contrainte du modèle
Cette première étape, la plus importante de toutes, est toujours scientifique et mathématique. Selon le domaine du modèle, il peut s'agir de physiciens, de chimistes, de biologistes. De nombreux mathématiciens sont mis à contribution. Il s'agit ici de répertorier les paramètres intervenants dans le phénomène à modéliser, et de déterminer leurs interactions. Pour un GCM sur l'atmosphère, par exemple, les équations sont bien connues et font appel à la mécanique des fluides. Des mesures précises (ballons sondes,...) peuvent éventuellement apporter des précisions et contraindre le modèle.
Etape 2 : traduction en langage informatique et maillage tridimensionnel
La seconde étape est une étape technique où les informaticiens et programmeurs entrent en scène. Elle se subdivise en deux parties complémentaires :
--> Les calculs sont tellement nombreux que l'outil informatique est indispensable. Les équations déterminées à la première étape sont donc traduites en langage informatique (généralement sous système UNIX). Ce programme va ensuite être introduit dans un supercalculateur (type Cray, IBM, NEC,...) seul capable d'effectuer plusieurs Gflops (1 Gigaflop = 1 milliard de calculs à la seconde). Même à cette vitesse, il faut généralement plusieurs dizaines d'heures pour obtenir une simulation de 50 ans à l'échelle globale.
--> Modéliser l'atmosphère ou l'océan revient à construire un modèle à trois dimensions (plus une autre pour le temps). Il convient donc de déterminer un maillage tridimensionnel de la zone étudiée. Dans le cas d'un GCM, la zone correspond au monde entier (d'où l'adjectif "général" ou l'appelation "modèle global"). Chaque dimension est découpée en unités de résolution (la plus petite unité de base pour les calculs, c'est-à-dire la précision spatiale et temporelle du modèle). Chaque "cube" ainsi dessiné (en fait un parallélépipède rectangle) correspond à une unité fonctionnelle en interaction avec les autres "cubes" adjacents. C'est ce que montre le document suivant : (A) correspond à la résolution horizontale, (B) = résolution verticale (atmosphère), (C) = résolution verticale (océans). Le découpage temporel est généralement l'année, mais les plus récents GCM descendent maintenant au mois.
(source images : Hadley Center) |
En réalité, chaque domaine (A, B et C) contient son propre modèle, voire plusieurs (nous y reviendrons plus loin). Globalement, on cherche à modéliser les échanges (chaleur ou molécules) entre cubes adjacents, verticalement et horizontalement. Selon les domaines, la complexité n'est pas la même :
(1) : échanges tridimensionnels atmosphériques de chaleur, humidité et de matière (courants atmosphériques).
(2) : c'est le domaine le plus complexe, comme on peut le voir dans l'agrandissement. On modélise les échanges de chaleur et d'humidité terres-atmosphère et
terres-océans, en tenant compte des glaces continentales, de l'orographie, du relief, de la couverture végétale, des capacités de stockage en eau et en chaleur des
sols,... sans oublier les effets anthropiques.
(3) : échanges tridimensionnels océaniques de chaleur, salinité et de matière (courants océaniques) par diffusion, convection, upwelling,...
Seulement, plus le maillage est serré (donc la résolution fine), plus la quantité de calculs augmente. Ainsi, c'est la puissance du supercalculatuer utilisé qui va conditionner le maillage. Par exemple, le GCM HadCM2 développé en 1995 par le Bureau météorologique de Grande-Bretagne (Hadley Center) du Royaume-Uni possède le maillage suivant : 2,5° en latitude, 3,75° en longitude, 19 niveaux atmosphériques et 20 niveaux océaniques, ce qui correspond à un découpage horizontal en rectangles de 417x278 km à l'équateur, réduits à 295x278 km à 45° de latitude. Le document suivant montre le découpage horizontal du GCM HadCM2 au niveau de l'Europe de l'Ouest. La France n'est représentée que par 5 ou 6 rectangles seulement.
(source images : Hadley Center) |
Etape 3 : Etablissement des paramétrisations
Le meilleur exemple de cette étape concerne les nuages. En effet, ils participent activement aux climats, mais la physique des nuages est mal connue, et ils sont trop petits pour la résolution définie à l'étape précédente. On utilise alors des observations pour réaliser une paramétrisation prenant en compte les nuages malgré la résolution adoptée dans le modèle.
Etape 4 : Validation du modèle
Cette dernière étape est cruciale, car elle va sanctionner favorablement ou non le travail de toute une équipe. Les principaux tests portent sur des simulations de phénomènes connus actuels ou passés avec confrontations des résultats aux valeurs réelles mesurées pour ces phénomènes : cycle saisonnier, extension de sglaces de mer, pente de la thermocline, signal El NiÑo,...
Les tests du GCM IPSL-CM4v1 (un des modèle les plus aboutit du moment) développé par l'Institut Pierre-Simon Laplace, France , montre par exemple une extension des glaces de mer un peu forte en hiver et un signal El NiÑo variable d'un épisode à l'autre, mais pouvant être attribué à un signal réel. Par contre, son point fort semble le cycle saisonnier du Pacifique Tropical. on le comprend tout de suite, aucun modèle n'est fiable sur tous les points de contrôle.
Une autre façon inédite et intéressante de tester la viabilité d'un GCM est de confronter ses simulations avec des données paléoclimatiques, comme dans les travaux de KAPLAN et al. (référence : « Climate change and Arctic ecosystems : modelling, paleodata-model comparisons and future projections » (J.O.Kaplan et al., Journal of geophysical research vol.108, NO. D19, 8171, 2003). Ici, des couples de modèles de biomes et de GCM ont été testés et confrontés aux données paléoclimatiques (pollens,...) de l'Holocène des régions arctiques. l'idée est simple : si un couple de modèle donne des simulations passées en accord (avec une certaine marge d'erreur malgré tout) avec des données paléoclimatiques reconnues, alors on peut estimer que ce couple peut être utilisé pour des simulations futures du phénomène étudié. Nous invitons toutes les personnes désireuses d'en savoir plus à lire cet article passionnant, c'est pourquoi nous le proposons ici (cliquez sur l'icône de gauche pour le lire) :
« Climate change and Arctic ecosystems : modelling, paleodata-model comparisons and future projections » (J.O.Kaplan et al., Journal of geophysical research vol.108, NO. D19, 8171, 2003) |