
\def\mescite#1{{\bf\cite{#1}}}

\input{enteteb}
%         \def\part#1{\centerline{\LARGE\bf #1 }\bigskip}


\begin{document}
\def\publi{\medskip{\bf Publucation associée:}}
\def\htexplo{\texttt{htexplo}}







\title{
Centre National de la Recherche Scientifique
Section 19\\
\bigskip
{\LARGE Rapport d'activité à 5 ans}
\author{{\LARGE\bf Frédéric Hourdin}
\date{\today}}
}



\maketitle


\tableofcontents

\newpage



\section{Curriculum Vitae abrégé}
{\large

{\flushleft
Frédéric Hourdin\\

Né le 21 Février 1966\\
}


\begin{description}

\item[1985-1988 :] Ecole Polytechnique

\item[1988-1989 :] DEA d'astrophysique à Meudon (Paris-7, major, mention TB)

\item[1989-1992 :] Thèse de l'université Paris-7 (Très honorable avec félicitations).\\
Sujet: Etude et simulation numérique de la circulation générale des atmosphères
planétaires.\\
Laboratoire : Laboratoire de Météorologie Dynamique\\
Directeur: Olivier Talagrand

\item[1992-1994 :] Post-doc CNES au  Laboratoire de Météorologie Dynamique incluant deux séjours de 5 semaines à NASA-Ames (Californie, USA) et à 
l'Université d'Oxford (Grande Bretagne).

\item[1993 :]  Obtention du prix Guinier, jeune chercheur,
 de la Société Française de Physique.

\item[1994 :] Recrutement en CR2 au CNRS

\item[1997 :] Médaille de bronze du CNRS

\item[1998 :] CR1.

\item[2005 :] Obtention de l'Habilitation à diriger des Recherches sur
la base d'un mémoire intitulé {\it "Représentation du transport direct et inverse
dans les modèles globaux de climat et étude des
couplages entre composition et dynamique
atmosphérique sur Titan"}.

\item[2006-2007 :] Mis à disposition du Laboratoire de Physique de l'Atmosphère et de l'Océan Siméon Fongang de Dakar. 

\item[2009 :] DR2

\item[2008- :] directeur adjoint du LMD

\end{description}
}


\newpage

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Résumé de l'activité de recherche (1/2p)}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
{\em 1/2 page}

\newpage

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Rapport d'activité}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
{\em <30p 10/2018-10/2023)}

%---------------------------------------------------------------------
\subsection{Introduction}
%---------------------------------------------------------------------

Depuis ma thèse sur la modélisation des climats de Mars et de Titan, mon activité de recherche tourne autour de la modélisation du climat.
Avec la montée en puissance de la question du changement climatique (déjà présente à mon arrivée au laboratoire dans les années 90) je me suis de plus en plus investi dans la question de l'utilisation des simulations climatiques (qu'il faut distinguer de la modélisation du climat) pour l'anticipation du réchauffement global et de ses conséquences qui pilote la plupart de mes choix de recherche depuis.  Cette

%---------------------------------------------------------------------
\subsection{Paramétrisation de la convection et des nuages}
%---------------------------------------------------------------------

Le cadre offert par la séparation entre c{\oe}ur dynamique  et paramétrisations, propre aux modèles de circulation générale fondés dans les années 70, représente bien plus qu'un un outil pour simuler les climats passé, présent et futur ou de prévoir le temps à courte échéance.

Ces modèles reposent sur un découpage entre des équations représentant la circulation atmosphérique aux échelles météorologiques, et les paramétrisations qui rendent compte de transfert verticaux d'énergie, d'humidité et de quantité de mouvement dans un mode supposé localement homogène horizontalement d'un point de vue statistiques (pas de variations horizontales des modèles moment des distributions localement). Ce découpage est un cadre fondamental de compréhension du fonctionnement du système.
En ce sens, les modèles de circulation générale à physique paramétrée constituent un cadre de pensée et de construction d'une physique. Au même titre que Navier-Stokes, et sa traduction macroscopique du mouvement des molécules, constituent un cadre de pensée de la mécanique des fluides.

Depuis une vingtaine d'années, nous sommes engagés avec des collègues du LMD et du CNRM  dans un travail au long cours de développement et amélioration des paramétrisations de la couche limite, de la turbulence et des nuages, en utilisant massivement des simulations LES, simulations à résolution de 10 à 200m, particulièrement adaptées à l'étude de la convection (profonde ou peu profonde) et des nuages associés. En résumant le comportement des LES  à quelques équations et en vérifiant qu'on arrive à reproduire les résultats des LES avec une seule colonne d'un modèle de climat, on gagne non seulement un facteur 10$^8$ à 10$^9$ en temps de calcul, mais surtout on effectue un saut de compréhension. Les propriétés qui émergent des LES, sous forme de panaches convectifs, cumulus ou autres, sont alors le fruit d'un modèle conceptuel de ces processus. La mise en {\oe}uvre de ces paramétrisations dans les modèles de circulation générale permet ensuite de comprendre le rôle de ces processus dans le climat ou les phénomènes météorologiques, en analysant les flux, tendances ou transferts exprimés au travers des paramétrisations. L'analyse de simulations LES globales ne rend pas directement accessible ce rôle du fait de l'absence de découpage.

Au cours des 20 dernières années, nous avons construit en particulier des paramétrisations de la couche limite convective et des nuages associés basées sur une représentation en flux de masse des panaches convectif (le "modèle du thermique"), combinée à une approche en diffusion turbulente classique, active principalement dans la couche de surface (typiquement ~100-300m d'épaisseur). Cette approche mise en {\oe}uvre et publiée pour la première fois dans le modèle du LMD, a depuis été popularisée sous le nom d'approche EDMF pour Eddy Diffusion Mass Flux.
Le modèle du thermique, couplé à une représentation bi-modale de la distribution sous maille horizontale de l'eau (un mode pour les panaches thermiques et un mode pour leur environnement), a permis une représentation très satisfaisante des cumulus de couche limite.

Au début du présent exercice j'ai finalisé et publié \cite{Hour:21} un travail sur le modèle du thermique conduit pendant la thèse d'Arnaud Jam et impliquant Cahterine Rio et Fleur Couvreux du CNRM. Ce travail est venu résoudre une impasse des paramétrisations en flux de masse existant précédemment, à savoir leur capacité à représenter simultanément les cumulus de couches limites et les bancs de stratocumulus qui se développent sur les bords Est des océans tropicaux, dans des régions de forte subsidances. Ce travail a à la fois permis un gain énorme en terme de représentation des couvertures nuageuses dans les simulations climatiques, mais également d'améliorer la représentation des flux d'évaporations à la surface, qui contrôlent en grande partie les températures de surface de l'océan.

Le nouveau schéma permet simultanément de maintenir une couverture nuageuses très élevée (100\% pendant plusieurs mois dans certaines régions), ombrageant la surface, et de maintenir grâce au schéma en flux de masse une ventilation suffisante à la surface d'air sec provenant de la troposphère libre.
Cette ventilation d'air sec renforce le refroidissement par évaporation très sensible à l'humidité relative de l'air à la surface.
Ceci a permis de diminuer le biais chaud des températures océaniques sur les bords Est des océans tropicaux, biais systématique très connu des modèles couplés de climat.

Les transformations nécessaires du modèle du thermique permettant d'arriver à se résultats concernaient le détrainement latéral d'air en haut des panaches thermiques. Avec la version originale du schéma, les panaches pénétraient trop haut au dessus de l'inversion de sommet de couche limite, qui se joue sur quelques dizaines de mètre verticalement. Il a fallu rendre le schéma de détrainement sensible à l'environnement à une certaine distance au dessus, ce qui revient à le rendre sensible à la force de l'inversion (mesurée notamment par les gradient des grandeurs thermodynamiques). Ce traitement vient sans doute en partie palier le fait que la résolution verticale du modèle est de beaucoup trop grossière (~100 à 200 m à 1km d'altitude suivant les configurations, sachant qu'il faut typiquement une résolution verticale d'une dizaine de mètres pour représenter correctement ces nuages dans une LES). Ce traitement a aussi un rapport avec les fait que, en pratique, les panaches overshootent autour de l'inversion, l'air détrainé retournant en grande partie sous l'inversion sous forme de fontaines facilement identifiables au sommet des nuages. Enfin, ce travail a permis de réconcilier des visions très différentes du contrôle de ces nuages au sommet de la couche limite : celle des flux de masse et des paramétrisations "bulk" de l'entrainement (vertical) sommital, formulé comme une vitesse d'entrainement fois un contraste des valeurs de la quantité transportée $q$ à l'inversion : $\overline{w'q'}=\alpha\Delta q$. Dans l'article mentionné, on montre comment on peut faire un lien très directe entre cette vision bulk et le transport par la subsidence compensatoire des panaches convectifs, elle même contrôlée par le détrainement.
Le modèle du thermique offre finalement un modèle de la vitesse d'entrainement sommitale $w'$, qui dépend à la fois des flux de masse dans la couche limite mélangée et de la force de l'inversion, au travers de la paramétrisation du détrainement latéral. Ceci devrait permettre de tirer bénéfice de la co-éxistence de deux visions complémentaires de cette même question.

Le développement des paramétrisations est porté par très peu de chercheur.e.s (ou enseignant.e.s-chercheur.e.s), et les résultats marquants concernant les paramétrisations physiques au LMD ont été associés à typiquement 4 thèses sur 15 ans (celles de Catherine Rio, Nicolas Rochetin, Arnaud Jam et Etienne Vignon). Or on sent depuis deux ou trois ans que la situation est en train de changer, sans doute pour différentes raisons : 1) aboutissement d'une version performante sur le plan climatique incluant ses avancées (la "nouvelle physique") dans la versions 6A du modèle LMDZ, composante atmosphérique du modèle IPSL-CM, utilisée pour l'exercice CMIP6 ; 2) gain en organisation, souplesse et facilité d'intervention dans le modèle LMDZ, 3) recrutement CNRS d'Etienne Vignon, 4) reconnaissance et montée en puissance du programme Dephy.
J'encadre actuellement 3 thèsitifs et une ingénieure sur des travaux contribuent pour tout ou partie au développement de paramétrisations concernant : 1) la construction d'un modèle pronostique de l'eau sous-maille (thèse de Louis d'Alençon), 2) l'amélioration du modèle des poches froides créées par réévaporation des pluies sous les orages (thèse de Lamine Thiam), 3) la paramétrisation des bourrasques associées aux poches froides (dans la même thèse) et aux panaches thermiques (travail mené avec Adriana Sima, IR CNRS), et 4) une paramétrisation de l'hétérogénéité sous-maille des nuages pour prise en compte dans le nouveau code radiatif ECrad (Maëlle Coulon--de--Corzens).


\publi\ Frédéric Hourdin, Arnaud Jam, Catherine Rio, Fleur Couvreux, Irina Sandu,Marie-Pierre Lefebvre, Florent Brient, and Abderrahmane Idelkadi, Unified Parameterization of Convective Boundary LayerTransport and Clouds With the Thermal Plume Model, James, 2019, https://doi.org/10.1029/2019MS001666

%--------------------------------------------------------------------
\subsection{Tuning des modèles de climat}
%---------------------------------------------------------------------

La question de la calibration des paramètres libres des modèles de climat, souvent désigné comme "tuning" (ce terme pouvant être selon acception un peu plus large que la seule calibration des paramètres, et inclure par exemple des choix de grilles, d'activation de paramétrisations ou autres) a été identifié des les travaux pionniers de modélisation du climat. Il a pourtant fallu attendre la fin de la dernière décennie pour que cette question soit identifiée comme une question scientifique à part entière de la modélisation du climat. La conférence international que nous avons organisé avec Torsten Mauritsen et l'article dans BAMS ("The art and Science of climate model tuning") qui en a résulté a sans doute largement contribué cette évolution. A l'occasion de cette conférence, j'ai fait la rencontre de Daniel Williamson, mathématicien statisticien, qui promouvait une technique particulière d'apprentissage machine, appelée "history matching", pour la calibration des modèles de climat.

Cette approche se détache des approches classiques par minimisation de fonction coût (avec typiquement des calculs de descente de gradient), en refusant fondamentalement de voir le problème de la calibration comme un problème d'optimisation. Cette calibration se définit ici par l'identification du sous-espace des paramètres (typiquement un hyper-cube dont les arrêtes sont définies par les valeur min et max a priori de chaque paramètre) qu'on ne peut pas rejeter sur la base de leur distance à un certain nombre de métriques observées, en tenant compte des différentes sources d'incertitudes : incertitude sur les cibles des métriques (typiquement des observations ou des LES pour les tests de paramétrisations en mode uni-colonne), incertitude structurelle du modèle à calibrer, éventuellement une incertitude liée à la variabilité interne du système étudié.
Pour explorer l'hypercube de dimensions $P$ (le nombre de paramètres, typiquement de 10 à 30 dans les applications actuelles), on réalise 10$P$ simulations, correspond à 10$P$ tirages différents des paramètres libres, sur lesquelles on va calculer les $M$ métriques. 
Une fois ces métriques calculées sur les simulations réellement effectuées avec le modèle, on développe pour chaque métrique une outil statistique appelé émulateur, capable de calculer en un un temps extrêmement rapide une métrique en n'importe quel point de l'hypercube \footnote{Daniel Williamson, grand spécialiste de ces méthodes, à du mal à parler d'apprentissage machine parce qu'il dit que ce sont simplement des méthodes statistiques. Personnellement, apprentissage machine ça me parle. Mais prière de ne pas parler d'Intelligence Artificielle à propos de ces méthodes.}. Sur la base de cet émulateur, on décide de rejeter un jeu de paramètres si et seulement si la distance de la métrique émulée à la cible est plus grande que typiquement 3$\sigma$ où sigma est la somme quadratique des sources d'incertitudes, qui inclue l'incertitude de l'émulateur (en plus des sources précédemment mentionnées). L'espace des paramètres étant très vaste initialement, on procède à sa réduction itérative cours de "vagues" successives. A chaque vague, on tire les nouvelles simulations dans l'espace NROY des paramètres non encore éliminés (Not Ruled Out Yet). Ceci permet de densifier petit à petit le nombre de simulations réellement réalisées dans l'espace des paramètres pertinants, et de réduire ainsi l'incertitude de l'émulateur qui devient au fur et à mesure de plus en plus prédictif (moins incertain).
Il faut remarquer que les émulateurs utilisés, des processus gaussiens, sont choisis pour deux raisons qui les caractérisent : un  apprentissage sur une base faible (très peu de vraies simulations au regard de la dimension de l'espace exploré) et l'accès à l'incertitude de l'estimateur  (un processus aléatoire gaussien).

Cette rencontre avec Daniel Williamson a été le début d'une collaboration fructueuse, avec notamment le montage de l'ANR High-Tune (2016-2020).
Cette ANR visait en particulier à passer un cap dans l'utilisation du cadre LES/SCM (pour single column model ou modèle uni-colonne) en développant des outils matching pour permettre de re-régler automatiquement  une version d'une paramétrisation après modification.

Le logiciel HighTune-Explorer (ou \htexplo) développé lors de cette ANR, en partie lors de coding sprint collectifs avec Daniel Williamson, et qui s'appuie pour toute la partie statistique directement sur les outils développés à Exeter par DW et ses collègues, est aujourd'hui devenu un outil de base du développement des paramétrisations dans l'équipe. Avec au moins une dizaine d'utilisateurs qui utilisent cet outil au coeur de leur recherche dans l'équipe LMDZ ou pour les autres composantes du système climatique.

Les résultats principaux de cette ANR et la méthode de tuning ont été publiés dans un article en trois parties dont le titre générique a été un choix longuement discuté et réfléchi : "Physics based model development harnesing maching learning". Ce titre voulu avant tout par DW met en avant que c'est bien la physique qui tiens les rennes de l'apprentissage machine.
Il y a des vraies questions de recherches sur les méthodes d'apprentissage utilisées. Elles une grande partie de la recherche en mathématique de DW et de ses collègues. Cependant l'utilisation de ces méthodes est pensée au service de la modélisation physique du climat et de l'amélioration de paramétrisations basées sur la physique.

La première des trois publications est consacrée à la présentation de la méthode de l'history matching appliqué aux comparaisons LES/SCM.
J'ai plus particulièrement coordonnée le travail et la rédaction de la seconde partie (l'article retenu ci-dessous). Il s'agit en grande partie d'une preuve de concept de la méthode en grandeur réel et de l'intérête d'enchainer une phase mutli-vague de tuning en mode LES/SCM (avec des simulations très peu coûteuses numériquement) avant d'effectuer le tuning complet du modèle global.
Une dizaine à quinzaine de métriques ont été définies pour le mode SCM et environ autant pour le modèle global. Les métriques globales portaient sur les flux radiatifs au sommet de l'atmosphère. Leur choix s'inspiraient largement du tuning "à la main" effectuée précédemment pour la version LMDZ6A du modèle pour CMIP6. C'est métriques consistent en des moyennes sur de grandes régions (ou différences de moyennes entre deux régions) de flux au sommet de l'atmosphère, découpées suivant les cas entre rayonnement à source solaire (dit ondes courtes) et rayonnement à source terrestre (dit ondes longues), et entre ciel clair et effet radiatif des nuages.
Le résultats sans doute le plus spectaculaire sans doute est d'avoir retrouver par cette méthode dans une procédure quasi automatique, trois valeurs de paramètres avec une gamme possible relativement petites autour des valeurs sélectionnées à la main pour la version LMDZ6A, confirmant à la fois l'efficacité de la méthode et le caractère assez optimale du réglage à la main de ces trois paramètres pour CMIP6. Dans un second temps nous avons montré comment on pouvait retuner automatiquement une version du modèle après une amélioration de la discrétisation de l'épaisseur des mailles dans la couche limite (typiquement un raffinement d'un facteur 2).
% HighTune. Début Nov 2016

L'utilisation de \htexplo\ est devenu systématique dans tous les travaux de modélisation que j'encadre. Que ce soit en accompagnement du développement de nouvelles paramétrisations ou élément de paramétrisations. C'est peut-être le cas où on réalise le plus à quel point ne pas avoir un tel outil manquait. En effet, on était précédemment très régulièrement coincé dans le fait de savoir si une simulations avec une paramétrisation modifiée marchait mieux ou moins bien qu'une autre, ou si simplement l'une ou l'autre était mieux réglée. Or même avec 5 ou 6 paramètres l'espace à explorer pour connaitre les zones de "bon comportement" de la simulation modifiée ou de contrôle est énorme. Le fait de disposer d'un outil permettant une exploration automatique et à un coût raisonnable de tels espaces, permet de se libérer de cette question et refocaliser le travail sur les équations et l'amélioration du contenu physique du modèle. Concrêtement, cette utilisation concerne le travail de développement mentionnés précédemment dans les thèses de Louis d'Alençon et Lamine Thiam. Par ailleurs, nous explorons dans le cadre de la thèse de Maëlle Coulon-de-Corzens coomment deux questions autour du tuning: peut-on exploiter les observations in situ comme celles du Sirta pour le tuning des modèles et selon quelle méthodologie.

Par ailleurs, des travaux sont en cours pour essayer d'étendre l'utilisation de l'history matching aux autres composantes du systèmes et au modèle couplé.
Un des grands enjeux est d'identifier dans des simulations courtes des métriques qui nous informes sur les dérives lentes et les biais du système couplé une fois ramené à l'équilibre. Une des stratégies que j'ai identifiées et pousser à mettre en {\oe}euvre pour ce faire est de générer des ensembles paramétriques avec différentes configurations du modèles mais avec le même ensemble de vecteurs de paramètres au travers des configurations. De tels ensembles ont été générés pour le modèles couplés avec des configurations couplées et fdorcés à différentes résolutions, et en mode forcé avec l'ancienne dynamique longitude-latitude et la nouvelle dynamique icosahédrique du modèle.
On peut alors faire des diagrammes de dispersion comparant une métrique d'une simulation forcée par les températures de surface de l'océan par exemple, avec une métrique de température de surface océanique en couplé. C'est typiquement cette apporoche qui nous avait permis de démontrer l'importance du refroidissement évaporatif dans le bias chaud de bord Est mentionné plus haut, en utilisant les ensembles CMIP en comparant les simulations \texttt{historical} en  climat actuel avec des simulations \texttt{amip} forcées par des températures de surface de l'océan.


\publi\ Hourdin, F., Williamson, D., Rio, C., Couvreux, F., Roehrig, E., Villefranque, N., Musat, I., Fairhead, L., Diallo, F. B. and Volodina, V., Process-based climate model development harnessing machine learning: II. model calibration from single column to global, James, vol. 13, no. 6, 2021. doi:10.1029/2020MS002225.

%---------------------------------------------------------------------
\subsection{Interactions nuages rayonnement}
%---------------------------------------------------------------------

Un autre objectif important du projet HighTune était de combler le vide entre le tuning à l'échelle des processus, réalisé avec des comparaisons LES/CSM, et le tuning des modèles globaux visant souvent (directement ou indirectement) une bonne représentation des flux radiatifs au sommet de l'atmosphère, essentielle notamment pour la représentation des températures de surface et des grands éléments de la circulation générale atmosphérique.
Or nous ne disposions pas avant le projet HighTune de simulations de référence du transfert radiatifs sur des cas LES. Il a fallu en fait attendre la rédaction du projet HighTune pour que nous réalisions à quel point les simulations LES étaient grossières quand elles représentaient les interactions entre nuages et rayonnement. En effet les codes utilisés alors, et encore aujourd'hui, dans les modèles LES ou les modèles à résolution kilométrique de la communauté, utilisent les mêmes codes que les modèles de climat.
Ces codes font une hypothèse fondamentale : les photons sont piégée dans chaque colonne (empilement vertical de mailles) du modèle, n'échangeant aucun photon avec les colonnes voisines. Cette hypothèse, valide pour une maille horizontale de quelques dizaines de km de côté, devient absurde avec des mailles de 20m quand on essaie d'étudier les couplages entre rayonnement et nuages à l'échelle du nuage.

Une idée du projet était donc de se doter de calculs de rayonnement de référence sur les LES en utilisant la méthode de référence du rayonnement, à savoir la méthode Monte Carlo en "chemins". 
Cette méthode qui a une portée beaucoup plus générale (cf. plus bas), peut être décrite, pour le rayonnement, par analogie comme une méthode de suivi de photons. Cette méthode est celle qui est utilisée aujourd'hui dans l'industrie cinématographique de la synthèse d'image.
Ce travail a été mené en collaboration avec le collectif de recherche EDstar, qui porte depuis une vingtaine d'années une recherche de pointe sur les méthodes de MonteCarlo pour des questions principalement de physique de l'ingénieur, pour beaucoup liées à la transition énergétique.
Ce travail a été porté pas Najda Villefranque pendant sa thèse à cheval entre le CNRM et le Laplace (laboratoire pilote du consortium EDstar).
Un des gros enjeu était le coût informatique des calculs radiatifs au travers des milieux semi-transparents et très diffusants que sont les nuages.  Najda Villefranque a étendu à ces milieux dits "participants" des techniques d'accélération de la synthèse d'image, reprise depuis dans les recherches des laboratoires de l'industrie cinématographique. Ceci permet que la communauté du climat dispose aujourd'hui d'un logiciel \texttt{htexplo} (ou Hightune Explorer) pour à la fois réaliser des calculs de référence de rayonnement et un rendu physiquement réaliste de scènes LES.

Grâce à cet outil, il a été possible de réaliser des calculs de référence pour toute une série de scènes LES de nuages de couches limites du type de celles utilisées pour le tuning des nuages et de la couche limite en mode SCM/LES.
Ces calculs de référence ont permis d'évaluer et ajuster les paramètres libres de différentes approches proposées aujourd'hui dans le code ECrad du centre Européen pour les Prévisions Météorologiques à Moyen Terme (porté par Robin Hoggan) pour représenter les hétérogénéités nuageuses (méthode MCICA ou Tripleclouds) ou les effets 3D (Spartacus).
Ce travail a notamment permis de montrer l'importance de prendre en compte les effets 3D du rayonnement (au travers de la version TripleClouds-Spartacus de ECrad) qui montre notamment une bien moindre dépendance de la représentation des flux radiatifs aux angles solaires d'incidence.

\publi\ Villefranque, N., Blanco, S., Couvreux, F., Fournier, R., Gautrais, J., Hogan, R. J., Hourdin, F., Volodina, V. and Williamson, D., Process-based climate model development harnessing machine learning: I. The Representation of Cumulus Geometry and Their 3D Radiative Effects, James, vol. 13, no. 4, 2021. doi:10.1029/2020MS002423.


Ce travail est poursuivi en ce moment dans une partie de la thèse de Maëlle Coulon-de-Corzens, co-encadrée avec Najda Villefranque pour étudier notamment les compensations entre nuages  et rayonnement, en effectuant un tuning sur la base de cibles purement radiatives. On retrouve dans cette étude l'apport de la représentation des effets 3D par Spartacus. Avec Spartacus en effet, on arrive via des cibles radiatives à ajuster très correctement les profils verticaux de fraction nuageuses et contenus en eau des nuages pour des cas de cumulus et strato-cumulus. L'absence de l'activation de Spartacus aboutit au contraire à la nécessité d'utiliser des fractions nuageuses plus grandes, notamment pour compenser la sous-estimation des effets d'ombres aux angles solaires rasants. C'est la première fois qu'on démontre la possibilité d'une compensation d'une erreur dans un code radiatif par une détérioration de la représentation des nuages, suggérée par le passée dans des articles portant notamment sur une tendance assez systématique des modèles de climat à représenter des nuages trop peu couvrants et trop brillants (too few to bright).

%---------------------------------------------------------------------
\subsection[Anticipation du changement climatique et incertitudes]{Anticipation du changement climatique et quantification des incertitudes}
%---------------------------------------------------------------------

\def\cod{CO$_2$}

La question de l'incertitudes des projections climatiques, tant en termes d'amplitude du réchauffement global que de conséquences climatiques est un des moteurs des projets d'intercomparaisons CMIP organisés par la communauté scientifique en amont des rapports du Giec, et dans lesquels tous les modèles partagent des protocoles extrêmement précis pour pouvoir documenter les différentes sources d'incertitude. 
Les incertitudes dans les projections climatiques peuvent être décomposées en trois contributions dues (a) à la variabilité interne - définie comme la variabilité intrinsèque non forcée du système climatique -, (b) aux incertitudes dans la physique du modèle - résultant notamment de la paramétrisation des processus sous-maille, et (c) à la gamme des forçages externes futurs possibles, qui dépendent à leur tour des scénarios d'émission et des forçages naturels. Le point (c) est l'objet de la constructions de "scenarios" en émissions ou en concentrations, développés dans d'autres communautés et utilisés en entrée des simulations climatiques, notamment à l'occasion des exercices CMIP. Durant le dernier exercice je me suis plus particulièrement impliqué dans la documentation où l'étude des incertitudes liées à la variabilité interne (a), et la quantification de la contribution de l'incertitude paramétriques à l'incertitude modèle (b).

La variabilité interne ne rentre pas en compte fondamentalement dans la question de la sensibilité climatique. Si on considère par exemple la "Sensibilité Climatique à l'Equibre" ECS, définie comme le réchauffement global de la terre une fois revenue à l'équilibre après un doublement de la concentration en concentration de gaz carbonique dans l'atmosphère, on voit bien que cette définition est pensée comme la différence entre deux états climatiques "moyens". Avec un modèle de climat couplé, on peut obtenir une estimation de cet ECS en réalisant une simulation suffisamment longue du climat avec une certaine concentration des gaz à effet de serre, puis une seconde dans laquelle on multiplie la concentration de \cod\ par deux. Il faut typiquement attendre une 30 aine d'années pour l'ajustement des température de surface de l'océan, mais l'océan profond vient se réchauffer encore pendant des centaines d'années.
Avec le modèle, il suffit que les simulations soient suffisamment longues pour à la fois absorber ce spin-up de la simulation perturbée et gommer la variabilité intenre.
Si la variabilité n'intervient donc pas dans la définition du changement climatique une fois le système revenu à l'équilibre, elle peut moduler fortement la réponse des prochaines décennies. Elle est également très importante quand on cherche à évaluer la capacité des modèles à prévoir le climat futur sur la base de la capacité de ces modèles à reproduire l'évolution du climat sur les dernières décennies. Cet enjeu conduit les groupes de modélisation à réaliser de façon de plus en plus systématique des ensembles de simulations "historiques" (depuis le préindustriel jusqu'à l'actuel) ou futures, en ne changeant que les conditions initiales (ensembles perturbées aux conditions initiales).

A l'occasion du dernier exercice CMIP6,
L'IPSL a ainsi produit un ensemble de simulations historiques étendues à l'aide du modèle climatique IPSL-CM6A-LR.
de simulations historiques étendues utilisant le modèle climatique IPSL-CM6A-LR. Cet ensemble (appelé IPSL-EHS) est composé de 32 membres sur la période 1850-2059 qui partagent les mêmes forçages externes mais qui diffèrent par leurs conditions initiales. Cet ensemble a été utilisé pour évaluer la variabilité climatique simulée entre la décennie et la multidécennie dans l'ensemble IPSL-EHS. Dans l'IPSL-EHS. En particulier, nous avons examiné l'évolution de la température globale et les tendances récentes du réchauffement, ainsi que leur cohérence avec les données de l'IPSL-EHS. et les tendances récentes au réchauffement, ainsi que leur cohérence avec le contenu thermique des océans et la couverture de glace de mer. Le modèle présente une importante variabilité climatique interne à basse fréquence. En particulier, un mode quasi-bicentenaire de variabilité climatique interne est présent dans le modèle et est associé à la circulation méridienne de retournement de l'Atlantique. Cette variabilité module les changements de la température moyenne globale de l'air en surface sur la période historique d'environ 0,1K. Cette modulation est liée à la phase présente dans l'état initial de chaque membre du modèle.
Dans le choix des 32 états initiaux de l'ensemble, on est parti de points régulièrement espacés dans une période de cette oscillations.
Avec une période de 200 ans, le signal d'évolution vers le chaud ou le froid sur les 100 dernières années peut venir réduire ou amplifier le réchauffement global, avec typiquement 0.2 degrés de différence entre les simulations qui se réchauffent le plus ou le moins.
Parmi les 32 simulations nous avons pur montrés que 3 présentaient un réchauffement global tout à fait compatible avec les observations, alors même que le modèle de l'IPSL est considéré comme ayant une ECS à la limite haute des valeurs admissibles (on y revient plus loin).
Ces résultats sont présentés dans l'article Bonnet et al..
Nous montrons que les membres ayant les taux les plus faibles de réchauffement global au cours des 6-7 dernières décennies sont également ceux qui présentent un affaiblissement important de la circulation méridienne de retournement de l'Atlantique (AMOC). Ce sous-ensemble de membres correspond semble être en accord avec plusieurs signatures observationelles de l'évolution de  l'AMOC, qui vont dans le sens d'un tel affaiblissement. Cela suggère que la variabilité interne de l'océan Atlantique a pu atténuer l'ampleur du réchauffement climatique au cours de la période 1900-2020.  La prise en compte de cet affaiblissement de l'AMOC au cours des dernières décennies pourrait avoir ainsi masqué une partie du réchauffement global des dernières décennies. 
Ce résultat est un peu une alerte face aux études qui ont essayé de réduire, sur une base partiellement observationnelle, la plage d'ECS admissibles.


\publi\ Rémy Bonnet, Didier Swingedouw, Guillaume Gastineau, Olivier Boucher, Julie Dehayes, Frédéric Hourdin, Juliette Mignot, Jérôme servonnat, Adriana Sima Increased risk of near term global warming due to a recent AMOC weakening , Nature, https://doi.org/10.1038/s41467-021-26370-0

\medskip

\subsection[Quantification des incertitudes sur l'ECS]{Quantification de l'incertitude paramétrique sur la sensibilité climatique}

Documenter l'incertitude modèle dans les projections du changement climatique est un objectif fondamental des exercices CMIP. En comparant la réponse différente des différents modèles pour un même scenario d'évolution des émissions ou de concentration des gaz à effet de serre, on isole effectivement la part d'incertitude liée aux choix de modélisation du climat faits dans les différents groupes.
Beaucoup d'études ont montré par le passé qu'une grande partie de la dispersion en terme de réchauffement global, pour un même scenario, était due à la paramétrisation de la convection et des nuages.
Or, habituellement, chaque centre de modélisation contribue à ces exercices avec une ou deux configurations de son modèle climatique, correspondant à un choix particulier de valeurs de paramètres libres, résultant d'une phase longue et souvent fastidieuse de réglage du modèle (tuning, calibration, cf. plus haut). Quelle est la part d'incertitude omise par cette sélection et comment les lecteurs des rapports du GIEC et les utilisateurs des projections climatiques peuvent-ils être induits en erreur par cette omission ? 
Une part de la réponse à ces questions est apportée par un autre type d'ensembles appelés "Ensembles aux Paramètres Perturbés" ou PPE.
On effectue typiquement des dizaines ou centaines de simulations en perturbant un certains nombre des paramètres libres, aléatoirement ou pas.
Cependant, ces simulations n'étant pas retunées, on explore des climats simulés potentiellement assez éloignés des observations, en termes d'équilibre énergétique global (ou de température globale en mode couplé) ou de structures spatiales. 

Nous avons mené une étude pour répondre spécifiquement à la question de savoir dans quelle mesure un modèle de climat particulier, ici le modèle couplé de l'IPSL, pouvait produire des sensibilités climatiques très différentes (ECS), tout en conservant une représentation raisonnable du climat actuel.
Pour ce faire, nous avons effectué 3 vagues d'history matching avec la configuration standard du modèle (6A, avec 144 points en longitude, 142 en latitude et 79 niveaux) utilisée pour CMIP6 (3 fois 300 simulations de 2 ans environ), en réduisant petit à petit l'espace des paramètres (contrairement à l'étude décrite plus haut, on n'a pas utilisé le pré-conditionnement 1D du tuning dans ce papier).
Parmis les 900 simulations, une quinzaine présentait des scores comparables à la version 6A sur les métriques sélectionnées.
Pour ces simulations, nous avons effectué des simulations dites SST+4K, en ajoutant 4 degrés uniformément à la température de surface de l'océan. Dans ces simulations, on force une évolution de la température de surface sans changer la concentration en \cod. L'intensité du changement d'équilibre énergétique global au sommet de l'atmosphère qui en résulte permet d'avoir une estimation grossières de l'ECS. 
Cette estimation a été utilisée ici pour sélectionner quatre jeux de paramètres libres parmi ceux qui produisaient les meilleures simulations (en terme de métriques climatiques pour le climat actuel, comme le font les groupes de modélisation quand ils sélectionnent les versions de leur modèle pour les exercices CMIP) et en privilégiant les simulations avec des estimation de l'ECS les plus faibles et les plus fortes. Avec ces jeux de paramètres, nous avons réalisé des simulations couplées préindustrielles (dans lesquelles les concentrations de gaz à effet de serre sont gardés constant, à leur valeur préindustrielle) et abrupt4\cod, dans laquelle on multiplie subitement la concentration du \cod\ par 4. La relation souvent quasi linéaire entre le retour à l'équilibre du bilan radiatif net au sommet et le changement de température globale dans ces simulations est la façon de référence pour calculer l'ECS (méthode dite de Gregory). On estime l'ECS à partir de la droite de régression de cette relation, quand le bilan radiatif atteint zéro (ici le changement de température doit être divisé par deux car on effectue un quadruplement plutôt qu'un doublement de la concentration de \cod, afin de maximiser le rapport signal sur variabilité interne). 

La fourchette d'ECS était de 1,8 à 5,6 K dans l'ensemble multi-modèle CMIP6, contre 2,1 à 4,7 K dans CMIP5 (non loin de l'estimation de 1,5 à 4,5 K du rapport de Charney). 
Avec la configuration stantdard IPSLCM6A et les 4 nouvelles configurations sélectionnées selon la procédure semi-automatique décrite au-dessus et détaillée dans un article, on obtient
des ECS variant de 3,7 à 5,3 K pour une valeur de 4,6 K pour la configuration IPSL6A-LR officielle Parmi ces 4 configurations, au moins deux auraient pu être mise indifféremment dans la base de données CMIP6 à la place de celles de la configuration IPSL6A-LR, tant leurs résultats sont comparable au regard des métriques retenues. Il se trouve qu'il s'agit des deux simulations avec les ECS de 3,7 et 5,3 K. Il est a noter que malgré la différence de sensibilité, les différentes configurations simulent des cartes de réchauffement ou de changement des précipitations en moyenne sur l'année très similaires, à condition qu'on les regarde non pas à un horizon temporel donné mais à un changement de température global donné (qui arrive plus ou moins tôt dans la phase transitoire en fonction de la valeur de l'ECS).
Il est sans doute dommage qu'on n'arrive pas à dégager davantage de temps pour comprendre les mécanismes qui amènent à une telle dispersion des ECS juste par ajustement des paramètres libre, sous contrainte d'un réajustement.

Ces résultats ont été publiés dans Science Advances. Au delà du fait d'avoir fourni un élément (évidemment très partiel) de quantification l'incertitude paramétrique pour un modèle particulier, pouvant suggérer une sousestimation de l'incertitude de l'ECS dans un modèle global, on a démontré ici comment l'history matching permettait à la fois de retuné automatiquement des versions du modèles. On voit ici l'importance d'avoir défini le tuning non pas comme un acte d'optimisation mais comme la détermination de l'espace de paramètres compatible avec un certain nombre de cibles à une tolérance près. On montre dans cette publication comme ce changement de paradigme et la proposition particulière de l'history matching permet d'effectuer dans un même acte une calibration semi-automatique de paramètres libres et une quantification des incertitudes paramétriques associées.

Cette étude nous incite fortement à systématiser la réalisation des petits ensembles (petits du fait de leur coût numérique) dans l'avenir pour quantifier systématiquement l'incertitude paramétrique de la réponse à l'augmentation du \cod\ dans les futures versions du modèle.

\publi\ Hourdin, F , Ferster, B., Deshayes, J., Mignot, J., Musat, I. and Williamson, D., Toward machine-assisted tuning avoiding the underestimation of uncertainty in climate change projections Toward machine-assisted tuning avoiding the underestimation of uncertainty in climate change projections, Science Advances, 2023, Vol 9, Issue 29, DOI: 10.1126/sciadv.adf2758.

%---------------------------------------------------------------------
\subsection{Calculs sonde Monte Carlo}
%---------------------------------------------------------------------

Le projet HighTune et la thèse de Najda Villefranque ont permis de renforcer des liens historiques entre le collectif EDstar et l'équipe de modélisation du climat du LMD. Jean-Yves Grandpeix, Jean-Louis Dufresnes et Alain Lahellec ont en fait formé il y a 25 ans Richard Fournier et Stéphane Blanco dans un laboratoire de thermique de l'habitat, le LESETH, avant de rejoindre le LMD dans les années 90. 

Le collectif EDstar a ces 20 dernières années poussé toujours plus loin les possibilités d'utilisation des méthodes de Monte Carlo pour la modélisation physique, avec un lien très forts avec les calculs en intégrales de chemins et la pensée de Green qui ont été à l'origine du prix Nobel de Feynman et Kac.
En fait cette pensée est déjà présente dans des travaux de modélisation menés dans l'équipe : la formulation des transferts radiatifs en puissances nettes échangées qu'on avait utilisée pour paramétriser le transfert radiatif dans des atmosphères d'atmosphères planétaires (avec notamment Jean-Louis Dufresne et des chercheurs aujourd'hui dans le collectif EDstar). Dans cette approche (appliquée ici au besoin d'un modèle de circulation générale), on voit le taux de chauffage dans chaque couche du modèle comme la somme d'échanges nets avec chacune des autres couches. Cette puissance nette échangée peut être fondamentalement exprimées comme le produit la différence des fonctions de Planck calculées à la température des deux couches, et un coefficient d'échange. Ce coefficient d'échange ne dépend que de l'atténuation calculée le long de l'ensemble des chemins de photons possibles entre les deux couches. 
Si les propriétés des couches sont supposées connues une fois pour toute (ce qui est loin d'être possible pour les nuages sur Terre), on peut calculer ce coefficient d'échange une fois pour toute en tirant par exemple aléatoirement un grand nombre de photons entre les deux couches.
Cette symmétrie du transfert radiatif est celle qui est utilisée dans la synthèse d'image pour tirer des photons non pas depuis les source (le soleil ou des ampoules par exemple) mais depuis les pixels de la caméra.

J'avais également travaillé avec Olivier Talagrand et Jean-Pierre Issartel (CEA) sur la détection des essais nucléaires à partir de radio-éléments transportés dans l'atmosphère et mesurés à des stations. Nous avions alors réalisé que les calculs pouvaient aussi bien se faire par transport direct en émettant un traceur depuis le lieu connu d'une source, et mesurer la concentration au stations, ou, de façon symétrique, en émettant les radio éléments au stations et en les mesurant aux lieux possibles d'émission avec un transport inverse. A noter que lors de ce transport inverse, calculé en remontant des trajectoires lagrangiennes dans le temps, les concentration vont diffuser (en même temps que les trajectoires individuelles se disperse) autant dans le passé que les trajectoires directes se dispersent dans le futur. On peut montrer que l'échange entre sources possibles et stations peut se voir comme un coefficient d'échange qu'on peut exprimer également comme une intégrale de chemins.
On peut également montrer que la description eulérienne du même transport, appliquée au transport inverse, aboutit à une équation similaire  à l'équation directe, avec un changement du signe du temps d'intégration, du vent (on remonte les trajectoires) mais le même coefficient de diffusion sans changement de signe (même intensité de la diffusion dans le passé et le futur). On peut également montrer que l'équation inverse est en fait l'adjoint de l'équation directe pour un produit scalaire particulier.
Dans le cas de la détection des essaies nucléaires, on voit bien l'intérêt de l'approche inverse. Si des stations détectent un essai nucléaire, il faudrait avec la méthode directe tester des émissions de concentration en tout points de la grille et les transporter jusqu'au détecteur. Avec le rétro transport, on émet le traceurs aux (80) stations du réseau et on obtient en une simulation pour chaque stations sa "visibilité", à savoir l'ensemble des coefficients d'échange avec toutes les sources potentielles dans le passé et sur l'ensemble du globe.

Cette idée de calcul sonde est très importante dans l'utilisation des reformulations en chemins effectuées par le réseau EDstar. 
On va chercher typiquement à évaluer la température d'une pièce à un instant donné. Si on veut effectuer un calcul direct de cette température, il faudra connaitre à un certain moment l'état de l'environnement du batiment et des du bâtiment lui même, puis effectuer un calcul direct pour finalement obtenir la température de la pièce.
Beaucoup de calcul seront inutile dans ce calcul direct si c'est bien la seule température de la pièce qu'on vise. Grâce à la reformulation "en chemin" de la physique des échanges conductifs, radiatifs et convectifs (dans le vocabulaire des science de l'ingénieur on appel transport convectif tout ce qui est lié au transport par l'air), on peut calculer la température de la pièce en remontant des chemins dans le passé. Dans cette approche, la température est exprimé comme la moyenne sur un grand nombre de réalisations passés, de "chemins" qui peuvent être soit radiatifs, soit convectifs, soit conductif. Par exemple, la température de la pièce (supposée uniforme par exemple) sera influencée par la température des planchers et murs. Si les 6 surface ont la même aire, et dans un cas stationnaire, la température de la pièce sera la moyenne de la température des 6 parois, qui pourra être calculée par une grand nombre de chemins en en tirant 1/6 sur chacune des parois. Si les parois ont chacune une température uniforme, la température finale de l'air dans la pièce sera la moyenne arithmétique de la température des parois rencontrées sur l'ensemble des tirage. 
Si la température des murs est connue, le calcul est fini et donne une estimation non biaisée de la température et dont l'erreur statistique gaussienne décroit en 1/$\sqrt{N}$ où $N$ est le nombre de tirages. .
Dans le cas où la température des parois n'est pas connues, on peut aussi les calculer comme des moyennes. Si la température est fine et peut être considérée à température constante, on voit bien que la température de ce mur elle même va être la température moyenne entre l'air des deux pièces, si on ne prend en compte que les échanges convectifs. Si on prend en compte en plus des échanges radiatifs entre les différents murs, alors la moyenne fera intervenir la température de l'air des deux pièces et la température des 10 autres paroies des deux pièces, mais pourra toujours s'exprimer comme une somme pondérées des différentes températures qui pourra donc à nouveau s'estimer comme un tirage aléatoire.

Une chose importante, c'est qu'on n'est pas obligé de faire converger l'estimation statistique de la température d'un mur autant que celle de la cible qu'on visait ici : la température de l'air d'une pièce. En pratique, pour un tirage d'un mur, on peut ne tirer qu'une qu'une réalisation d'une température de la température des autres pièce ou autres mur, et ainsi de suite.
Cette propriété bâtisée "double randomisation" dans la communauté  EDstar, dans laquelle dans ce cas simple on ne tire à chaque fois qu'une probabilité, définit des chemins qui vont passer de pièce en pièce, possiblement revenir dans la même, puis finir par sortir de la maison jusqu'à s'arrêter à un point où la température est connue (par exemple la température du sol et de l'air autour de la maison si on les impose). 
La température de la pièce s'exprimera finalement comme la moyenne sur l'ensemble des chemins de la température au bout des chemins, appelée issues.

La méthode s'étend facilement à un échange avec un gaz participatif, à la conduction dans un mur qui aurait des variations de température (évidemment particulièrement pour le mur d'une maison). Dans le cas de la conduction, l'approche s'étend également à des calculs non stationnaires, la remontée des chemins s'effectuant alors dans le passé.

La double randomisation peut être vue comme découlant directement du fait qu'on peut permuter deux espérances ou deux intégrales quand les grandeurs à calculer sont linéaires.
Cette remontée en chemin, où on a supposée ici des pièces brassées et des murs isothermes, peut très bien se faire dans un cas plus général sans avoir besoin de prédéfinir un maillage. 
Dans le cas de la pièce brassée, on peut en effet calculée la température de la pièce (au stationaire) comme la moyenne des température en tous points des murs, et donc la calculé par un triage de positions au hasards sur tous les murs. La température résultante sera simplement la moyenne de la température obtenue pour chacun des tirages.


Le cas linéaire recouvre déjà un grand nombre d'applications pertinents. C'est le cas de la synthèse d'image, de la conduction thermique avec des coefficients supposés connus.
Dans un article que nous avons porté avec Najda Villefranque commes une perspective dans Science Advances pour essayer de donner plus de lumière aux résultats des recherches du consortium EDstar, nous avons proposer un exemple pédagogique très proche de la description intuitive donnée ci-dessous.

Ces idées font la base du travail du consortium EDstar depuis une vingtaine d'années à savoir~: la possibilité de réécrire certaines physiques en espaces de chemins, le calcul sonde qui économise potentiellement énormément de calcul en permettant d'estimer une sonde sans avoir besoin de calculer l'ensemble du champ (de température dans l'exemple de la température de la pièce, de concentration pour la détection des essais nucléaires), et double randomisation valable dans le cas linéaire, intégration sans maillage.

L'intégration sans maillage permet d'aborder des géométrie d'une complexité infinir. C'est elle qui a fait basculer en dix ans l'industrie du cinéma d'animation vers  le rendu physiquement réaliste par lancé de rayon (ou en suivi de chemin dans le vocabulaire EDstar). Dans un milieu non participatif (pour simplifier), les photons vont rétro partir de la caméra pour taper une surface. Celle de la peau d'un personnage par exemple. Cette description de la peau aura pu être définie indépendamment par le créateur de l'animation, jusqu'à décrire les poils ou les pores de la peau. La caméra pourra donc tenir compte de cette information, définie totalement indépendamment de la nature du rendu. 
Cette objectif de pouvoir rendre de grandes images qui tiennent le compte du plus petit détail, cette capacité à traverser la complexité spatiale, est connue dans le monde de l'informatique graphique comme "teapot in the stadium" (voir les détails d'une théière au milieu d'un stade de foot). 
Avec cette technique, l'enjeu principal en terme d'efficacité de calcul se situe dans l'accès à la donnée de la scène, au point d'intersection avec un lancer de rayon.
Ce sont les verrous dépassés en informatique qui on permit la bascule de l'informatique graphique sur ces techniques.
La thèse de Najda Villefranque a permis d'étendre ses techniques d'accélération d'accès à la données à des milieux 3D participatifs, hétérogènes et fortement diffusant que sont les nuages.

Nous avons dans le papier montré une illustration de la puissance de la méthode en réalisant un film entièrement calculatoire de la plongée d'une caméra (on peut penser qu'elle est à bord d'un avion en train d'aterrir) sous une couche de cumulus, et arrivant sur des villes elles aussi créées par un modèle, l'imagine finissant par montrer une théière sur une table dans un jardin, présente dés le début du film.





\publi\ Villefranque, Najda ; Hourdin, Frédéric ; d'Alençon, Louis ; Blanco, Stéphane ; Boucher, Olivier ; Caliot, Cyril ; Coustet, Christophe ; Dauchet, Jérémi ; El Hafi, Mouna ; Farges, Olivier ; Forest, Vincent ; Fournier, Richard ; Masson, Valéry ; Piaud, Benjamin ; Schoetter, Robert The "teapot in a city": a paradigm shift in urban climate modeling, Science advances, https://www.science.org/doi/10.1126/sciadv.abp8934








%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Enseignement, formation et diffusion de la culture scientifique}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


%---------------------------------------------------------------------
\subsection{M2}
%---------------------------------------------------------------------

%---------------------------------------------------------------------
\subsection{Cours de thèse}
%---------------------------------------------------------------------

%---------------------------------------------------------------------
\subsection{Le travail en ateliers}
%---------------------------------------------------------------------

%---------------------------------------------------------------------
\subsection{L'écriture de textes de référence}
%---------------------------------------------------------------------

\publi\ Hourdin, F.Guillemot, Modélisation du climat, Encyclopédie Universalis

6. V. Balaji , Fleur Couvreux , Julie Deshayes , Jacques Gautrais , Frédéric Hourdin , and Catherine Rio Are General Circulation Models obsolete ?, PNAS, https://doi.org/10.1073/pnas.2202075119

%---------------------------------------------------------------------
\subsection{Conférences grand public}
%---------------------------------------------------------------------

8. Movie : the teapot in the city



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Transfert technologique, relations industrielles et valorisation}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

RAS malgré des tentatives passées de monter des choses avec les PMEs autour de la diffusion du modèle LMDZ.


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{6. Encadrement, animation et management de la recherche}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Le pilotage du projet LMDZ}
%---------------------------------------------------------------------

2. Hourdin, F., C. Rio, J.-Y. Grandpeix, J.-B. Madeleine, F. Cheruy, N. Rochetin, A. Jam, I. Musat, A. Idelkadi, L. Fairhead, M.-A. Foujols, L. Mellul, A. Traore, J.-L. Dufresne, O. Boucher, M.-P. Lefebvre, E. Millour, E. Vignon, J. Jouhaud, B. Diallo, F. Lott, G. Gastineau, A. Caubel, Y. Meurdesoif, and J. Ghattas, LMDZ6A: the atmospheric component of the IPSL climate model with improved and better tuned physics, James, http://dx.doi.org/10.1029/2019MS001892

%---------------------------------------------------------------------
\subsection{Le co-portage du projet Dephy}
%---------------------------------------------------------------------

%---------------------------------------------------------------------
\subsection{Le rôle dans la modélisation du climat à l'IPSL}
%---------------------------------------------------------------------

%---------------------------------------------------------------------
\subsection{Participation à des conseils scientifiques}
%---------------------------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{7. Objectifs / Projet de recherche}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


%---------------------------------------------------------------------
\subsection{Modélisation du climat}
%---------------------------------------------------------------------



%---------------------------------------------------------------------
\subsection{La révolution de l'history matching}
%---------------------------------------------------------------------



%---------------------------------------------------------------------
\subsection{Recherches pluridisciplinaires autour du changement climatique}
%---------------------------------------------------------------------

\end{document}
