Ateliers "sujets de recherche"
Journée de discussions sur 2 thématiques de recherche
6 mai 2009, 9h30-17h00 Institut Henri Poincaré , Paris
/* Pour participer à ces journées, veuillez remplir ce formulaire d'inscription
Page privée pour les organisateurs
*/
Problématique des données fonctionnelles dans l&
Organisateurs : Gérard Biau (Univ. Paris VI) et Bertrand Iooss (CEA)
Orateurs du matin (9h30 - 10h50) :
- Bertrand Iooss, Introduction
- Matieyendou Lamboni (INRA/MIA), Analyse de sensibilité pour les modèles dynamiques complexes
Les modèles dynamiques intégrant des processus bio-physiques jouent un rôle croissant en écologie, en agronomie et en environnement. La complexité de ces modèles rend indispensable la mesure et la prise en compte de leurs différentes sources d’incertitudes, lors de leur mise au point ainsi que lors de leur exploitation pour la prédiction et la préconisation. Elle se traduit en effet par un grand nombre de paramètres incertains par rapport aux données disponibles pour l’estimation.
Nous présentons une méthode d’analyse de sensibilité qui prend en compte toute la dynamique du modèle et qui permet de hiérarchiser les paramètres selon leur influence globale. Nous supposerons dans un premier que tous les facteurs d’entrée sont discrétisés et dans un second temps nous modéliserons l’incertitude sur les paramètres à travers des variables aléatoires continues.
Le modèle AZODYN (Jeuffroy MH, Recous S., 1999) servira comme un cas d’étude pour illustrer ces méthodes. Le modèle AZODYN simule l’indice de nutrition azotée du blé d’hiver et inclue 69 paramètres dont 15 paramètres incertains.
</sub>
- Benjamin Auder (Univ. Paris VI/CEA), Classification de données fonctionnelles
1) groupement des fonctions en sortie par similarités (prend en compte d’éventuelles discontinuités du code) ;
2) recherche d’une base adaptée pour chaque cluster de fonctions (évite la dimension infinie) ;
3) apprentissage statistique des relations entre entrées et coefficients de décomposition, et entre entrées et numéros de clusters.
Nous avons appliqué ce schéma à un jeu de 100 courbes en sortie du code de calcul Cathare, obtenant une bonne capacité de généralisation d’après un test de 10-fold cross-validation. Les étapes 1 et 2 doivent cependant être améliorées afin de mieux automatiser le métamodèle.</sub>
- Aurélie Fischer (Univ. Paris VI), Quantification et Clustering avec des Divergences de Bregman
Quantification et clustering reposent sur la minimisation d'un critère faisant intervenir une notion de proximité : nous utilisons une classe de mesures de distorsion appelées divergences de Bregman (Bregman, 1967). Nous verrons que certaines conditions assurent l'existence d'un quantificateur optimal et d'un quantificateur empirique optimal, ainsi que la convergence de la distorsion. Nous insisterons sur les applications pratiques de cette méthode : une divergence de Bregman n'est pas forcément symétrique, ce qui convient à certains types de données ; plusieurs divergences prennent en argument des fonctions, et peuvent donc servir à classer des courbes. </sub>
Orateur lors de la table-ronde de l'après-midi :
- Sidonie Lefebvre (ONERA), Estimation statistique de la dispersion de la signature infrarouge multispectrale d'un aéronef faiblement résolu
Nous souhaitons maintenant adapter notre méthode au cas de la SIR spectrale d’un aéronef faiblement résolu (image 7x7 pixels). Ceci pose plusieurs problèmes :
- comment réaliser une analyse de sensibilité du code avec une sortie vectorielle spatialement et spectralement ?
- comment décrire la dispersion de la SIR ?
- comment choisir de façon optimale un petit nombre de bandes (<10) pour une application donnée (détection, classification…) compte tenu de la dispersion de la SIR ?
Incertitudes et systèmes d&
Organisateurs : Madalina Deaconu (INRIA) et Clémentine Prieur (Univ. Grenoble I)
Orateurs du matin (11h10 - 12h30):
- Madalina Deaconu, Introduction
- Julia Charrier (INRIA Rennes et ENS Cachan Bretagne), Méthodes numériques pour le transport et la diffusion en milieu poreux aleatoire
d'un soluté dans un fluide qui s'écoule en régime stationnaire dans un
milieu poreux. L'hétérogénéité et la connaissance limitée des
caractéristiques géologiques nous amène à les modéliser par un champ
aléatoire. Nous nous intéresserons donc à des méthodes numériques pour ce
couplage de deux EDP avec coefficients aléatoires. Nous présenterons tout
d'abord une première approche par une méthode de Monte Carlo dont
l'analyse numérique fait l'objet d'un travail en cours. Puis nous
rappellerons les principes généraux des méthodes spectrales stochastiques
et leur intérêt.
L'élaboration d'une méthode spectrale stochastique pour notre problème
constitue en effet un des objectifs pour la suite de notre travail.</sub>
- Tamara Salameh (Laboratoire des Sciences du Climat et de l'Environnement, UMR CEA/IPSL/CNRS), Incertitudes dans la modélisation régionale du climat
non seulement environnementales mais aussi sociétales et économiques.
La modélisation du climat régional est nécessaire pour évaluer et prévoir
le climat, sa variabilité et ses extrêmes (tempêtes, précipitations
intenses, vagues de chaleur ou de gèle) et leurs impacts (par exemple
sur l'agriculture, l'aviation et la pollution atmosphérique).
La modélisation des circulations atmosphériques aux échelles régionales
est difficile à cause de la difficulté de la représentation des processus physiques complexes et non linéaires qui les contrôlent. Les méthodes
de régionalisation du climat sont nombreuses (dynamique, statistique et stochastique), mais demandent toutes du forçage et nécessitent des
ajustements de variables. Ce travail présente des méthodes de modélisation
du climat régional méditerranéen et leurs incertitudes.</sub>
- Denis Guillaume (IFP), Modélisation de grands réseaux par cinétique stochastique - Principes et applications à l'oligomérisation des oléfines
L'oligomérisation des oléfines légères, bien que procédé "simple" présente une grande complexité réactionnelle et sert d'étalon à l'évaluation des techniques de cinétique stochastique. Les travaux effectués à l'IFP comparent, sur des réseaux réduits, l'algorithme classique avec plusieurs variantes.
</sub>
Orateur lors de la table-ronde de l'après-midi :
- Olivier Bardou (GDF Suez), Prise en compte de l'aversion à l'incertitude dans les projets d'investissements
Si l'aversion au risque est désormais une dimension que les décideurs ont conscience de devoir prendre en compte dans les dossiers d'investissement, l'aversion à l'ambiguïté est encore très souvent mal appréhendée.
Dans le monde de l'énergie, les investissements - notamment dans les contrats d'approvisionnements - sont pourtant soumis à des aléas difficilement quantifiables tel que le risque géopolitique. La question d'une modélisation de l'incertitude au sens de Knight se pose donc naturellement dans ce contexte.
Cet exposé présente quelques pistes de recherche récemment proposées pour traiter cette question.
</sub>