Séminaire


Adresse et plan d’accés

Vendredi 22 novembre à 14h00 en 33.3.20 dans le cadre du séminaire "amis du M2N" - Nathalie Nouaime (doctorante - M2N) - Analyse de sensibilité pour des modèles de Navier-Stokes généralisés.

Abstract : L’analyse de sensibilité en dynamique des fluides numérique (CFD) est cruciale, elle détermine comment les variations de paramètres d’entrée ou les conditions aux limites affectent les résultats de simulation. Ce travail présente un cadre complet pour l’analyse de sensibilité des équations de Navier-Stokes généralisées en utilisant la méthode intrusive de polynômes de chaos (IPCM). Bien que puissante, l’approche intrusive est connue pour la difficulté inhérente de modifier le système d’état, ce qui peut compliquer sa mise en œuvre. Pour y remédier, une méthodologie systématique est développée pour faciliter l’application de l’IPCM aux équations de Navier-Stokes avec des paramètres d’entrée, des conditions initiales ou des conditions aux limites incertaines. Les équations de sensibilité du premier ordre sont ensuite discrétisées en volumes-éléments finis, avec un accent particulier sur les estimations de stabilité des solutions continues et discrétisées de la sensibilité du premier ordre des équations de Navier-Stokes. Cette approche est ensuite étendue aux équations de Navier-Stokes couplées à la température en appliquant l’IPCM. L’efficacité de l’IPCM est évaluée à travers divers tests numériques. Enfin, l’IPCM est appliquée aux équations de Navier-Stokes moyennées de Reynolds avec un modèle. Cette application est significativement plus complexe et nécessite des raffinements supplémentaires.

Jeudi 16 mai à 14h00 en 31.2.87 - Simon Santoso (chercheur au Barcelona Supercomputing Center (BSC)) - Hybrid Method for the advection of high Schmidt scalars in turbulent flows.

Abstract : We will present the implementation of a parallel method combining, on one hand, a semi-Lagrangian particle method for the advection-diffusion of scalar functions and on the other hand, a finite-element method, to solve the Navier-Stokes equations. Each methods are solved in a parallel fashion by two different ensembles of CPUs. A particular focus is made on the coupling between those two groups and the numerical efficiency of this implementation. This method is finally used to study the advection of a high Schmidt scalar in a turbulent flow.

Lundi 22 avril à 11h00 en 37.2.43 - Gilles Tissot (chargé de recherche à Inria Rennes) - Coherence decay of wavepackets in turbulent jets by stochastic modelling under location uncertainty

Abstract : A class of reduced-order models defined in the frequency domain, such as resolvent analysis, aims at predicting the dominant coherent structures or wave-like solutions in turbulent flows. Resolvent analysis extracts the most amplified responses through the linearised operator to a forcing term, which represents the non-lineraities. It allows to obtain statistics of the response conditioned by a modelling of the statistics of the non-linear terms. Modelling accurately these forcing statistics is a hard task, and most of the times a limiting step when Gaussian white noise is assumed.
We propose in this presentation to model the impact of unresolved turbulence on the wavepackets at a more fundamental level. We consider stochastic modelling under location uncertainty, where conservation laws are rewritten with the assumption of a stochastic transport of fluid parcels. This leads to a stochastic version of the Navier-Stokes equations, where stochastic transport (induced by unresolved turbulence) is accounted for. In addition, a stochastic diffusion and a drift velocity representing respectively eddy diffusion and turbophoresis effects arise naturally from Ito calculus. Based on this generalised set of equations, a stochastic model linearised over the mean flow is constructed and expressed in the frequency domain.
We propose in this presentation to employ the stochastic linear models (SLM) to predict coherence decay of wavepackets in turbulent jets in view of performing jet noise predictions. Large scale wavepackets are acoustically efficients and play a major role in acoustic emissions.
In subsonic jets, it has been shown in the literature, that accurate two point statistics, such as coherence, are mandatory in order to obtain the right noise level. Unfortunately, classical linear models, such as resolvent analysis, lead to a strong dominance of the first Kelvin-Helmholtz mode, and then to a silent too coherent solution. We will show the ability of SLM to recover the two-point coherence. (les slidesde l’exposé)

Vendredi 2 février à 11h00 en 33.3.20 - Emmanuel Franck (chargé de recherche à Inria Strasbourg) - Méthodes neurales et méthodes hybrides pour les EDP

Abstract : Depuis plusieurs années, les réseaux de neurones ont eu des résultats spectaculaires et ont profondément changé le champ de recherche qu’est l’apprentissage machine. Depuis 5 ans des approches basées sur les réseaux de neurones ont été étendu à des problèmes d’EDP. Après un rapide rappel sur l’apprentissage et sur la construction des méthodes numériques classiques, on introduira ces nouvelles approches et on montrera qu’il s’agit en fait de méthodes numériques utilisant les mêmes principes que les méthodes usuelles. Ensuite, on discutera les propriétés de ces méthodes, leurs forces et leurs faiblesses. Dans un second temps, on proposera des méthodes hybrides qui combineront les avantages des approches classiques et approches neurales et on illustrera cela par des cas tests numériques.

Adresse et plan d’accés


2023

Mardi 19 décembre à 14h00 en 33.3.20 - Peter Schmid (Professeur de mécanique des fluides à KAUST University) - Data-based reductions and closure models for dynamical systems

Abstract : The reduced-order description of physical systems from observed data is an important component in the analysis of many dynamical processes occurring in nature. In the first part of this talk, we will introduce a data-based reduction using transfer operators and graph theory, which will result in a Markov-model description of the underlying process. It will be exemplified on a magnetic Taylor-Green model for the Earth’s magnetic field reversal. The second part will address the stability of closure approaches in highly truncated model reductions. A residualization, rather than truncation, technique will be discussed and applied to the closure of the harmonically balanced Navier-Stokes equations using a machine-learning approach.

Vendredi 1 décembre à 14h00 en salle 33.3.20 - Clément Scherding (docteur en Mécanique) - Predictive Modeling of Hypersonic Flows in Chemical Nonequilibrium using data-driven approaches

Abstract : Hypersonic flows are of great interest in a wide range of aerospace applications and are a critical component of many technological advances. Accurate simulations of these flows in thermochemical (non)-equilibrium rely on detailed thermochemical gas models, such as the one implemented in the Mutation++ library. While accurately capturing the underlying aerothermochemistry, the library dramatically increases the cost of such calculations. We propose a novel model-agnostic machine-learning technique which allows an adaptive extraction of a reduced-order thermochemical model of a gas mixture from the library. The states are embedded in a low-dimensional space and clustered to identify regions with different levels of thermochemical (non)-equilibrium. Then, a surrogate surface from the reduced cluster-space to the output space is generated using radial-basis-function networks. The method is validated and benchmarked on simulations of hypersonic flat-plate boundary layers and shock-wave boundary layer interaction with finite-rate chemistry. Substituting Mutation++ with the light-weight, machine-learned alternative improves the performance of the solver by up to 70% while maintaining overall accuracy. Thanks to the online learning capabilities of the technique, generalization and predictivity of the model are demonstrated when training data is only partially available. The method can be readily ported to other domains relying on expensive, high-dimensional function evaluations.

Mardi 21 novembre à 11h00 en salle 33.3.20 - Angelo Iollo (professeur des universités à INRIA et à l’Université de Bordeaux) - Retour sur la publication "Enablers for robust POD models" (Bergman, Bruneau, Iollo, JCP, 2009) : Pourquoi j’ai changé d’avis sur tout ou presque

Abstract : Dans le cadre de ce séminaire, mon objectif est de retracer succinctement deux des principales évolutions dans la méthodologie de réduction des modèles numériques basés sur les équations aux dérivées partielles. Par rapport aux premières tentatives menées à la fin des années 90 et au cours de la décennie suivante, la méthodologie de réduction a évolué d’une approche plutôt centrée sur la modélisation de l’erreur de troncature du modèle vers une technique de réduction directement dérivée du schéma numérique de référence de la simulation numérique haute-fidélité. Ce changement de paradigme est essentiellement dû au développement de méthodes de quadrature empirique particulièrement efficaces et faciles à implémenter [1].

Grâce à ces approches, il est possible de garantir, au moins sous certaines hypothèses, que l’intégration numérique reste stable et convergente dans le sens classique, ouvrant ainsi la voie à de véritables applications industrielles de la réduction de modèle. Parallèlement, il est devenu de plus en plus évident qu’au-delà d’un problème d’analyse numérique, il existe un problème intrinsèque d’approximation, en ce sens que les solutions de certains problèmes paramétriques ne sont pas nécessairement représentées efficacement dans un espace linéaire de basse dimension. Cette constatation a conduit à introduire des représentations non linéaires de l’espace solution faisant appel à la notion d’interpolation convexe par déplacement [2][6] récemment introduite.

Cette technique permet de contourner le problème de la largeur linéaire n de Kolmogorov en utilisant des applications bijectives assimilées à partir des données disponibles. Cela est souvent réalisé en définissant des problèmes de transport optimal appropriés, comme initialement proposé dans [3]. Après ces quelques remarques, l’application à la prédiction de phénomènes tels que certains écoulements modérément raréfiés [4], des écoulements visqueux incompressibles, des écoulements compressibles [5], éventuellement turbulents et en présence d’ondes de choc [6], sera détaillée, mettant en évidence les limitations existantes et les défis à relever.

[1] C. Farhat, T. Chapman, and P. Avery. Structure-preserving, stability, and accuracy properties of the energy-conserving sampling and weighting method for the hyper reduction of nonlinear finite element dynamic models. International journal for numerical methods in engineering, 102(5):1077–1110, 2015.
[2] A. Iollo and T. Taddei. Mapping of coherent structures in parameterized flows by learning optimal transportation with Gaussian models. Journal of Computational Physics, 471:111671, 2022.
[3] A. Iollo and D. Lombardi. Advection modes by optimal mass transfer. Physical Review E, 89(2):022923, 2014.
[4] F. Bernard, A. Iollo, and S. Riffaud. Reduced-order model for the BGK equation based on POD and optimal transport. Journal of Computational Physics, 373:545–570, 2018.
[5] S. Riffaud, M. Bergmann, C. Farhat, S. Grimberg, A. Iollo. The DGDD Method for Reduced-Order Modeling of Conservation Laws. Journal of Computational Physics, 2021, 437, ⟨10.1016/j.jcp.2021.110336⟩. ⟨hal-03213731v3⟩
[6] Cucchiara, S., Iollo, A., Taddei, T., & Telib, H. (2023). Model order reduction by convex displacement interpolation. arXiv preprint arXiv:2310.04290.

Jeudi 12 octobre à 11h00 en salle 37.2.43 - Mejdi Azaiez (professeur des universités à l’Institut de Mécanique et d’Ingénierie de Bordeaux (I2M)) - Certified Reduced Order Method for the Parametrized Allen-Cahn Equation

Abstract : We present a ROM-POD technique that uses time difference quotients as snapshots to provide fast solutions to the parameterized Allen-Cahn equations. We develop an error analysis that includes a specific use of the time difference quotients to improve the error estimates by an order of convergence with respect to the time step. And includes a series of numerical experiments that provide exhaustive tests of the theoretical error estimates. To conclude this investigation, we derive a new posteriori error estimate for the AC equation through residual error estimators that we evaluate thanks to several numerical examples.

Jeudi 29 juin à 11h00 en salle 33.3.20 - Nicolas Alferez (MC, Dynfluid CNAM) - dNami : génération de code et différentiation automatique pour la modélisation dans un environnement HPC

Abstract : (slides du séminaire) dNami est un environnement numérique permettant de résoudre une grande classe de systèmes d’EDPs sur maillages structurés. Il est basé sur une méthode de génération automatique de code source permettant de séparer implémentation et spécification du problème à résoudre. Dans un premier temps, une présentation du framework et de ses possibilités sera proposée. Une attention particulière sera apportée à la description des contraintes imposées par les architectures HPC modernes sur l’implémentation (CPU et GPU). Nous verrons comment dNami apporte la flexibilité pour s’adapter à ces changements, indépendamment du problème physique à résoudre. Quelques exemples d’application à la résolution des équations de Navier-Stokes compressibles seront donnés. Un cas d’étude d’un nouveau modèle d’équations à deux couches (Atmosphère/Océan), ayant permis le calcul des tsunamis générés par l’éruption du volcan Hunga Tonga en janvier 2022, permettra de mettre en évidence la flexibilité du framework. La deuxième partie de la présentation sera consacrée au couplage entre dNami et la librairie Tapenade de l’INRIA. Cette méthode de différentiation algorithmique permet une différenciation automatique des sources générées par dNami (toujours à partir d’expressions symboliques fournies par l’utilisateur). Nous verrons comment le maintien de la couche HPC entre le solver direct et sa version linéaire permet de garantir les propriétés HPC de ce dernier. Un second couplage avec la bibliothèque SLEPc a permis le calcul de modes de stabilités globaux dans le framework dNami (à partir de méthode de Krylov). Des cas d’applications, écoulement autour d’un cylindre et modes de "screech" d’un jet plan supersonique bidimensionnel, permettant de valider la méthode seront brièvement décrits.

Lundi 5 juin à 11h00 en salle 33.3.20 - Séminaire des « amis du M2N » : Philippe Durand (MC, M2N CNAM) - Topologie appliquée à la reconnaissance de formes, aux sciences de l’ingénieur et à la physique mathématique.

Abstract : L’application de la topologie et de la théorie de la mesure dans le traitement d’images, conduit à des résultats intéressants concernant la classification des données, il permet de résoudre différentes problématiques en analyse et interpolation de texture : il s’adapte à différents types de données issues de la télédétection comme les images radar ou celles d’autres capteurs.
En sciences de l’ingénieur, les outils issus de la théorie des graphes et de l’analyse tensorielle peuvent être appliqués pour l’étude des réseaux électromagnétiques.
En sciences de l’ingénieur, cette théorie a été développée par Gabriel Kron : la théorie de l’homotopie et de l’homologie issue de la topologie algébrique généralise la notion de la connectivité discrète en théorie des graphes et en théorie homologique, et permet de trouver des lois bien connues en électricité.
Enfin en physique mathématique la topologie est une aide précieuse pour une meilleure compréhension de la théorie quantique des champs.
Si le temps le permet, nous parlerons de travaux plus récents concernant la persistance homologique.

Vendredi 10 février 11h en salle des thèses Boris Vian (37.2.43) - Taraneh Sayadi, Chargée de recherche à l’Institut Jean Le Rond d’Alembert (Sorbonne Université | UPMC) - Data-driven modelling of hypersonic flows in non-equilibrium.

Abstract : At very large Mach numbers, fluid flows are strongly influenced by non-equilibrium gas effects such as finite-rate chemical reactions or internal mode excitation arising from extreme temperatures. These effects have an order-one influence on quantities of interest, such as stability properties, transition and heating and must be taken into account to achieve effective designs, reliable predictions, and successful flow control. Accurate simulations of these flows rely on detailed thermochemical gas models (look-up libraries), which dramatically increase the cost of the underlying calculations. In this talk I will first present state-of-the-art detailed simulations of such complex flows and the incurring cost, motivating the second part of the talk where I will present a novel model-agnostic data-driven technique to extract a surrogate of the thermochemical models, reducing the cost of the simulations considerably while maintaining accuracy.

Jeudi 26 janvier à 11h en salle 33.3.20 Florian de Vuyst, Professeur à l’Université de Technologie de Compiègne (UTC) - Investigating data-driven machine learning algorithms for predictive FSI microcapsules dynamics into microchannels.

Abstract : Dans cet exposé, on présentera d’abord le contexte applicatif des interactions fluides-structures de capsules déformables en suspension dans un fluide s’écoulant dans un microcanal (équipe IFSB du laboratoire BMBI). Les modèles réduits simplifient les analyses paramétriques. Ils peuvent aussi être utilisés pour la caractérisation de propriétés mécaniques dans un contexte expérimental.
Dans un second temps, on discutera de variantes d’algorithmes DMD dans la perspective d’un meilleur contrôle de la précision et de la prédictibilité ainsi que de garanties de stabilité asymptotique en temps.
On terminera l’exposé par des perspectives et des questions ouvertes.

Vendredi 6 janvier à 11h en salle 33.3.20 Bruno Després, Professeur au laboratoire Jacques-Louis Lions, Sorbonne Université - Neural Networks from the viewpoint of Numerical Analysis.

Abstract : The presentation will focus on the interplay between, on the one hand Neural Networks and Machine Learning which are emerging hot topics, and on the other hand Numerical Analysis and PDE discretization which are now classical topics. The Yarotsky theorem will be discussed, together with a recent alternative to the polarisation formula (D.-Ancellin 19’). It offers the unique opportunity to construct a convergent ML algorithm by a series of convex optimization problems (but for an extremely academic simple problem). Discretization of transport equations for CFD will serve as an applicative illustration.

Adresse et plan d’accés


2022

Vendredi 16 décembre à 11h en salle 35.1.53 - Mathieu Aucejo, MCF au laboratoire LMSSC du Cnam - Filtres Bayésiens parcimonieux : Application à l’identification d’effort.

Abstract : Les filtres Bayésiens de type Kalman sont utilisés depuis une quinzaine d’années en dynamique des structures pour estimer conjointement ou séquentiellement l’état d’un système, ainsi que les efforts qui lui sont appliqués. Lorsque l’on s’intéresse uniquement au problème d’identification d’effort, les filtres faisant références dans la littérature présentent deux défauts majeurs. Le premier concerne le lissage des champs d’efforts reconstruits lorsque la densité de points d’identification devient importante. Le second défaut est lié au phénomène de dérive qui apparaît lorsque seules des mesures d’accélération sont utilisées pour la reconstruction.

Pour pallier ces problèmes, nous avons développé dans le cadre de la thèse de Julian GHIBAUDO, un filtre Bayésien parcimonieux introduisant une contrainte sur la distribution spatiale du champ d’effort à reconstruire. Pour cela, nous nous sommes appuyés sur le paradigme Bayésien pour obtenir une formulation unifiée du problème d’estimation de l’état et de la commande d’un système, permettant d’introduire de manière rigoureuse l’hypothèse de parcimonie spatiale du champ d’effort à identifier.

Une comparaison du filtre Bayésien parcimonieux développé avec les filtres ”état de l’art” sera proposée sur un exemple fil rouge.

Vendredi 2 décembre à 11h00 en salle des thèses Boris Vian (37.2.43) - George Haller, Professeur à l’ETH Zurich - Data-Driven Nonlinear Reduced-Order Modeling and Control via Spectral Submanifolds.

Abstract : The physical processes of interest to contemporary science and engineering are growing ever more complex. As a result, their governing equations are becoming high-dimensional or even partially unknown. For the analysis, prediction, design and control of these processes, reduced-order models capturing the core of the underlying physical phenomena are a must. Most of these phenomena, however, are intrinsically nonlinear, i.e., contain multiple stationary states and transitions among them. As a consequence, no linearized model reduction method, such as the dynamic mode composition (DMD) and its variants, can capture the global behavior of interest in these problems accurately.
Here I discuss an intrinsically nonlinear model reduction method based on spectral submanifolds (SSMs). These manifolds are very low-dimensional attractors of a nonlinear system that are the smoothest nonlinear continuations of linear modal subspaces identified at stationary states. Locating SSMs and identifying their low-dimensional dynamics yields mathematically rigorous and accurate reduced-order models for the full system. I show how these models can then be used for physical system identification, accelerated simulation of complex finite-element models, prediction of forced responses from unforced measurements of structural vibrations, model-predictive control of soft robots and prediction of transitions among various stationary states in fluids.

Vendredi 25 novembre à 11h00 en salle 33.3.20 - Séminaire des « amis du M2N » : Thierry Horsin (PU, M2N CNAM) -Modélisations mathématiques et numériques en contrôle et stabilité.

Abstract : Dans un premier temps je présenterai brièvement un aperçu de quelques sujets traités sur les questions de contrôle depuis mon arrivée au CNAM. Précisément, le contrôle optimal de problèmes elliptiques ayant une forme de dégénerescence et la contrôlabilité lagrangienne de fluides (parfaits) avec l’utilisation du numérique respectivement soit en simulation soit en analyse pour mettre en évidence respectivement des phénomènes suspectés ou des difficultés de mise en oeuvre effective via une méthode que l’on pourrait penser constructive. Ces travaux sont en collaboration avec soit avec P. Kogut, P. Kogut & O.Wilk, soit avec O. Kavian.

Dans un deuxième temps, je parlerai d’un sujet auquel je me suis intéressé plus récemment qui est le comportement asymptotique de solutions (de systèmes) d’EDP ou d’EDO pour lesquelles un terme est supposé servir de feedback (non linéaire en général). Je présenterai en particulier un travail récent dans lequel on étudie le comportement asymptotique d’une solution d’un tel système discrétisé de manière implicite avec un pas de temps (probablement nécessairement) variable. Ces travaux sont en collaboration avec M. A. Jendoubi.

Jeudi 15 septembre à 11h00 en salle des thèses Boris Vian (37.2.43) - Guillaume Balarac, Professeur au Laboratoire des Ecoulements Géophysiques et Industriels (LEGI) à Grenoble - La simulations des grandes échelles (LES) : vers un outil d’aide à la décision pour des problématiques industrielles.

Abstract : Les écoulements turbulents se caractérisent par le développement d’une très large gamme d’échelles de mouvement. La puissance des calculateurs actuels ne permet pas la simulation directe de toutes ces échelles dans de nombreuses applications. La simulation des grandes échelles (SGE ou LES pour large eddy simulation) apparaît alors comme une alternative intéressante. Avec cette approche, seules les plus grandes échelles de l’écoulement sont explicitement calculées et l’influence des plus petites échelles est modélisée par un modèle sous-maille. Cela permet, avec un coût de calcul abordable, de décrire les instationnarités les plus influentes des écoulements contrairement aux approches statistiques (RANS) couramment utilisées dans l’industrie. Le séminaire abordera les nouveaux enjeux du LES, qui doit désormais pouvoir être un outil d’aide à la décision pour des applications industrielles complexes. Ces problématiques concernent notamment la définition d’un maillage « optimal » garantissant la qualité de la prédiction tout en minimisant le temps de retour. Cela conduit également à s’interroger sur les méthodes de résolution (spatiale et temporelle) utilisées. Au-delà de ces aspects méthodologiques, des exemples d’études numériques de systèmes énergétiques réels seront présentés.

Jeudi 2 juin à 11h00 en salle des thèses Boris Vian (37.2.43) - Olivier Wilk (IR, M2N CNAM) - Un modèle hydrodynamique couplé avec capillarité et une condition limite absorbante.

Abstract : L’exposé porte sur le développement de conditions limites absorbantes, approximations de la condition limite exacte ou transparente, construites à l’aide du développement classique de Padé sur un modèle hydrodynamique couplé sans et avec capillarité pour un problème potentiellement non homogène sous la surface. Le cas plus complexe, celui avec capillarité, est résolu en imposant une contrainte permettant de conserver la même qualité de sortie des vagues, des ondes associées à ce modèle.

Jeudi 19 mai à 10h00 en salle des thèses Boris Vian (37.2.43) - Mohamed Ali Jendoubi, professeur de Mathématiques à Université de Carthage et membre du laboratoire "Equations aux dérivées partielles" de l’université de Tunis - Systèmes dynamiques dissipatifs continus/discrets. Comportement à l’infini avec la méthode de Lojasiewicz (mini cours).

Abstract : Dans ce mini cours, je vais étudier en premier lieu le comportement à l’infini des solutions bornées de certaines équations différentielles, ou équations aux dérivées partielles d’évolution. À cet effet je vais introduire la méthode due à Lojasiewicz. Dans un second temps, je parlerai de travaux réalisés récemment avec Thierry Horsin sur le comportement asymptotique de discrétisations de systèmes continus.

Jeudi 21 avril à 11h en salle des thèses Boris Vian (37.2.43) - Victor Michel-Dansac, chercheur à Inria Nancy - Grand Est dans l’équipe TONUS - CFL-less and parallel kinetic schemes.

Abstract : We describe a parallel and quasi-explicit Discontinuous Galerkin (DG) kinetic scheme for solving systems of balance laws. The solver is CFL-less (i.e., the CFL number can be arbitrary) and has the complexity of an explicit scheme. It can be applied to any hyperbolic system of balance laws. In this work, we assess the performance of the scheme in the particular cases of the three-dimensional wave equation and of Maxwell’s equations. We measure the benefit of the unconditional stability by performing experiments with very large CFL numbers. In addition, the parallel possibilities of the method are investigated (les slides en pdf).

jeudi 7 avril à 10h30 en salle des thèses Boris Vian (37.2.43) - Denis Sipp et Samir Beneddine - chercheurs à l’ONERA au département d’aérodynamique, aéroélasticité et acoustique (DAAA) - Progrès et défis futurs pour le contrôle d’écoulements par Reinforcement Learning par Samir Beneddine et Réduction de modèles non-linéaires : comparaison entre des méthodes POD-Galerkin et POD-DEIM par Denis Sipp :

Abstract 1 : Progrès et défis futurs pour le contrôle d’écoulements par Reinforcement Learning par Samir Beneddine - Les récents progrès du reinforcement learning (RL) ouvrent la voie à de nouvelles stratégies pour le contrôle de systèmes dynamiques. Concernant le domaine particulier de l’aérodynamique, il s’agit d’une approche prometteuse pour traiter des problèmes centraux tels que la réduction de la consommation ou du bruit émis par les avions. Depuis quelques années, de multiples travaux numériques et expérimentaux semblent montrer que le RL pourrait être en mesure d’apporter une réponse à ces défis, en présentant notamment l’avantage de permettre une prise en compte de l’aspect non linéaire des équations régissant la dynamique des fluides. Cependant, de multiples verrous subsistent et devraient encore alimenter la communauté scientifique pendant de nombreuses années avant de pouvoir envisager d’embarquer ce genre de méthodes sur de réelles configurations applicatives.
Ce séminaire propose de présenter deux cas d’écoulements simples : le sillage d’un cylindre et une cavité laminaire. Ces deux cas serviront de support pour présenter une partie des travaux en cours à l’ONERA sur le sujet, et permettront également d’ouvrir sur certains challenges et difficultés rencontrées actuellement, ainsi que d’introduire et discuter des pistes proposées par la communauté scientifique pour adresser ces points.

Abstract 2 : Réduction de modèles non-linéaires : comparaison entre des méthodes POD-Galerkin et POD-DEIM par Denis Sipp - Several nonlinear model reduction techniques are compared for the three cases of the non-parallel version of the Kuramoto-Sivashinsky equation, the transient regime of flow past a cylinder at Re = 100 and fully developed flow past a cylinder at the same Reynolds number. The linear terms of the governing equations are reduced by Galerkin projection onto a POD basis of the flow state, while the reduced non-linear convection terms are obtained either by a Galerkin projection onto the same state basis, by a Galerkin projection onto a POD basis representing the nonlinearities or by applying the Discrete Empirical Interpolation Method (DEIM) to a POD basis of the nonlinearities. The quality of the reduced order models is assessed as to their stability, accuracy and robustness, and appropriate quantitative measures are introduced and compared.

Jeudi 17 février à 11h en salle des thèses Boris Vian (37.2.43) et en visio conférence sur Teams - Christophe Chalons, Professeur à l’Université de Versailles Saint-Quentin-en-Yvelines au Département de Mathématiques - Schémas par reconstruction discontinue pour les systèmes hyperboliques non conservatifs :

Abstract : Dans cet exposé, nous nous intéressons à l’approximation numérique des solutions discontinues des systèmes hyperboliques non conservatifs. Contrairement au cadre conservatif classique, la définition même des solutions et la construction de méthodes numériques adaptées posent encore aujourd’hui de sérieuses difficultés. Nous présenterons une nouvelle approche basée sur une stratégie de reconstruction discontinue sur chaque cellule du maillage et illustrerons les résultats obtenus sur différents systèmes.

Reporté ... en salle ... et en visio conférence sur Teams - Etienne Mémin, Directeur de Recherche Inria, équipe Fluminance (Inria Rennes - Bretagne Atlantique) - Stochastic modelling of large-scale fluid flows

Abstract : In this talk, I will describe a formalism, called modelling under location uncertainty (LU), to derive in a systematic way large-scale stochastic representations of fluid flows dynamics. This modelling enables to take into account in the evolution laws the neglected small-scale effects through the introduction of a random field.
The resulting dynamics is built from a stochastic representation of the Reynolds transport theorem, in a way similar to the deterministic case. This provides a physically relevant derivation (i.e. from the usual conservation laws) of the sought stochastic evolution laws. We will in particular show how to derive systematically stochastic representation of flow dynamics. We will give several examples of simulations obtained by such system and how an ensemble of such realizations can be used in data assimilation or for uncertainty quantification.

Furthermore, this formalism brings into play very meaningful terms for turbulence modeling. As a matter of fact, it provides (i) a natural subgrid tensor expression figuring the mixing of the resolved components by the unresolved components ; (ii) a multiplicative random term associated to an energy backscattering ; and (iii) a modified advection that depicts a so-called turbophoresis phenomena that tends to drive fluid particles from regions of high turbulence toward areas of lower turbulent kinetic energy. We will in particular focus on this last term and show its relevance to describe several physical situations (such as wall-law velocity profiles or wave mean-current interaction and the apparition of the so-called vortex force). This will put an emphasis on the importance of the unresolved components inhomogeneity modeling.

Adresse et plan d’accés


2021

Mardi 14 décembre à 11h en salle des thèses Boris Vian (37.2.43) et en visio conférence sur Teams - Camilla Fiorini (MCF, Laboratoire M2N Cnam) - Propagation d’incertitude et analyse de sensibilité en dynamique des fluides numérique.

Abstract : Analyse de sensibilité pour lois de conservation hyperboliques, propagation d’incertitude pour les équations de Navier-Stokes, schémas numériques d’ordre élevé en temps pour EDP stochastiques en océanographie (les slides en pdf).

Lundi 10 mai 2021 à 11h00 en visio conférence sur Teams - Olivier Wilk (IR, M2N CNAM) - Réseaux de neurones convolutifs

Abstract : L’exposé sera constitué de deux parties. La première permettra d’introduire/aborder le sujet de l’apprentissage à l’aide de réseaux de neurones convolutifs (CNN : Convolutional Neural Network). La seconde partie s’intéressera principalement à la conception de l’architecture des CNN en traitant en particulier les aspects de régularité, de symétrie (groupe) et de parcimonie et fera ainsi le lien avec la décomposition en ondelettes.
Ref. principale : S. Mallat - cours du collège de France.

Jeudi 11 mars 2021 à 11h00 en visio sur Teams - Quang Bui, ATER au M2N - Coupled Parareal-Optimized Schwarz Waveform relaxation method for advection-diffusion problems

Abstract : Parareal method is a numerical method to solve time - evolutional problems in parallel, which uses two propagators : the coarse - fast and inaccurate - and the fine - slow but more accurate. Instead of running the fine propagator on the whole time interval, we divide the time space into small time intervals, where we can run the fine propagator in parallel to obtain the desired solution, with the help of the coarse propagator and through parareal steps. Furthermore, each local subproblem can be solved by an iterative method, and instead of doing this local iterative method until convergence, one may perform only a few iterations of it, during parareal it- erations. Propagators then become much cheaper but sharply lose their accuracy, and we hope that the convergence will be achieved across parareal iterations.

In this talk, we propose to couple Parareal with a well-known iterative method - Optimized Schwarz Waveform Relaxation (OSWR) - with only few OSWR iter- ations in the fine propagator and with a simple coarse propagator deduced from Backward Euler method. We present the analysis of this coupled method for 1- dimensional advection reaction diffusion equation, for this case the convergence is almost linear. We also give some numerical illustrations for 1D and 2D equations, which shows that the convergence is much faster in practice.

Adresse et plan d’accés


2020

Exposé reporté ... - Mohammed Ali JENDOUBI (professeur à l’université Tunis El Manar, Tunisie) - Comportement à l’infini des solutions globales et bornées de quelques problèmes d’évolution

Abstract : Dans cet exposé, on étudie le comportement à l’infini des solutions globes et bornées de quelques problèmes d’évolution.
On commence par rappeler des résultats classiques de convergence et de non convergence des solutions pour des systèmes différentiels du premier et du second ordre (dimension finie), puis pour les équations de la chaleur et l’équation des ondes avec dissipation.
A la fin de l’exposé, on donne quelques résultats récents qui concernent des systèmes du second ordre avec dissipation lente ou partielle.

Exposé reporté ... - Elena Di Bernardino (MCF HDR, Laboratoire M2N Cnam) - Lipschitz-Killing curvatures of excursion sets for two-dimensional random fields (travail en collaboration avec Hermine Biermé, Céline Duval et Anne Estrade)

Abstract : We study three geometrical characteristics for the excursion sets of X a 2-dimensional standard (centered and unit variance) stationary isotropic random field. These characteristics can be estimated without bias if the field satisfies a kinematic formula, such as a smooth Gaussian field or some shot noise fields.
If the field is Gaussian, we show how to remove the constraining assumption that the field is standard, and adapt the previous estimators.
We illustrate how these quantities can be used to recover some parameters of X and perform testing procedures. Finally, we use these tools to built a test to determine if two images of excursion sets can be compared. This test is applied on both synthesized and real mammograms.

Adresse et plan d’accés


2019

Jeudi 3 octobre à 14h00 en salle 33.3.20 - Baptiste Delaporte (étudiant en Master Mathématique et Modélisation, Université Pierre et Marie Curie) - Semi-Lagrangian Simulation of Turbulent Flows using Vortex methods.

Abstract : Dans le cadre de la fin de stage de M2 encadré par Chloé Mimeau et Iraj Mortazavi, je présenterai ce jeudi 3 Octobre 2019 mes travaux réalisés durant ces 6 derniers mois.
Contexte : La simulation numérique d’écoulements turbulents représente un enjeu majeur de la CFD (Computational Fluid Dynamics). Les simulations dites directes (DNS) de ce type d’écoulements requièrent des ressources en capacité de stockage et en temps de calcul qui deviennent très rapidement prohibitives. C’est pourquoi de nombreux modèles de turbulences sont apparus depuis le 20eme siècle afin d’apporter une alternative à ces résolutions directes trop coûteuses. Dans ce travail, nous proposons et testons un modèle de turbulence, ici un modèle 3D anisotrope de viscosité artificielle, spécialement adapté à notre solveur Navier-Stokes incompressible basé sur une méthode vortex semi-lagrangienne (approche particulaire de la discrétisation des équations de Navier-Stokes en vitesse-vorticité, avec remaillage régulier des particules sur une grille cartésienne). Ce modèle est appliqué dans le contexte d’une méthode dite de Bi-level qui consiste à résoudre le champ de vorticité, non filtré, sur grille fine et à résoudre le champ de vitesse associé, filtré, sur grille grossière.
J’introduirai donc dans un premier temps notre méthode Vortex remaillée avant de présenter les résultats et performances obtenues sur différents cas test d’écoulements 3D, à savoir le cas test du Taylor-Green Vortex et un cas de turbulence homogène isotrope, en utilisant notre modèle de viscosité artificielle avec une approche Bi-level. PDF avec quelques résultats numériques

Vendredi 27 septembre à 10h30 en salle 35.3.22 - Claude Bardos (laboratoire Jacques Louis Lions, Université Paris Diderot) - Au sujet des équations cinétiques.

Abstract : A la suite d’un article écrit avec Norbert Mauser publié dans la Gazette des Mathématiciens, je propose de faire une causerie sur l’histoire des équations cinétiques en insistant un peu sur les faits dont
j’ai été le témoin direct, comme par exemple les lemmes de moyenne.

Jeudi 13 juin 2019 à 14h00 en salle 35.3.22 - Eckart Meiburg (Professeur à l’University of California, Santa Barbara) - Settling of Cohesive Sediment : Particle-resolved Simulations.

Abstract : We develop a physical and computational model for performing fully coupled, grain-resolving Direct Numerical Simulations of cohesive sediment, based on the Immersed Boundary Method. The model distributes the cohesive forces over a thin shell surrounding each particle, thereby allowing for the spatial and temporal resolution of the cohesive forces during particle-particle interactions.
We test and validate the cohesive force model for binary particle
interactions in the Drafting-Kissing-Tumbling (DKT) configuration.
Cohesive sediment grains can remain attached to each other during the
tumbling phase following the initial collision, thereby giving rise to the
formation of flocs. The DKT simulations demonstrate that cohesive particle
pairs settle in a preferred orientation, with particles of very different
sizes preferentially aligning themselves in the vertical direction, so
that the smaller particle is drafted in the wake of the larger one. This
preferred orientation of cohesive particle pairs is found to remain
influential for much larger simulations of 1,261 polydisperse particles
released from rest. These simulations reproduce several earlier
experimental observations by other authors, such as the accelerated
settling of sand and silt particles due to particle bonding, the
stratification of cohesive sediment deposits, and the consolidation
process of the deposit. This final phase also shows the build-up of
cohesive and direct contact intergranular stresses. The simulations
demonstrate that cohesive forces accelerate the overall settling process
primarily because smaller grains attach to larger ones and settle in their
wakes. An investigation of the energy budget shows that the work of the
collision forces substantially modifies the relevant energy conversion
processes.

Mercredi 16 janvier 2019 à 14h00 en salle 35.3.22 - Elie Saikali (CNAM) - Vers l’amélioration de la précision numérique dans les implémentations SPH à simple précision sur GPU.

Abstract : Le problème principal des implémentations SPH (Smooth Particle Hydrodynamics) classiques est l’absence de production d’une précision numérique uniforme dans le domaine de calcul. En particulier, la problématique de ces techniques est l’utilisation des coordonnées absolues par rapport au système de référence global. Cela nécessite la manipulation de grandes valeurs dans le champ éloigné de l’origine du système et devient vraiment un problème épineux lorsque de grandes configurations sont prises en compte, car il en résulte une prédiction du comportement non physique du fluide. Nous proposons plutôt l’utilisation des positions des particules par rapport à la grille de recherche voisine. Cette méthode conduit à une distribution de précision homogène et se traduit par un gain d’environ trois à cinq ordres de grandeur sur la conservation de l’énergie. De plus, nous notons que l’évolution de la variation de la densité dans les équations des fluides, au lieu de celle physique, aide à limiter les erreurs numériques dans la machine epsilon et empêche tout comportement parasite dû à des accumulations d’erreurs.

Mercredi 9 janvier 2019 à 14h00 au CNAM en salle 31.2.87 - Philippe Châtelain (Professeur à Institute of Mechanics, Materials and Civil Engineering, UCLouvain, Belgique) - Vortex Particle-Mesh methods : recent advances and applications.

Abstract : This talk focuses on recent advances brought to vortex methods, and more specifically to their state-of-the-art variants which combine the particle discretization with a mesh, the so-called Vortex-in-Cell or Vortex Particle-Mesh methods.
We will cover three specific areas of development. A first topic is that of the handling of boundaries ; their efficient and accurate treatment has indeed remained elusive. We will discuss two families of techniques, a penalization-based one and the immersed interface method.
A second topic concerns the handling of compressible flows by a vortex method. We have indeed recently developed a vorticity-dilatation formulation within a particle-mesh context. The challenges and the performances of such an approach will be briefly discussed.
Finally, we present more industry-oriented applications of vortex methods, enabled by the use of immersed lifting lines. This technique treats bound and shed vorticities in a fashion reminiscent of vortex lattice methods. We demonstrate its potential in the studies of wake phenomena in wind energy and aeronautics.



2018

Mercredi 28 novembre à 14h00 au CNAM en salle 33.3.20 - Omar M Knio (King Abdullah University of Science and Technology, Thuwal, Saudi Arabia) - Particle Simulation of Space Fractional Diffusion Equations.

Abstract : This talk will overview recent progress with particle simulation of unsteady space fractional diffusion equations. Starting from a general multidimensional formulation, we will outline the construction of different particle-based approaches to the simulation of fractional sub-diffusion equations in unbounded domains. We rely on smooth particle approximations, and consider five methods for estimating the fractional diffusion term. The first method is based on a direct differentiation of the particle representation ; it follows the Riesz definition of the fractional derivative and results in a non-conservative scheme. Three methods follow the particle strength exchange (PSE) methodology and are by construction conservative, in the sense that the total particle strength is time invariant. A fifth method is proposed based on the diffusion-velocity approach, where the diffusion term is turned into a transport term. The performance of the methods for the case of 1D or 2D fractional diffusion equation with constant diffusivity is studied. This enables us to take advantage of known analytical solutions, and consequently conduct a detailed analysis of the performance of the methods. This includes a quantitative study of the various sources of error, namely filtering, quadrature, domain truncation, and time integration, as well as a space-time self convergence analysis.

Lundi 29 octobre à 16h00 au CNAM en salle 33.3.20 - Kaï Schneider (Institut Mathématiques de Marseille, Aix Marseille Université) - Massively parallel simulations of insect flight in turbulence.

Abstract : Insects fly even under heavy turbulent air flow conditions. To understand the impact of turbulent fluctuations on the aerodynamics of flapping wings, we model a bumblebee with fixed body and prescribed wing motion, flying in a numerical wind tunnel. The inflow condition of the tunnel varies from unperturbed laminar to strongly turbulent. Massively parallel simulations show that turbulence does not significantly alter the wing’s leading edge vortex that is required for elevated lift production. Mean flight forces, moments and aerodynamic power expenditures are thus unaffected, suggesting little significance of turbulence on overall flight performance in insects. The increase in variance of the aerodynamic measures with increasing turbulence intensity, however, leads to flight instabilities in freely flying animals. This is joint work with Thomas Engels, Dmitry Kolomeskiy, Fritz-Olaf Lehmann and Jorn Sesterhenn.

Lundi 29 octobre à 11h00 au CNAM en salle 33.3.20 - Frédéric Dias (School of Mathematics and Statistics, University College of Dublin (UCD)) - New computational methods in tsunami science and in rogue wave science.

Abstract : Tsunamis and rogue waves are rare events with severe consequences. This generates a high demand on accurate simulation results for planning and risk assessment purposes because of the low availability of actual data from historic events. On the other hand, validation of simulation tools becomes very difficult with such a low amount of real-world data. Both phenomena involve a large span of spatial and temporal scales. The scale gap of five orders of magnitude in each dimension makes accurate modelling very demanding, with a number of approaches being taken to work around the impossibility of direct numerical simulations. Along with the mentioned multi-scale characteristic, the transition to breaking waves demands appropriate mathematical and numerical treatments. The short duration and unpredictability of tsunami and rogue wave events pose another challenging requirement to simulation approaches. An accurate forecast is sought within seconds with very limited data available. Thus, efficiency in numerical solution processes and at the same time the consideration of uncertainty play a big role in extreme wave modelling applied for forecasting purposes.

Mercredi 10 octobre à 11h30 en salle 35.3.22 - Fabien Marche (Institut Montpelliérain Alexandre Grothendrieck (IMAG), UMR CNRS) - En eaux peu profondes : modélisation et simulation.

Abstract : Je ferai un tour d’horizon de travaux récents concernant la modélisation, l’analyse numérique et la simulation des transformations d’ondes de surfaces à partir des asymptotiques shallow water pour écoulements à surface libre. Je vous présenterai des modèles « optimisés » récents (faiblement dispersifs fortement non-linéaires) ainsi que les formulations discrètes associées en éléments finis discontinus qui ont été proposées et validées. J’évoquerai (si le temps le permet) la possibilité de surmonter l’hypothèse classique d’irrotationalité des écoulements, même sous hypothèse de « couche mince ».

Jeudi 28 juin à 14h00 en salle 33.3.20 - Pr. Eckart Meiburg - University of California - A High-resolution Computational Investigation into Double-diffusive Sedimentation.

Abstract : We consider the settling of particles in the presence of a stably stratified temperature or salinity field by means of highly resolved, three-dimensional direct numerical simulations (DNS) of the Navier-Stokes equations. The simulations are conducted by means of a combination of Fourier spectral and sixth order compact finite difference methods. Scenarios are discussed under which double-diffusive and Rayleigh-Taylor instabilities can develop, and we demonstrate the existence of a novel, purely settling-driven instability. Both linear stability analysis and direct numerical simulations are employed in order to elucidate the competition among these instability modes.

Jeudi 21 juin à 10h00 en salle 33.3.20 - Christophe Denis (Ingénieur-chercheur à EDF R&D - Chargé de recherche, CMLA, ENS Paris-Saclay) - Les défis scientifiques pour mener les simulations numériques de demain.

Abstract : Les simulations numériques sont largement utilisées par la communauté scientifique pour aider la compréhension des phénomènes complexes. Elles sont également utilisées par les entreprises pour gérer des enjeux techniques, environnementaux, financiers et concurrentiels.

Une profonde modification de l’environnement technologique du calcul scientifique est en cours : mutation architecturale des super-calculateurs, prédiction accrue des méthodes d’apprentissage, fin de la course à la performance bon marché, industrialisation potentielle d’ordinateurs quantiques.

Cette modification de l’environnement technologique entraine à la fois des défis et des opportunités pour le calcul scientifique. Les principaux défis, corrélés entre eux, sont la limitation de la consommation électrique, l’évaluation et l’optimisation de la performance, la quantification des incertitudes, la gestion des tolérances aux pannes et l’explicabilité des simulations à large échelle (voire quantiques). Un effort de formation et d’enseignement est également indispensable puisque l’utilisation efficace des nouvelles générations de super-calculateurs bouleverse les paradigmes de programmation enseignés dans le passé.

L’utilisation de méthodes d’apprentissage issues de l’IA statistique représente à la fois une opportunité et un défi pour le calcul scientifique. Il s’agit d’une alternative ou d’un complément à la mise en place de simulations numériques basées sur une modélisation mathématique d’un phénomène physique potentiellement mal maitrisé. Toutefois, la transparence et l’intelligibilité de l’apprentissage statistique reste un verrou scientifique pour assurer son acceptabilité opérationnelle.

L’exposé présente tout d’abord les principaux défis à relever pour le calcul scientifique en regard de l’évolution technologique. Les points suivants abordés durant l’exposé ont pour objectif d’apporter des éléments de réponse aux défis :

  • contrôle des effets de l’arithmétique flottante impactant la précision et la reproductibilité numérique des résultats. ;
  • prise en compte de l’effet de l’arithmétique flottante dans une démarche globale de quantification des incertitudes d’une simulation numérique
  • évaluation de la performance et adaptation des logiciels de calcul actuels pour les futures générations de super-calculateurs ;
  • GreenAI : plateforme open-science et multidisciplinaire dédiée à l’utilisation raisonnée, certifiée et éco-efficace de méthodes d’apprentissage profond
  • MOOC « Calcul scientifique et Intelligence Artificielle » qui a pour vocation à s’intégrer à GreenAI.

jeudi 24 mai à 14h00 en salle 33.3.20 - Olivier Le Maitre (LIMSI - Laboratoire d’Informatique pour la Mécanique et les Sciences de I’Ingénieur- , Orsay) - Méthodes spectrales pour la propagation des incertitudes paramétriques et l’inférence bayésienne.

Abstract : Cette présentation portera sur l’utilisation des méthodes spectrales pour le traitement des incertitudes paramétriques, considérées ici comme des quantités aléatoires, dans les simulations numériques. On se placera ici dans le cadre de simulations numériques couteuses, typiques de l’ingénierie numérique (aérospatial, énergie, transport, chimie, ...). L’objectif est alors de caractériser statistiquement les incertitudes sur la prédiction du modèle pour prendre des décisions pleinement informées, et aussi de hiérarchiser l’importance de différentes sources d’aléas pour éventuellement définir des stratégies efficaces de réduction d’incertitude. Pour ce dernier point, nous considèrerons plus particulièrement le cadre bayésien qui permet naturellement la mise à jour des lois de probabilité des paramètres quand de nouvelles observations ou mesures sont disponibles.

La première partie de la présentation portera ainsi sur les approches spectrales qui, contrairement aux méthodes de simulation type Monte Carlo, reposent sur des approximations fonctionnelles des dépendances de la solution (prédiction) du modèle vis à vis de ses paramètres aléatoires. L’idée est ici d’exploiter d’éventuelles régularités de ces dépendances. En partant de la décomposition en Polynômes de Chaos [Wiener, 1938], initialement appliquée aux incertitudes par Ghanem & Spanos (1991), nous introduirons plusieurs développements découlant de nos travaux menés ces dernières années. On s’intéressera notamment aux schémas d’analyse multi-résolution pour le cas de dépendances non-régulières en les paramètres, aux représentations séparées généralisées (Proper Generalyzed Decompositions) et aux méthodes de décomposition de domaine pour la réduction de la complexité numérique.

Dans la seconde partie de l’exposé, nous détaillerons plusieurs approches récemment proposées pour la réduction de la complexité du problème d’inférence bayésienne. Il s’agit ici non seulement d’accélérer l’échantillonnage de la densité a posteriori en utilisant des modèles réduits, construits par exemple avec les méthodes spectrales décrites précédemment, mais aussi de proposer des stratégies de compression et de sélection les observations pour en extraire les éléments les plus informatifs, et ainsi améliorer le conditionnement du problème d’inférence.

Les diverses approches discutées seront illustrées par des exemples correspondant à des modèles non-linéaires, principalement d’écoulements fluides, et à des problèmes issus des géosciences et du monde industriel.

mercredi 2 mai à 14h30 en salle 37.2.43 (salle Boris Vian) - Peter Schmid (Professeur à l’Imperial College, Londres) - Model-based and data-based flow analysis.

Abstract : Many properties of fluid systems, such as their inherent stability, receptivity to external or internal forcing, or sensitivity to uncertainties or imperfections, can be formulated as an optimization problem with partial-differential equations (PDEs) as side-constraints. Only in the limit of overly restrictive assumptions do these optimization problems reduce to standard and familiar tools for the analysis of fluid systems.
We will discuss a framework for the model-based and data-based analysis of large-scale fluid systems optimization techniques. This framework will make use of adjoint information which is extracted efficiently from direct numerical simulations of the fluid problem via an automatic differentiation approach, or by other concepts of optimization, such as network-analysis, for a data-based approach.
The adjoint approach will be demonstrated on various test cases :

  • (i) the problem of tonal noise generation about a NACA-0012 airfoil,
  • (ii) the enhancement of mixing by an optimized wall blowing-and-suction strategy or optimized stirring,
  • (iii) the synchronization behavior across blade passages in turbomachines. For the data-based approach, we will discuss
  • (iv) the analysis of rare (intermittent) events in turbulent flows by network models
  • (v) the reconstruction of fluid structures in Rayleigh-Benard convection from sparse measurements.

Different research directions for extensions of the above methodology will be outlined.

jeudi 26 avril à 14h00 en salle 33.3.20 - Mohammed Ali Jendoubi (Université de Carthage, Tunisie) - Comportement à l’infini des solutions globales et bornées de quelques problèmes d’évolution.

Abstract : Dans cet exposé, on étudie le comportement à l’infini des solutions globales et bornées de quelques problèmes d’évolution. On commence par rappeler des résultats classiques de convergence et de non convergence des solutions pour des systèmes différentiels du premier et du second ordre (dimension finie), puis pour les équations de la chaleur et l’équation des ondes avec dissipation. A la fin de l’exposé, on donne quelques résultats récents qui concernent des systèmes du second ordre avec dissipation lente ou partielle.

L’exposé initialement prévu le 22 mars est reporté ... - Florian Bernard (INRIA Bordeaux) - De la recherche aux applications : comment industrialiser des résultats de recherche en mécanique des fluides ?

Abstract : La mécanique des fluides est un domaine d’intérêt dans différents secteur de l’industrie comme l’aéronautique, l’aérospatiale ou encore l’automobile. Récemment de nouveaux domaines comme la médecine s’intéressent aux technologies de simulations existantes. Toutefois, l’expertise nécessaire pour manipuler les outils de simulation actuels ne permet pas à des chirurgiens, des fabricants de dispositifs médicaux de les utiliser. En particulier, la création du maillage reste une étape qui requière un savoir faire important. Dans cet exposé, nous allons présenter comment nous réussissons à automatiser certaines étapes de mise en place d’une simulation d’écoulement autour de géométries complexes, en mouvement et se déformant grâce à des maillages quadtree/octree. Nous présenterons les différentes méthodes numériques que nous avons développées et des simulations sur des applications concrètes (écoulement incompressibles et raréfiés) en 2D et 3D.

jeudi 15 février à 14h00 en salle 37.2.43 - Francisco (Paco) Chinesta (PIMM & ESI Chair / ENSAM ParisTech) - From Virtual Twins to Hybrid TwinsTM : when model reduction meets data-driven engineering in the factory of future.

Abstract : In the previous (third) industrial revolution “virtual twins" (emulating a physical system from the accurate solution of the mathematical model expected describing it) were major protagonists, making accurate designs possible. Numerical simulation is nowadays present in most of scientific fields and engineering domains, making possible the virtual evaluation of systems responses, alleviating the number of experiences on the real system that the numerical model represents.
However, usually virtual models are static, that is, they are used in the design of complex systems and their components, but they are not expected to accommodate or assimilate data. The reason is that the characteristic time of standard simulation strategies is not compatible with the real-time constraints compulsory for control purposes.
Recently the use of model order reductions techniques (modal basis, reduced basis, POD or PGD based approximations...) was considered as a potential new route making possible accommodate real-time simulations and rich system representations (high-fidelity), that is, accommodating finite elements and real-time responses. During the last ten years impressive progresses were accomplished in this sense, and today complex systems are finely and accurately simulated and evaluated in deployed systems like smartphones or tablets. Within the PGD paradigm, parametric solutions computed offline allow the online real-time simulation, control, inverse analysis, optimization and uncertainty propagation.
Model Order Reduction based real-time solutions converted “virtual twins” into “digital twins” that made possible online calibration and control from collected data. Despite an initial euphoric and jubilant period, unexpected difficulties appeared immediately. In practice, significant deviations between the predicted and observed responses were noticed, limiting their use in many applications. The origin of the just referred deviations between predictions and measurements is due to (i) inaccuracies in the employed models that sometimes continue to be crude approximations/descriptions of the real systems ; (ii) the fact that in many cases models evolve in time in an “a priori” almost unpredictable manner ; (iii) inaccuracies in the determination of the model parameters or in their time-evolution, that can present space and time stochastic fluctuations. A certain part of the deviation can be viewed as a noise ; however, the remaining biased part proves the existence of a hidden model that operates but escapes to our understanding. In order to address this inevitable “ignorance” one possibility lies in constructing “on-the-fly” a data-driven model able to fill the gap between collected data and model prediction. Thus, “Hybrid Twins” consist of three main ingredients : (i) a simulation core able to solve complex mathematical or data-driven models under real-time constraints making use of HPC ; (ii) advanced strategies able to proceed with data-assimilation, data-curation and data-driven modeling ; and (iii) a mechanism to adapt the model online to evolving environments (that could imply the model change and not only the change of the parameters that an “a priori” assumed model involves). Hybrid-TwinTM embraces these three functionalities into a new paradigm in simulation-based engineering, and more concretely in a cyber-physical-system framework.

Jeudi 1er février à 14h00 en salle 33.3.20 - Houman Borouchaki (ICD - Institut Charles Delaunay, Inria Saclay & Université de Technologie Troyes) - Erreurs et métriques d’interpolation.

Abstract : Une nouvelle approche pour majorer l’erreur d’interpolation d’une fonction polynomiale de degré n quelconque par une fonction polynomiale de degré n−1 est proposée. Cette majoration permet l’obtention d’une métrique dite d’interpolation afin de contrôler cette erreur. L’approche repose sur les propriétés géométriques et algébriques des métriques d’éléments, métriques dans lesquelles les éléments sont réguliers et unitaires. La métrique d’interpolation intervient dans un calcul avancé basé sur l’adaptation de maillages. La méthode combine une écriture avec des fonctions de forme et des développements de Taylor permettant de contrôler l’erreur sur chaque élément à partir d’un contrôle portant sur ses arêtes.



2017

mercredi 22 novembre à 14h00 en salle 33.3.20 - Emmanuelle Itam (Institut Montpelliérain Alexander Grothendieck) - Simulation numérique d’écoulements autour de corps non profilés par des modèles de turbulence hybrides et un schéma multirate

Abstract : Ce travail est une contribution à la simulation numérique d’écoulements turbulents autour de corps non profilés. Après avoir précisé les ingrédients numériques et les modèles de turbulence utilisés dans nos simulations, nous présentons une étude sur l’évaluation des effets de la procédure dynamique des modèles de sous-maille dans un modèles VMS-LES et une approche hybride RANS/VMS-LES. Des problèmes d’écoulements autour d’un cylindre seul et en tandem sont considérés. Nous étudions ensuite le comportement de modèles de turbulence hybrides pour la simulation d’écoulements en régime sous-critique autour d’un cylindre circulaire. Le calcul de l’écoulement autour d’un cylindre de section rectangulaire par l’approche VMS-LES est aussi présenté. Enfin, dans une dernière partie, après avoir fait une revue des travaux importants sur les schémas d’avancement en temps multirate, nous proposons une nouvelle approche explicite multirate par agglomération de volumes finis que nous appliquons à des calculs d’écoulements turbulents complexes en utilisant un modèle de turbulence hybride.

mercredi 18 octobre à 14h00 en salle 37.2.43 - Frederic Daude (EDF, R&D) - Two-phase flow transients with fluid-structure interaction.

Abstract : Undesirable events in Nuclear Power Plants (NPPs) require permanent attention among researchers, nuclear engineers and operators. This is the case of the Water-Hammer (WH) events and the Loss-Of-Coolant-Accident (LOCA) scenario. In these two transients, high variation of pressure is generated and can imply significant mechanical loads on structures. This can damage pipes or supports disturbing the operation of the pipe system.
For this purpose, research in the fields of two-phase flow fast transients and fluid-structure interaction (FSI) is necessary. In particular, advanced two-phase flow models and numerical schemes can improve our ability to predict and to understand such transients and their mechanical impacts on structures. In this context, a numerical scheme for the Baer-Nunziato model based on a linearization of the Riemann invariants associated to the two-phase contact discontinuity is presented. A major consequence of this approximation is that the resulting solver can deal with any Equation of State. It also allows to bypass the resolution of a non-linear equation based on those Riemann invariants. In addition, a mass transfer modeling approach is also proposed for the fast depressurization of water in order to take into account metastable effects. Comparison with experiments are also presented. Finally, a Finite-Volume numerical approach for compressible flows is presented for the treatment of the junction of several branches and the abrupt change of area in ducts. All of the algorithms presented have been implemented in the fast transient dynamics software for fluids and structures Europlexus (http://www-epx.cea.fr/).

mercredi 4 octobre à 14h00 en salle 35.3.22 - Raphaël Loubère (Institut Mathématiques de Bordeaux (IMB)) - A new subcell limiter for Discontinuous Galerkin scheme - hyperbolic systems of conservation laws with stiff source terms.

Abstract : The purpose of this joined work is to propose a novel a posteriori finite volume subcell limiter technique for the Discontinuous Galerkin finite element method for nonlinear systems of hyperbolic conservation laws in multiple space dimensions that works well for arbitrary high order of accuracy in space and time and that does not destroy the natural subcell resolution properties of the DG method. High order time discretization is achieved via a one-step ADER approach that uses a local space-time discontinuous Galerkin predictor method to evolve the data locally in time within each cell.
Our new limiting strategy is based on a paradigm, which a posteriori verifies the validity of a discrete candidate solution against physical and numerical detection criteria after each time step. For those troubled cells that need limiting, our new limiter approach recomputes the discrete solution by scattering the DG polynomials at the previous time step onto a set of N’ = 2N + 1 finite volume subcells per space dimension.
A robust but accurate finite volume scheme then updates the subcell averages of the conservative variables within the detected troubled cells. The recomputed subcell averages are subsequently gathered back into high order cell-centered DG polynomials on the main grid via a subgrid reconstruction operator. We illustrate the performance of the new a posteriori subcell finite volume limiter approach for (very high order) DG methods via the simulation of numerous test cases run on Cartesian and unstructured grids in two and three space dimensions, using DG schemes of up to tenth order of accuracy in space and time (N = 9). Moreover we will present the coupling of our approach with AMR techniques and for different systems of PDEs (Euler, MHD, multiphase).

jeudi 29 juin à 14h00 en salle 37.2.43 - O.Wilk (IR, M2N CNAM) - Décomposition de domaines - Une plateforme logicielle pour les méthodes de Schwarz.

Abstract : Les méthodes de Schwarz (multplicatives ou additives) permettent la résolution d’EDP par décomposition de domaines. Contrairement aux méthodes de Schur, elles interviennent plus amont au niveau du problème continu par des choix pertinents de conditions d’interface. Ces méthodes permettent de mettre en place des résolutions itératives préconditionnées en utilisant une résolution directe par sous-domaine.
L’exposé présentera principalement une méthode additive, soulignera l’importance de la condition d’interface, du recouvrement des sous-domaines, de la grille grossière indispensable à la bonne performance du processus parallèle et des aspects permettant une parallélisation intéressante. Il se poursuivra par la présentation d’une plateforme logiciel dédiée puis se terminera par quelques applications numériques permettant d’évaluer les performances.

Cet exposé repose principalement sur :
Victorita Dolean, Pierre Jolivet, Frédéric Nataf - An Introduction to Domain Decomposition Methods : algorithms, theory and parallel implementation - Master, France, 2015. https://hal.archives-ouvertes.fr/cel-01100932v5
Martin J. Gander, Laurence Halpern - Méthodes de décomposition de domaines Notions de base - Techniques de l’ingénieur Analyse numérique des équations différentielles et aux dérivées partielles , avril 2012.
Marc Jacques - Décomposition de domaines par les méthodes de Schwarz, Mise en oeuvre d’une plateforme de développement - Mémoire d’ingénieur CNAM en informatique option calcul scientifique, mars 2017.

jeudi 22 juin à 14h00 en salle 35.3.22 - Meriem Jedouaa (ATER, M2N CNAM) - Méthode de capture d’interface pour la simulation de suspensions d’objets immergés dans un fluide.

Abstract : Nous nous intéressons à la simulation numérique de suspensions denses d’objets immergés dans un fluide. En s’inspirant d’une technique de segmentation d’image, une méthode efficace de capture d’interface a été développée. Celle-ci permet d’une part de localiser les structures immergées et d’autre part de gérer les contacts numériques entre les structures.
Le domaine fluide/structure est représenté à l’aide de trois fonctions labels et de deux fonctions distances qui permettent de localiser chaque structure et son plus proche voisin. Les interfaces sont capturées par une seule fonction level set, celle-ci est ensuite transportée par la vitesse du fluide ou par la vitesse de chaque structure. Un algorithme de multi-label fast marching permet de réinitialiser à chaque pas de temps les fonctions labels et distances dans un périmètre proche des interfaces. La gestion des contacts numériques est effectuée à l’aide d’une force répulsive à courte portée prenant en compte l’interaction entre les objets les plus proches. La méthode est appliquée à des solides rigides et des membranes élastiques évoluant dans un fluide incompressible.

jeudi 1er juin à 14h00 en salle 33.3.20 - Frederic Hecht - (Professeur des Universités, Laboratoire Jacques Louis Lions) - Tour de FreeFem++ en exemples.

Abstract : FreeFem ++ est un logiciel puissant et flexible pour résoudre des équations aux dérivées partielles (EDP) dans ℝ2 et dans ℝ3 avec des méthodes d’éléments finis. Le langage FreeFem ++ permet une spécification rapide des EDP linéaires, en utilisant la formulation variationnelle d’un problème linéaire stationnaire. L’utilisateur peut écrire son propre script pour résoudre des problèmes non linéaires et/ou instationnaires. Il est possible de résoudre des problème couplés, de faire de l’adaptation de maillages, du calcul de valeurs propres, d’avoir des domaines mobiles, …

Je présenterai un aperçu des principales caractéristiques de FreeFem++ sur :
 des exemples académiques,
 la mise en lumière d’instabilité thermique dans des extrudeurs d’imprimante 3d (couplage : équation de Stokes à viscosité variable/équation de la Chaleur),
 une étude numérique pour faire de l’imagerie cérébrale pour la recherche de type AVC.

jeudi 18 mai à 14h00 en salle 33.3.20 - Marc Massot (Professeur des Universités à CentraleSupélec et à l’Ecole Polytechnique) - Eulerian models for the description of polydisperse sprays : from fundamental issues to industrial applications and HPC.

Abstract : The modeling and simulation of multiphase reacting flows covers a large spectrum of applications ranging from combustion in automobile and aeronautical engines to atmospheric pollution as well as biomedical engineering. In the framework of this seminar, we will mainly focus on a disperse liquid phase carried by a gaseous flow field which can be either laminar or turbulent ; however, this spray can be polydisperse, that is constituted of droplets with a large size spectrum. Thus, such flows involve a large range of temporal and spatial scales which have to be resolved in order to capture the dynamics of the phenomena and provide reliable and eventually predictive simulation tools. Even if the power of the computer resources regularly increases, such very stiff problems can lead to serious numerical difficulties and prevent efficient multi-dimensional simulations.

The purpose of the presentation is to introduce to the Eulerian modeling of polydisperse evaporating spray for various applications, that is the disperse liquid phase carried by a gaseous flow field is modeled by ‘fluid" conservation equations. Such an approach is very competitive for real applications since it has strong ability for optimization on parallel architectures and leads to an easy coupling with the gaseous flow field resolution. We will show that all the necessary steps in order to develop a new generation of computational code have to be designed at the same time with a high level of coherence : mathematical modeling through Eulerian moment methods, development of new dedicated stable and accurate numerical methods, implementation of optimized algorithms as well as verification and validations of both model and methods using other codes and experimental measurements.

We will introduce both a new class of models and their mathematical analysis for the direct numerical simulation of spray dynamics even in the presence of coalescence and break-up, as well as a set of dedicated numerical methods and prove that such an approach has the ability, once validated, to lead to high performance computing on parallel architectures. If we have time, we will finally present a synthesis of recent contributions, which aim at :

1- on the one side transferring the proposed models into identified codes for industrial applications in the fields of solid propulsion, aeronautical and automotive engines,

2- on the other side extending the previous work to turbulent flows, where some scales can not be resolved and have to be modeled, and where some dedicated numerical methods have to be designed,

3- proposing a unified description for the separated and disperse phase modeling in the framework of fuel injection.

jeudi 4 mai à 14h00 en salle 33.3.20 - Jean-Christophe Robinet (Laboratoire Dynfluid, Arts et Métiers ParisTech) - Instabilités pour des écoulements tridimensionnels.

Abstract : L’étude des instabilités se développant au sein d’écoulements remonte à la fin du XIXème siècle. Initialement ces analyses ont été réalisées sur des écoulements modèles et le plus souvent en supposant de nombreuses hypothèses simplificatrices comme le caractère non visqueux des perturbations ou certaines invariances spatiales ou temporelles de l’écoulement. Ces hypothèses ont été progressivement relaxées principalement grâce aux avancés du numérique et du calcul scientifique. Depuis une dizaine d’années, il est possible d’étudier la stabilité linéaire et non linéaire pour des écoulements pleinement tridimensionnels sans presque plus aucune hypothèse simplificatrice. Lors de ce séminaire, je vous propose d’une part de vous présenter les différentes méthodes permettant de réaliser de telles études et d’autre part de vous les illustrer sur différent cas comme un écoulement autour d’une sphère, d’une rugosité cylindrique ou même autour d’un profil d’aile transsonique en régime de tremblement aérodynamique.

jeudi 27 avril à 14h00 en salle 33.3.20 - Ruiying Li (Institut Pprime-Département Fluide, Université de Poitiers) - Machine learning control for drag reduction of a car model.

Abstract : Machine Learning Control (MLC) is a recently proposed model-free control framework for turbulent flow control. It explores and exploits strongly nonlinear dynamics in an unsupervised manner. The assumed plant has multiple actuators and sensors and its performance is measured by a cost functional. The control problem is to find a control logic which optimizes the given cost function. The corresponding regression problem for the control law is solved by employing a specific machine learning algorithm - linear genetic programming - as an easy and simple regression solver in a high-dimensional control search space. This search space comprises open-loop actuation, sensor-based feedback and combinations thereof. MLC is first applied to the stabilization of a forced nonlinearly coupled three-oscillator model comprising open- and closed-loop frequency crosstalk mechanisms. MLC performance is then demonstrated in a turbulence control experiment, achieving 22% drag reduction for a simplified car model. For both cases, LGPC identifies the best nonlinear control achieving the optimal performance by exploiting frequency crosstalk. Our control strategy is suited to complex control problems with multiple actuators and sensors featuring nonlinear actuation dynamics.

30 mars à 14h00 en salle 33.3.20 - Jean-Matthieu Etancelin (Ingénieur de recherche, Université de Reims) - ROMEOLab : une solution interactive de cours en HPC hybride pouvant utiliser 100+CPU, 10+GPU et un réseau Infiniband.

Abstract : ROMEOLab est une plateforme web développée au Centre de Calcul ROMEO, à l’Université de Reims Champagne-Ardenne, pour l’accès à des contenus pédagogiques interactifs sur les ressources du calculateur ROMEO. Ce dernier constitue le plus grand cluster hybride de France, dédié à la recherche académique et industrielle. À travers cette plateforme, nous proposons des TP et des formations pratiques spécifiques aux technologies et outils utilisés en production dans un seul et même environnement. L’originalité de cette plateforme réside en la capacité de manipuler et d’expérimenter dans un réel environnement HPC à travers un simple navigateur web avec un simple login et bouton on/off au lieu de multiples connections à distances et d’une utilisation du gestionnaire de ressources en ligne de commande. Dans cet exposé, je détaillerai les enjeux et les intérêts d’une telle solution à la fois dans un contexte de cours universitaires ou de formations professionnelles et dans une utilisation en production.

2 mars à 15h00 en salle 33.3.20 - Mohammed Khalil Ferradi (Entreprise Strains - STRucture Analysis INnovation Software -, Paris) - Modèle de poutre enrichie avec la méthode des développements asymptotiques.

Abstract : La méthode des développements asymptotiques est une méthode générale pour la résolution d’équations différentielles, qui peut être appliquée aux équations d’équilibre mécanique, pour développer ou justifier certains modèles de poutres ou de coques. Dans cette présentation nous allons appliquer cette méthode aux problèmes de poutres, pour construire une cinématique formée de modes de gauchissements (déplacement hors plan de la section) et de déformations transversales (déplacement dans le plan de la section). Ces modes seront déterminés en fonction du chargement (forces externes, déformations imposées...), par un calcul 2D sur la section de la poutre, formant ainsi une base appropriée pour exprimer la cinématique et permettant une réduction de modèle efficace pour l’élément de poutre.

23 février à 14h00 en salle 33.3.20 - Emmanuel Trélat (Laboratoire Jacques-Louis Lions, UPMC, Paris 6) - Optimisation du domaine pour observer ou contrôler des modèles EDP.

Abstract : On étudie le problème d’optimiser la forme et le placement de capteurs ou de contrôleurs, dans des systèmes d’évolution modélisés par des EDP. On considère notamment les modèles classiques des ondes, Schrödinger ou chaleur, sur un domaine arbitraire Ω, en toute dimension d’espace, et avec des conditions frontières appropriées (s’il y a une frontière). Ce type de problème apparaît fréquemment en pratique dans des applications où l’on cherche, par exemple, à maximiser la qualité de reconstruction de la solution, en se servant d’observations partielles. Par exemple : quelle est la forme optimale, et la localisation idéale dans Ω, d’un thermomètre de mesure de Lebesgue donnée ? Du point de vue mathématique, il s’agit d’un problème inverse, en fait mal posé à moins qu’on restreigne l’ensemble des formes qu’on fait varier. Tout d’abord, par des considérations probabilistes (suivant des travaux de N. Burq et N. Tzvetkov), on montre qu’il est pertinent de modéliser ce problème en maximisant ce qu’on appelle la "constante d’observabilité randomisée", parmi tous les sous-domaines de Ω de mesure de Lebesgue donnée. Cela revient à maximiser un infimum parmi tous les modes possibles de certaines quantités spectrales liées aux fonctions propres du Laplacien. L’analyse spectrale de ce problème s’avère être en lien étroit avec la théorie du chaos quantique, plus précisément, avec les propriétés d’ergodicité quantique du domaine. Il s’agit d’une série de travaux avec Yannick Privat (Paris 6) et Enrique Zuazua (Bilbao).

26 janvier à 14h00 en salle 37.2.43 - Pr. Spencer Sherwin (Imperial College, Londres) - Development and analysis of spectral / hp element techniques for high Reynolds number flow simulations relevant to Formula One.

Abstract : The use of computational tools in industrial flow simulations is well established. As engineering design continues to evolve and become ever more complex there is an increasing demand for more accurate transient flow simulations. It can, using existing methods, be extremely costly in computational terms to achieve sufficient accuracy in
these simulations. Accordingly, advanced engineering industries, such as the Formula One (F1) industry, are looking to academia to develop the next generation of techniques which may provide a mechanism for more accurate simulations without excessive increases in cost.

This demand for modelling of accurate flow physics around complex geometries are therefore making high order methods such as spectral/hp type discretisations more attractive to industry. Nevertheless a number of challenges still exist in translating academic tools into engineering practice. As the start of the pipeline, meshing techniques for high order methods are required to handle highly complex geometries. Next many
engineering problems require high Reynolds numbers leading to turbulent flow that typically are only marginally resolved. Therefore, there is a need for greater robustness in marginally resolved conditions where aliasing errors and high frequency damping are typically required. Finally maintaining computational efficiency is also obviously important.

In this presentation we will outline the demands imposed on computational aerodynamics within the highly competitive F1 sector and discuss the numerical challenges which have to be overcome to translate academic tools into this environment.

5 Janvier à 14h00 en salle 33.3.20 - Jean-Jacques Chattot (University of California, Davis) - Wind turbine aerodynamics : an engineering approach.

Abstract : Steady flows past wind turbines have been successfully simulated with the helicoidal vortex model that uses a prescribed wake defined by matching the power captured by the rotor with that lost in the far-wake, in a manner consistent with actuator disk theory. This approach has been found to be accurate and very efficient in predicting the global quantities such as power and thrust on the tower, as well as blade profile working conditions, using 2-D viscous polar data, so long as no major separation occurs on the blades. This approach also gave excellent results in cases of unsteady flow from yaw or tower interference, when the power fluctuations are small. The vortex model has also been extended to account for large changes in power, such as occurs with abrupt changes in blade pitch. The wake is treated as a flexible spring, extending from the rotor to the far-field (Trefftz plane), along which the pitch varies according to the convected power history at the rotor. Results of test cases are compared with experimental data available from the Tjaereborg and NREL experiments, indicating that the code gives not only correct power levels asymptotically, but also predicts the transient overshoots and undershoots and recovery time accurately. The hybrid method of coupling a near blade-attached Navier-Stokes domain and vortex model for the wake will be presented and shown to be both accurate and efficient.

Aeroelastic simulation has been developped using the linear modal decomposition of the blade bending motion of the NREL blade, which has proved to be more accurate than finite difference solution of the flapping equation due to stability requirement and drifting errors. Results will be presented for the NREL rotor in yaw at different incoming flow velocities. Recent extension of the hybrid method to unsteady flow will be outlined.


2016

8 Décembre à 14h00 en salle 35.1.45 - Olivier Piller (Irstea, Bordeaux) - Optimisation et analyse des systèmes de distribution d’eau sous pression

Abstract : L’eau est une ressource fondamentale pour le bien-être de l’homme qui présente des enjeux économiques considérables. Les sociétés modernes dépendent d’infrastructures complexes et interconnectées pour fournir de l’eau potable aux consommateurs. Les réseaux de distribution d’eau potable sont également des infrastructures à risques, exposées à des contaminations délibérées ou accidentelles. Il est donc important de disposer d’outils d’analyse du fonctionnement du réseau du point de vue de la qualité de service à un coût acceptable, mais aussi d’outils d’aide à la décision pour la sécurité du réseau et celle des abonnés.
Mes travaux de recherche au sein de l’UR GPIE d’Irstea (Gestion Patrimoniale des Infrastructures liées à l’eau) contribuent à apporter des réponses sur l’optimisation des flux, la sécurité et la Gestion durable des réseaux.

24 Novembre à 14h00 en salle 33.3.20 - Théo Corot (CNAM) - Un nouveau schéma volume finis pour l’hydrodynamique Lagrangienne, application à l’explosion vapeur

Abstract : On décrit un schéma volume finis sur maillage non structuré pour l’hydrodynamique Lagrangienne. Les flux sont basés sur les noeuds calculés grâce à un nouveau solveur nodal qui ne dépend que de la répartition angulaire des variables autour des noeuds. On validera numériquement le schéma grâce à des comparaisons avec les schémas EUCCLHYD et GLACE puis on appliquera ce schéma à l’explosion vapeur.

30 juin 2016 à 14h00 en salle 21.2.40 - Frédéric Lagoutière (Université Paris-Sud) - Outils probabilistes pour l’analyse numérique d’équations de transport (déterministes).

Abstract : Dans cet exposée, je décrirai quelques résultats obtenus ces dernières années avec François Delarue (Nice Sophia Antipolis) et Nicolas Vauchelet (Paris 6). Ces résultats concernent l’ordre d’approximation de schémas de volumes finis de type upwind, ou, plus généralement, de schémas diffusifs pour des problèmes de Cauchy associés à des équations de transport, conservatives ou non conservatives.
Nous verrons des techniques pour démontrer que l’ordre de convergence (en les pas d’espace et de temps associés au maillage) est 1/2 lorsque la donnée initiale, le champ de vitesses, ou le maillage, est peu régulier.
Les techniques que nous proposons sont probabilistes, et fondées sur une réinterprétation du schéma, déterministe, comme l’espérance d’un schéma aléatoire. Cette réinterprétation met en évidence l’existence de courbes caractéristiques numériques liées au schéma, ainsi que de formules de représentation de la solution numérique au moyen de ces caractéristiques.

2 juin 2016 à 14h00 en salle 17.2.20 - Paola Cinnella - (ENSAM, Paris) - Bayesian approach for the quantification of model-form uncertainties in Fluid Mechanics.

Abstract : Numerical predictions in fluid mechanics are affected by several sources of error : discretization error, parametric uncertainty, and physical modeling error, are the three most significant. Yet only the latter cannot be estimated and controlled with standard techniques. As such, it represents the bottleneck to a robust predictive capability in many fields.
Here we investigate a systematic stochastic approach, based on Bayesian inference, for model parameter estimation, model selection, and robust prediction based on multiple alternative model forms and calibration scenarios. The prediction is robust in such a sense that it takes into account the uncertainty about model parameters, the choice of the most appropriate calibration data for predicting the new configuration, and the model structure. Precisely, we try to find an a posteriori error estimate, calibrated to specific classes of flow. It is based on variability in model closure coefficients across multiple flow scenarios, for multiple closure models. The variability is estimated using Bayesian calibration against experimental data for each scenario, and Bayesian Model-Scenario Averaging (BMSA) is used to collate the resulting posteriors, to obtain a stochastic estimate of a Quantity of Interest (QoI) in an unmeasured (prediction) scenario. The scenario probabilities in BMSA are chosen using a sensor which automatically weights those scenarios in the calibration set that are similar to the prediction scenario.
The preceding methodology is applied to the quantification of uncertainties associated to turbulent closures of the Reynolds-Averaged Navier-Stokes (RANS) equations and to the equations of state used to model the thermodynamic behaviour of dense gas flows.
Perspectives on the extension of the proposed approach to complex flow configurations are also discussed.

10 mars 2016 à 14h en salle 17.2.20 - Jean-Jacques Chattot - (UC Davis, USA) - Tricomi’s equation and condition for shock-free flow

Abstract : A Dirichlet boundary value problem is investigated for the Tricomi equation, in relation to shock-free solutions, their uniqueness and their numerical computation. The study of uniqueness and existence or rather non-existence of shock-free solutions by Morawetz was based on the formulation of a Goursat type problem, in which only part of the streamline data is given in the hodograph plane, the missing part corresponding to the arc intercepted by the two characteristic lines coming from a point on the sonic line. In the physical plane, on the other hand, the complete profile shape determines the solution. To reconcile the formulations in both the physical and the hodograph planes, a Dirichlet boundary value problem is proposed in the hodograph plane. The requirement for such a problem to be well-posed is that the streamline that represents the profile be “sub-characteristic”, a condition that is shown to yield a shock-free flow. A class of symmetrical, solutions to Tricomi’s equation is presented and we discuss conditions for shock-free flow and for the need of a shock to regularize the solution. As a first step, such a formulation is applied to the wave equation and it is shown that, provided the boundary is “sub-characteristic”, a unique solution exists and is obtained numerically in a simple example. Along the same line, the uniqueness of the Dirichlet problem as well as the computation, to second order accuracy, of the analytic solution of the Tricomi equation presented earlier, are demonstrated.

3 mars 2016 à 14h en salle 31.2.85 - Frédéric Nataf - LJLL - UPMC Paris 6 et Equipe Alpines-INRIA - Une théorie de type Schwarz pour l’algorithme de P.L. Lions

Résumé : Les méthodes de Schwarz optimisées (OSM) sont des méthodes très populaires qui ont été introduites par P.L. Lions pour des problèmes elliptiques et B. Després pour les équations d’Helmholtz et de Maxwell. Nous introduisons une théorie de l’algorithme de P.L. Lions qui est la véritable contrepartie de la théorie développée au fil des ans pour l’algorithme de Schwarz. La première étape est d’introduire une variante symétrique de l’algorithme ORAS (Optimized Restricted Additif Schwarz) qui soit appropriée pour l’analyse d’une méthode à deux niveaux. Puis nous construisons un espace grossier pour lesquels le taux de convergence de la méthode à deux niveaux convergence est garantie indépendamment de la régularité des coefficients. Nous montrons des résultats d’extensibilité (« scalability" en anglais) sur des milliers de coeurs pour le système de l’élasticité presque incompressible et celui de Stokes avec une discrétisation en continu de la pression.


2015

17 décembre 2015 - Olivier Pironneau - LJLL - UPMC Paris 6 - A Simple FSI Model for Optimal Shape Design

A Fluid-Structure Interaction model is studied based on Koiter’s shell model for the structure, Navier-Stokes equations for the fluid and transpiration for the coupling. It accounts for wall deformation while yet working on a fixed geometry. The model is established first. Then a numerical approximation is proposed and some tests and comparison with other models are given. The model is then used for optimal design of an hemodynamic stent and possible recovery of the arterial wall elastic coefficients by inverse methods.
Hemodynamics, a special branch of computational fluid dynamics, poses many problems of modeling, data acquisition, computation and visualization. Numerical simulations software are valuable tools to understand aneurisms, to design stents and heart valves, etc.
Large scale simulations on super computers are possible but expensive and not suited or at least awkward in the medical environment so there is room for cheaper methods to couple fluid and structures.
At least two classes of FSI problems have been investigated numerically extensively : blood flows (L. Formaggia & A. Quarteroni) and free motions of objects in flows, whether self-propelled or passive and rigid or deformable.
A number of algorithms have been proposed, each with different coupling mechanisms. We shall review some of them and recall the mathematical results known for immersed boundaries (C. Peskin), artificial density, fluid as solid, both with Finite Elements (M. Bergman & A. Iollo) or SPH (D. Violeau), Eulerian/Lagrangian formulations (P. Le Tallec & J. Mouro), etc. Algorithms that iterate between the structure and the fluid have usually restricted stability because of the “added mass effect” ; we shall present a method that solves the fluid and solid variables in the same variational formulation by using a semi-linearization called “transpiration condition” (T. Chacon,
V. Girault, F. Murat & O. Pironneau). The method is unconditionally stable. It
will be illustrated with numerical results for blood flow and comparison with others methods (M. Bukaca, S. Canic, R. Glowinski, J. Tambacac & A. Quainia).
Because the code runs on a laptop within minutes it is convenient to solve inverse problems. As the geometry is fixed, an optimal design problem becomes a parameter identification problem for the coefficients of the structure model. We shall show the performance of the method on the design of a stent in the aorta.

7 octobre 2015 - Kazuo Aoki - Kyoto University, Department of Mechanical Engineering and Science - Motion of an array of plates in a rarefied gas caused by radiometric force.

We consider an infinitely long two-dimensional channel containing a rarefied gas. Inside the channel, there
is an array of infinitely many two-dimensional plates (with finite width and without thickness) perpendicular
to the axis of the channel, and the array can move freely along the channel. If one side of each plate of
the array is heated and the other side is not, it is subject to a force because of the temperature difference
on its two sides (radiometric force). In consequence, the array starts moving, and finally its motion reaches
the steady motion with a constant velocity, where the radiometric force and the drag force acting on each
plate counterbalance. We investigate the behavior of the gas in this final steady motion and obtain the speed
of the array numerically on the basis of kinetic theory, for a wide range of the Knudsen number. The present
problem can be regarded as a simplified model for the moving vanes of the Crookes radiometer. This is a joint
work with Satoshi Taguchi (University of Electro-Communications,Chofu,Tokyo, Japan).

28 mai 2015 - Íñigo Arregui - Universidade da Coruña - Sur la simulation numérique d’un problème elastohydrodynamique lié aux dispositifs de lecture magnétique

Le problème qu’on propose consiste a calculer la pression de l’air dans un dispositif de lecture magnetique. Si celui-ci est, en plus, flexible (une bande, par exemple) il faut aussi calculer sa position. Nous utilisons une technique de point fixe pour découpler le problème en deux : le sous-probléme hydrodynamique, géré para l’équation de Reynolds compressible, et le sous-problème élastique, où l’on considère un modèle de Koiter.
Nous proposons des méthodes numériques pour l’approximation de la solution (méthodes de charactéristiques, de dualité, multigrille, éléments finis ou méthodes de Galerkin discontinus), et montrons quelques resultats numériques.

26 Mars 2015 : Laetitia Giraldi - ENSTA ParisTech - Contrôle de micro-robots nageurs

L’auto-propulsion à l’échelle microscopique se heurte à des obstructions qui en diminuent singulièrement son efficacité. Contre intuitive, à cette échelle, les forces de viscosité dominent les effets inertiels engendrant des difficultés qui peuvent être résumées par le fameux théorème dit de ``la coquille Saint Jacques’’ de E. M. Purcell qui établit que pour se déplacer le nageur microscopique doit faire un cycle de déformation non réciproque.
Par les retombées que pourrait provoquer le développement de micro-robots nageurs commandés, de nombreux chercheurs tentent de surmonter les difficultés évoquées précédemment dans le but de construire une telle machine. L’exposé, après une explication des divers phénomènes sous-jacents, fera un point sur les avancées mathématiques obtenues sur ce type de problèmes. On montrera en particulier, comment ce domaine se situe à l’intersection de la mécanique des fluides, de la théorie des équation aux dérivées partielles et de la théorie du contrôle.

26 février 2015 : Emmanuel Frénod - Université de Bretagne-Sud - An exponential integrator for the 4D-Vlasov-Poisson system with strong magnetic field

With the aim of solving in a four dimensional phase space a multi-scale Vlasov- Poisson system, we propose in a Particle-In-Cell framework a robust time-stepping method that works uniformly when the small parameter vanishes. As an exponential integrator, the scheme is able to use large time steps with respect to the typical size of the solution’s fast oscillations. In addition, we show numerically that the method has accurate long time behaviour and that it is asymptotic preserving with respect to the limiting Guiding Center system.

12 février 2015 : Sinisa Krajnovic - Chalmers University of Technology - Partially Averaged Navier-Stokes Simulation for Bluff Body Flows of Engineering Interest

Bluff body flows are characterized with regions of separated flow where unsteadiness governs flow dynamics. For prediction of these flows, the traditional Reynolds-Averaged Navier-Stokes (RANS) statistical modelling was found to produce inaccurate results. The key problem of steady RANS model for bluff body flows can be found in its inability to model wide spectrum of turbulent scales. The model capable of resolving large coherent structures such as Large-Eddy Simulation (LES) is better equipped to predict these flows. However, the accurate LES requires resolution of the fine-scale near-wall coherent structures which prevents its usage for most bluff body applications of the engineering interest. The engineering solution to decrease the resolution requirement of LES but to keep its capability to predict large scale flow structures was found in hybrids between the resolving techniques and RANS methods. Several hybrid models such as Detached-Eddy Simulation (DES), Unsteady RANS (URANS) and hybrid RNS/LES have been proposed. These models combine resolution of parts of the coherent structure motion with RANS turbulence modeling. The switch between the two is often done in zonal way such as in DES and hybrid RANS/LES where the near-wall flow is modeled using RANS while the outer flow is resolved with LES.

Partially-Averaged Navier-Stokes (PANS) proposed by Girimaji [1] is another hybrid model where the amount of the resolved and the modeled turbulent scales is controlled with the ratio of the unresolved to total kinetic energy (fk) and the ratio of the unresolved to total dissipation (fε). These parameters are used to modify the RANS model coefficients so that the required resolution of the coherent-structure motion is obtained.

The talk will discuss the PANS model in the framework of engineering application of bluff body flows. Comparisons with resolving LES technique and URANS of several bluff body flows is done for better understanding of the behavior of PANS model in these flows. Several implementation issues of PANS such as fk variable in space and time, influence of the inlet boundary conditions and discretization scheme are explored. The reference comparison with other models such as LES, URANS and DES displays the differences between the methods in complex interaction between the resolved and the modelled coherent flow scales. The predictions that will be considered in the talk are from flows around generic bluff bodies such as finite cylinders, cubes and pyramids to flows around simplified road vehicles, trains to a landing gear of an airplane. A critical review of PANS simulations of bluff body flows will be presented with success stories and failures. The remaining problems and the possible directions in the improvement of the PANS model will be discussed.
References
[1] Girimaji S., 2006., Partially-Averaged Navier-Stokes model for turbulence : a Reynolds-averaged Navier-Stokes to direct numerical simulation bridging method. Journal of Applied Mechanics 73 (3), 413-421.

15 Janvier 2015 : Double exposé de Rémi ABGRALL - Institut für Mathematik & Computational Science Universität Zürich

An innovative phase transition modeling for reproducing cavitation.

Abstract : This work is devoted to model the phase transition for two-phase flows with a mechanical equilibrium model.
First, a five-equation model is obtained by means of an asymptotic development starting from a non-equilibrium model (seven-equation model), by assuming a single-velocity and a single pressure between the two phases, and by using the Discrete Equation Method (DEM) for the model discretization.
Then, a splitting method is applied for solving the complete system with heat and mass transfer, i.e., the solution of the model without heat and mass transfer terms is computed and, then, updated by supposing a heat and mass exchange between the two phases. Heat and mass transfer is modeled by applying a thermo-chemical relaxation procedure allowing to deal with metastable states.
The interest of the proposed approach is to preserve the positivity of the solution, and to reduce at the same time the computational cost. Moreover, it is very flexible since, as it is shown in this paper, it can be extended easily to six (single velocity) and seven-equation models (non-equilibrium model).
Several numerical test-cases are presented, i.e.a shock-tube and an expansion tube problems, by using the five equation model coupled with the cavitation model. This enables us to demonstrate, using the standard cases for assessing algorithms for phase transition, that our method is robust, efficient and accurate, and provides results at a lower CPU cost than existing methods. The influence of heat and mass transfer is assessed and we validate the results by comparison with experimental data and to the existing state-of-art methods for cavitation simulations.
Joint work with M.G. Rodion (INRIA)

Linear and non-linear high order accurate residual distribution schemes for the discretization of the steady compressible Navier- Stokes equations,

Abstract : A robust and high order accurate Residual Distribution (RD) scheme for the discretization of the steady Navier-Stokes equations is presented. The proposed method is very flexible : it is formulated for unstructured grids, regardless the shape of the elements and the number of spatial dimensions. A continuous approximation of the solution is adopted and standard Lagrangian shape functions are used to construct the discrete space, as in Finite Element methods.
The traditional technique for designing RD schemes is adopted : evaluate, for any element, a total residual, split it into nodal residuals sent to the degrees of freedom of the element, solve the non linear system that has been assembled and then iterate up to convergence. The main issue addressed by the paper is that the technique relies in depth on the continuity of the normal flux across the element boundaries : this is no longer true since the gradient of the state solution appears in the flux, hence continuity is lost when using standard finite element approximations. Naive solution methods lead to very poor accuracy.
To cope with the fact that the normal component of the gradient of the numerical solution is discontinuous across the faces of the elements, a continuous approximation of the gradient of the numerical solution is recovered at each degree of freedom of the grid and then interpolated with the same shape functions used for the solution, preserving the optimal accuracy of the method.
Linear and non-linear schemes are constructed, and their accuracy is tested with the method of the manufactured solutions. The numerical method is also used for the discretization of smooth and shocked laminar flows in two and three spatial dimensions. Joint work with Dante de Santis (Stanford)


2014

18 décembre 2014 : Chloé Mimeau - Université de Grenoble - Mise en œuvre d’une méthode vortex hybride avec pénalisation dans un milieu solide-fluide-poreux : application au contrôle passif d’écoulement

Dans cet exposé, je présenterai une méthode particulaire de type méthode vortex semi-lagrangienne, couplée à une méthode de pénalisation, permettant de modéliser des interactions fluides structures dans le cadre d’écoulements incompressibles. Ce travail vise à appliquer cette méthode à une étude de contrôle passif d’écoulement utilisant des milieux poreux afin de diminuer la traînée aérodynamique de corps non profilés et plus particulièrement de rétroviseurs extérieurs de véhicules terrestres. Dans un premier temps, j’introduirai les fondements de cette méthode et je soulignerai l’ensemble des caractéristiques qui la rendent adaptée à la résolution du problème considéré. Après avoir décrit l’approche algorithmique et l’approche de développement utilisées dans ce travail, je présenterai les résultats du contrôle passif autour d’un demi-cylindre en 2D et d’une demi-sphère en 3D (pouvant être assimilée à un rétroviseur simplifié), où les différents dispositifs de contrôle présentés seront matérialisés par l’ajout de zones poreuses à la surface de l’obstacle.

18 décembre 2014 : Amélie Danlos - CNAM Paris - Application de la Décomposition Orthogonale en Modes Propres à l’analyse expérimentale d’écoulements turbulents monophasiques et diphasiques

La Décomposition Orthogonale en Modes Propres (POD) est un outil efficace pour la simulation d’écoulement pour établir des modèles réduits. Cet outil mathématique peut également devenir une technique optimale d’analyse d’écoulements turbulents lorsqu’il est appliqué en post-traitement de données obtenues expérimentalement (pour des données 1D, 2D ou 3D). Appliquée à des champs de vitesse obtenus par Vélocimétrie par Images de Particules (PIV), la POD permet d’étudier l’efficacité d’un contrôle passif ou actif d’écoulements turbulents monophasiques. Cette technique de post-traitement a ainsi permis d’étudier le contrôle de jets annulaires (utilisés pour le procédé de fibrage de verre, la ventilation ou encore les soupapes d’admission d’un moteur thermique) et le contrôle de la cavitation d’un écoulement hydraulique autour d’un profil de Venturi (pour viser des applications sur des machines tournantes hydrauliques telles que des hydroliennes par exemple). Au-delà du contrôle d’écoulements, la POD peut aussi devenir un moyen efficace de comparaison de données expérimentales et numériques.

11 juin - Suttida WONGKAEW - University of Wuerzburg and CNAM - Modeling and control through leadership of a refined flocking system.

Abstract : A new refined flocking model that includes self-propelling, friction, attraction and repulsion, and alignment features is presented. This model takes into account various behavioral phenomena observed in biological and social systems. In addition, the presence of a leader is included in the system in order to develop a control strategy for the flocking model to accomplish desired objectives. Specifically, a model predictive control scheme is proposed that requires the solution of a sequence of open-loop optimality systems. An accurate Runge-Kutta scheme to discretize the flocking optimal control optimality systems and a nonlinear conjugate gradient scheme are implemented and discussed. Results of numerical experiments demonstrate the validity of the refined flocking model and the ability of the control strategy to drive the flocking system to attain a desired target configuration and to follow a given trajectory.

16 avril - Pierre SOCHALA - BRGM - Méthodes spectrales pour la propagation d’incertitudes. Application aux écoulements en milieux poreux.

Abstract : Les performances et la précision des modèles numériques progressant, la prise en compte d’aléas, d’incertitudes et du caractère probabiliste des situations réelles devient incontournable lors des simulations. Les sources d’incertitudes rencontrées en modélisation peuvent porter sur le modèle (e.g. EDP) et les données (lois de comportement, terme source, conditions aux limites et initiale). En effet, la formalisation mathématique d’un modèle physique nécessite des hypothèses simplificatrices et l’ensemble des données d’entrée n’est pas toujours spécifiable de façon déterministe. Dans cet exposé, nous considérons les incertitudes liées aux données pour lesquelles une description probabiliste s’avère plus adaptée. Nous étudions la propagation et l’analyse de ces incertitudes par méthode spectrale. Une première partie présente la méthode spectrale utilisant les Polynômes de Chaos. Cette base de fonctions aléatoires permet de réaliser un développement convergent d’une variable aléatoire d’ordre deux selon une série ayant des coefficients déterministes. Les cas unidimensionnel et multidimensionnel seront présentés ainsi que les différentes approches pour obtenir les coefficients de la décomposition. On distingue l’approche intrusive qui nécessite une modification du code de calcul déterministe et les approches non-intrusives qui utilisent le code déterministe de façon "boîte noire". Une seconde partie illustre la méthode des Polynômes de Chaos avec des applications issues des écoulements en milieux poreux. Les quantités d’intérêt seront d’abord des variables scalaires représentatives d’un écoulement aux propriétés hydrodynamiques incertaines. Le champ de pression aléatoire sera ensuite reconstruit à partir d’une décomposition spectrale des lignes de niveau associées à la pression.


.



Mis à jour le lundi 18 novembre 2024, par : wilk


Contact   |   Plan d'accès   |   Annuaire   |   IntraM2N   |   IntraCnam