Accueil du site > Séminaires > Séminaire M2N

Séminaire M2N

Mercredi 16 janvier 2019 à 14h00 en salle 35.3.22 - Elie Saikali (CNAM) - Vers l’amélioration de la précision numérique dans les implémentations SPH à simple précision sur GPU.

Abstract : Le problème principal des implémentations SPH (Smooth Particle Hydrodynamics) classiques est l’absence de production d’une précision numérique uniforme dans le domaine de calcul. En particulier, la problématique de ces techniques est l’utilisation des coordonnées absolues par rapport au système de référence global. Cela nécessite la manipulation de grandes valeurs dans le champ éloigné de l’origine du système et devient vraiment un problème épineux lorsque de grandes configurations sont prises en compte, car il en résulte une prédiction du comportement non physique du fluide. Nous proposons plutôt l’utilisation des positions des particules par rapport à la grille de recherche voisine. Cette méthode conduit à une distribution de précision homogène et se traduit par un gain d’environ trois à cinq ordres de grandeur sur la conservation de l’énergie. De plus, nous notons que l’évolution de la variation de la densité dans les équations des fluides, au lieu de celle physique, aide à limiter les erreurs numériques dans la machine epsilon et empêche tout comportement parasite dû à des accumulations d’erreurs.

Mercredi 9 janvier 2019 à 14h00 au CNAM en salle 31.2.87 - Philippe Châtelain (Professeur à Institute of Mechanics, Materials and Civil Engineering, UCLouvain, Belgique) - Vortex Particle-Mesh methods : recent advances and applications.

Abstract : This talk focuses on recent advances brought to vortex methods, and more specifically to their state-of-the-art variants which combine the particle discretization with a mesh, the so-called Vortex-in-Cell or Vortex Particle-Mesh methods. We will cover three specific areas of development. A first topic is that of the handling of boundaries ; their efficient and accurate treatment has indeed remained elusive. We will discuss two families of techniques, a penalization-based one and the immersed interface method. A second topic concerns the handling of compressible flows by a vortex method. We have indeed recently developed a vorticity-dilatation formulation within a particle-mesh context. The challenges and the performances of such an approach will be briefly discussed. Finally, we present more industry-oriented applications of vortex methods, enabled by the use of immersed lifting lines. This technique treats bound and shed vorticities in a fashion reminiscent of vortex lattice methods. We demonstrate its potential in the studies of wake phenomena in wind energy and aeronautics.

Adresse et plan d’accés


Mercredi 28 novembre à 14h00 au CNAM en salle 33.3.20 - Omar M Knio (King Abdullah University of Science and Technology, Thuwal, Saudi Arabia) - Particle Simulation of Space Fractional Diffusion Equations.

Abstract : This talk will overview recent progress with particle simulation of unsteady space fractional diffusion equations. Starting from a general multidimensional formulation, we will outline the construction of different particle-based approaches to the simulation of fractional sub-diffusion equations in unbounded domains. We rely on smooth particle approximations, and consider five methods for estimating the fractional diffusion term. The first method is based on a direct differentiation of the particle representation ; it follows the Riesz definition of the fractional derivative and results in a non-conservative scheme. Three methods follow the particle strength exchange (PSE) methodology and are by construction conservative, in the sense that the total particle strength is time invariant. A fifth method is proposed based on the diffusion-velocity approach, where the diffusion term is turned into a transport term. The performance of the methods for the case of 1D or 2D fractional diffusion equation with constant diffusivity is studied. This enables us to take advantage of known analytical solutions, and consequently conduct a detailed analysis of the performance of the methods. This includes a quantitative study of the various sources of error, namely filtering, quadrature, domain truncation, and time integration, as well as a space-time self convergence analysis.

Lundi 29 octobre à 16h00 au CNAM en salle 33.3.20 - Kaï Schneider (Institut Mathématiques de Marseille, Aix Marseille Université) - Massively parallel simulations of insect flight in turbulence.

Abstract : Insects fly even under heavy turbulent air flow conditions. To understand the impact of turbulent fluctuations on the aerodynamics of flapping wings, we model a bumblebee with fixed body and prescribed wing motion, flying in a numerical wind tunnel. The inflow condition of the tunnel varies from unperturbed laminar to strongly turbulent. Massively parallel simulations show that turbulence does not significantly alter the wing’s leading edge vortex that is required for elevated lift production. Mean flight forces, moments and aerodynamic power expenditures are thus unaffected, suggesting little significance of turbulence on overall flight performance in insects. The increase in variance of the aerodynamic measures with increasing turbulence intensity, however, leads to flight instabilities in freely flying animals. This is joint work with Thomas Engels, Dmitry Kolomeskiy, Fritz-Olaf Lehmann and Jorn Sesterhenn.

Lundi 29 octobre à 11h00 au CNAM en salle 33.3.20 - Frédéric Dias (School of Mathematics and Statistics, University College of Dublin (UCD)) - New computational methods in tsunami science and in rogue wave science.

Abstract : Tsunamis and rogue waves are rare events with severe consequences. This generates a high demand on accurate simulation results for planning and risk assessment purposes because of the low availability of actual data from historic events. On the other hand, validation of simulation tools becomes very difficult with such a low amount of real-world data. Both phenomena involve a large span of spatial and temporal scales. The scale gap of five orders of magnitude in each dimension makes accurate modelling very demanding, with a number of approaches being taken to work around the impossibility of direct numerical simulations. Along with the mentioned multi-scale characteristic, the transition to breaking waves demands appropriate mathematical and numerical treatments. The short duration and unpredictability of tsunami and rogue wave events pose another challenging requirement to simulation approaches. An accurate forecast is sought within seconds with very limited data available. Thus, efficiency in numerical solution processes and at the same time the consideration of uncertainty play a big role in extreme wave modelling applied for forecasting purposes.

Mercredi 10 octobre à 11h30 en salle 35.3.22 - Fabien Marche (Institut Montpelliérain Alexandre Grothendrieck (IMAG), UMR CNRS) - En eaux peu profondes : modélisation et simulation.

Abstract : Je ferai un tour d’horizon de travaux récents concernant la modélisation, l’analyse numérique et la simulation des transformations d’ondes de surfaces à partir des asymptotiques shallow water pour écoulements à surface libre. Je vous présenterai des modèles « optimisés » récents (faiblement dispersifs fortement non-linéaires) ainsi que les formulations discrètes associées en éléments finis discontinus qui ont été proposées et validées. J’évoquerai (si le temps le permet) la possibilité de surmonter l’hypothèse classique d’irrotationalité des écoulements, même sous hypothèse de « couche mince ».

Jeudi 28 juin à 14h00 en salle 33.3.20 - Pr. Eckart Meiburg - University of California - A High-resolution Computational Investigation into Double-diffusive Sedimentation.

Abstract : We consider the settling of particles in the presence of a stably stratified temperature or salinity field by means of highly resolved, three-dimensional direct numerical simulations (DNS) of the Navier-Stokes equations. The simulations are conducted by means of a combination of Fourier spectral and sixth order compact finite difference methods. Scenarios are discussed under which double-diffusive and Rayleigh-Taylor instabilities can develop, and we demonstrate the existence of a novel, purely settling-driven instability. Both linear stability analysis and direct numerical simulations are employed in order to elucidate the competition among these instability modes.

Jeudi 21 juin à 10h00 en salle 33.3.20 - Christophe Denis (Ingénieur-chercheur à EDF R&D - Chargé de recherche, CMLA, ENS Paris-Saclay) - Les défis scientifiques pour mener les simulations numériques de demain.

Abstract : Les simulations numériques sont largement utilisées par la communauté scientifique pour aider la compréhension des phénomènes complexes. Elles sont également utilisées par les entreprises pour gérer des enjeux techniques, environnementaux, financiers et concurrentiels.

Une profonde modification de l’environnement technologique du calcul scientifique est en cours : mutation architecturale des super-calculateurs, prédiction accrue des méthodes d’apprentissage, fin de la course à la performance bon marché, industrialisation potentielle d’ordinateurs quantiques.

Cette modification de l’environnement technologique entraine à la fois des défis et des opportunités pour le calcul scientifique. Les principaux défis, corrélés entre eux, sont la limitation de la consommation électrique, l’évaluation et l’optimisation de la performance, la quantification des incertitudes, la gestion des tolérances aux pannes et l’explicabilité des simulations à large échelle (voire quantiques). Un effort de formation et d’enseignement est également indispensable puisque l’utilisation efficace des nouvelles générations de super-calculateurs bouleverse les paradigmes de programmation enseignés dans le passé.

L’utilisation de méthodes d’apprentissage issues de l’IA statistique représente à la fois une opportunité et un défi pour le calcul scientifique. Il s’agit d’une alternative ou d’un complément à la mise en place de simulations numériques basées sur une modélisation mathématique d’un phénomène physique potentiellement mal maitrisé. Toutefois, la transparence et l’intelligibilité de l’apprentissage statistique reste un verrou scientifique pour assurer son acceptabilité opérationnelle.

L’exposé présente tout d’abord les principaux défis à relever pour le calcul scientifique en regard de l’évolution technologique. Les points suivants abordés durant l’exposé ont pour objectif d’apporter des éléments de réponse aux défis :

  • contrôle des effets de l’arithmétique flottante impactant la précision et la reproductibilité numérique des résultats. ;
  • prise en compte de l’effet de l’arithmétique flottante dans une démarche globale de quantification des incertitudes d’une simulation numérique
  • évaluation de la performance et adaptation des logiciels de calcul actuels pour les futures générations de super-calculateurs ;
  • GreenAI : plateforme open-science et multidisciplinaire dédiée à l’utilisation raisonnée, certifiée et éco-efficace de méthodes d’apprentissage profond
  • MOOC « Calcul scientifique et Intelligence Artificielle » qui a pour vocation à s’intégrer à GreenAI.

jeudi 24 mai à 14h00 en salle 33.3.20 - Olivier Le Maitre (LIMSI - Laboratoire d’Informatique pour la Mécanique et les Sciences de I’Ingénieur- , Orsay) - Méthodes spectrales pour la propagation des incertitudes paramétriques et l’inférence bayésienne.

Abstract : Cette présentation portera sur l’utilisation des méthodes spectrales pour le traitement des incertitudes paramétriques, considérées ici comme des quantités aléatoires, dans les simulations numériques. On se placera ici dans le cadre de simulations numériques couteuses, typiques de l’ingénierie numérique (aérospatial, énergie, transport, chimie, ...). L’objectif est alors de caractériser statistiquement les incertitudes sur la prédiction du modèle pour prendre des décisions pleinement informées, et aussi de hiérarchiser l’importance de différentes sources d’aléas pour éventuellement définir des stratégies efficaces de réduction d’incertitude. Pour ce dernier point, nous considèrerons plus particulièrement le cadre bayésien qui permet naturellement la mise à jour des lois de probabilité des paramètres quand de nouvelles observations ou mesures sont disponibles.

La première partie de la présentation portera ainsi sur les approches spectrales qui, contrairement aux méthodes de simulation type Monte Carlo, reposent sur des approximations fonctionnelles des dépendances de la solution (prédiction) du modèle vis à vis de ses paramètres aléatoires. L’idée est ici d’exploiter d’éventuelles régularités de ces dépendances. En partant de la décomposition en Polynômes de Chaos [Wiener, 1938], initialement appliquée aux incertitudes par Ghanem & Spanos (1991), nous introduirons plusieurs développements découlant de nos travaux menés ces dernières années. On s’intéressera notamment aux schémas d’analyse multi-résolution pour le cas de dépendances non-régulières en les paramètres, aux représentations séparées généralisées (Proper Generalyzed Decompositions) et aux méthodes de décomposition de domaine pour la réduction de la complexité numérique.

Dans la seconde partie de l’exposé, nous détaillerons plusieurs approches récemment proposées pour la réduction de la complexité du problème d’inférence bayésienne. Il s’agit ici non seulement d’accélérer l’échantillonnage de la densité a posteriori en utilisant des modèles réduits, construits par exemple avec les méthodes spectrales décrites précédemment, mais aussi de proposer des stratégies de compression et de sélection les observations pour en extraire les éléments les plus informatifs, et ainsi améliorer le conditionnement du problème d’inférence.

Les diverses approches discutées seront illustrées par des exemples correspondant à des modèles non-linéaires, principalement d’écoulements fluides, et à des problèmes issus des géosciences et du monde industriel.

mercredi 2 mai à 14h30 en salle 37.2.43 (salle Boris Vian) - Peter Schmid (Professeur à l’Imperial College, Londres) - Model-based and data-based flow analysis.

Abstract : Many properties of fluid systems, such as their inherent stability, receptivity to external or internal forcing, or sensitivity to uncertainties or imperfections, can be formulated as an optimization problem with partial-differential equations (PDEs) as side-constraints. Only in the limit of overly restrictive assumptions do these optimization problems reduce to standard and familiar tools for the analysis of fluid systems.
We will discuss a framework for the model-based and data-based analysis of large-scale fluid systems optimization techniques. This framework will make use of adjoint information which is extracted efficiently from direct numerical simulations of the fluid problem via an automatic differentiation approach, or by other concepts of optimization, such as network-analysis, for a data-based approach.
The adjoint approach will be demonstrated on various test cases :

  • (i) the problem of tonal noise generation about a NACA-0012 airfoil,
  • (ii) the enhancement of mixing by an optimized wall blowing-and-suction strategy or optimized stirring,
  • (iii) the synchronization behavior across blade passages in turbomachines. For the data-based approach, we will discuss
  • (iv) the analysis of rare (intermittent) events in turbulent flows by network models
  • (v) the reconstruction of fluid structures in Rayleigh-Benard convection from sparse measurements.

Different research directions for extensions of the above methodology will be outlined.

jeudi 26 avril à 14h00 en salle 33.3.20 - Mohammed Ali Jendoubi (Université de Carthage, Tunisie) - Comportement à l’infini des solutions globales et bornées de quelques problèmes d’évolution.

Abstract : Dans cet exposé, on étudie le comportement à l’infini des solutions globales et bornées de quelques problèmes d’évolution. On commence par rappeler des résultats classiques de convergence et de non convergence des solutions pour des systèmes différentiels du premier et du second ordre (dimension finie), puis pour les équations de la chaleur et l’équation des ondes avec dissipation. A la fin de l’exposé, on donne quelques résultats récents qui concernent des systèmes du second ordre avec dissipation lente ou partielle.

L’exposé initialement prévu le 22 mars est reporté ... - Florian Bernard (INRIA Bordeaux) - De la recherche aux applications : comment industrialiser des résultats de recherche en mécanique des fluides ?

Abstract : La mécanique des fluides est un domaine d’intérêt dans différents secteur de l’industrie comme l’aéronautique, l’aérospatiale ou encore l’automobile. Récemment de nouveaux domaines comme la médecine s’intéressent aux technologies de simulations existantes. Toutefois, l’expertise nécessaire pour manipuler les outils de simulation actuels ne permet pas à des chirurgiens, des fabricants de dispositifs médicaux de les utiliser. En particulier, la création du maillage reste une étape qui requière un savoir faire important. Dans cet exposé, nous allons présenter comment nous réussissons à automatiser certaines étapes de mise en place d’une simulation d’écoulement autour de géométries complexes, en mouvement et se déformant grâce à des maillages quadtree/octree. Nous présenterons les différentes méthodes numériques que nous avons développées et des simulations sur des applications concrètes (écoulement incompressibles et raréfiés) en 2D et 3D.

jeudi 15 février à 14h00 en salle 37.2.43 - Francisco (Paco) Chinesta (PIMM & ESI Chair / ENSAM ParisTech) - From Virtual Twins to Hybrid TwinsTM : when model reduction meets data-driven engineering in the factory of future.

Abstract : In the previous (third) industrial revolution “virtual twins" (emulating a physical system from the accurate solution of the mathematical model expected describing it) were major protagonists, making accurate designs possible. Numerical simulation is nowadays present in most of scientific fields and engineering domains, making possible the virtual evaluation of systems responses, alleviating the number of experiences on the real system that the numerical model represents. However, usually virtual models are static, that is, they are used in the design of complex systems and their components, but they are not expected to accommodate or assimilate data. The reason is that the characteristic time of standard simulation strategies is not compatible with the real-time constraints compulsory for control purposes. Recently the use of model order reductions techniques (modal basis, reduced basis, POD or PGD based approximations...) was considered as a potential new route making possible accommodate real-time simulations and rich system representations (high-fidelity), that is, accommodating finite elements and real-time responses. During the last ten years impressive progresses were accomplished in this sense, and today complex systems are finely and accurately simulated and evaluated in deployed systems like smartphones or tablets. Within the PGD paradigm, parametric solutions computed offline allow the online real-time simulation, control, inverse analysis, optimization and uncertainty propagation.
Model Order Reduction based real-time solutions converted “virtual twins” into “digital twins” that made possible online calibration and control from collected data. Despite an initial euphoric and jubilant period, unexpected difficulties appeared immediately. In practice, significant deviations between the predicted and observed responses were noticed, limiting their use in many applications. The origin of the just referred deviations between predictions and measurements is due to (i) inaccuracies in the employed models that sometimes continue to be crude approximations/descriptions of the real systems ; (ii) the fact that in many cases models evolve in time in an “a priori” almost unpredictable manner ; (iii) inaccuracies in the determination of the model parameters or in their time-evolution, that can present space and time stochastic fluctuations. A certain part of the deviation can be viewed as a noise ; however, the remaining biased part proves the existence of a hidden model that operates but escapes to our understanding. In order to address this inevitable “ignorance” one possibility lies in constructing “on-the-fly” a data-driven model able to fill the gap between collected data and model prediction. Thus, “Hybrid Twins” consist of three main ingredients : (i) a simulation core able to solve complex mathematical or data-driven models under real-time constraints making use of HPC ; (ii) advanced strategies able to proceed with data-assimilation, data-curation and data-driven modeling ; and (iii) a mechanism to adapt the model online to evolving environments (that could imply the model change and not only the change of the parameters that an “a priori” assumed model involves). Hybrid-TwinTM embraces these three functionalities into a new paradigm in simulation-based engineering, and more concretely in a cyber-physical-system framework.

Jeudi 1er février à 14h00 en salle 33.3.20 - Houman Borouchaki (ICD - Institut Charles Delaunay, Inria Saclay & Université de Technologie Troyes) - Erreurs et métriques d’interpolation.

Abstract : Une nouvelle approche pour majorer l’erreur d’interpolation d’une fonction polynomiale de degré n quelconque par une fonction polynomiale de degré n−1 est proposée. Cette majoration permet l’obtention d’une métrique dite d’interpolation afin de contrôler cette erreur. L’approche repose sur les propriétés géométriques et algébriques des métriques d’éléments, métriques dans lesquelles les éléments sont réguliers et unitaires. La métrique d’interpolation intervient dans un calcul avancé basé sur l’adaptation de maillages. La méthode combine une écriture avec des fonctions de forme et des développements de Taylor permettant de contrôler l’erreur sur chaque élément à partir d’un contrôle portant sur ses arêtes.


mercredi 22 novembre à 14h00 en salle 33.3.20 - Emmanuelle Itam (Institut Montpelliérain Alexander Grothendieck) - Simulation numérique d’écoulements autour de corps non profilés par des modèles de turbulence hybrides et un schéma multirate

Abstract : Ce travail est une contribution à la simulation numérique d’écoulements turbulents autour de corps non profilés. Après avoir précisé les ingrédients numériques et les modèles de turbulence utilisés dans nos simulations, nous présentons une étude sur l’évaluation des effets de la procédure dynamique des modèles de sous-maille dans un modèles VMS-LES et une approche hybride RANS/VMS-LES. Des problèmes d’écoulements autour d’un cylindre seul et en tandem sont considérés. Nous étudions ensuite le comportement de modèles de turbulence hybrides pour la simulation d’écoulements en régime sous-critique autour d’un cylindre circulaire. Le calcul de l’écoulement autour d’un cylindre de section rectangulaire par l’approche VMS-LES est aussi présenté. Enfin, dans une dernière partie, après avoir fait une revue des travaux importants sur les schémas d’avancement en temps multirate, nous proposons une nouvelle approche explicite multirate par agglomération de volumes finis que nous appliquons à des calculs d’écoulements turbulents complexes en utilisant un modèle de turbulence hybride.

mercredi 18 octobre à 14h00 en salle 37.2.43 - Frederic Daude (EDF, R&D) - Two-phase flow transients with fluid-structure interaction.

Abstract : Undesirable events in Nuclear Power Plants (NPPs) require permanent attention among researchers, nuclear engineers and operators. This is the case of the Water-Hammer (WH) events and the Loss-Of-Coolant-Accident (LOCA) scenario. In these two transients, high variation of pressure is generated and can imply significant mechanical loads on structures. This can damage pipes or supports disturbing the operation of the pipe system. For this purpose, research in the fields of two-phase flow fast transients and fluid-structure interaction (FSI) is necessary. In particular, advanced two-phase flow models and numerical schemes can improve our ability to predict and to understand such transients and their mechanical impacts on structures. In this context, a numerical scheme for the Baer-Nunziato model based on a linearization of the Riemann invariants associated to the two-phase contact discontinuity is presented. A major consequence of this approximation is that the resulting solver can deal with any Equation of State. It also allows to bypass the resolution of a non-linear equation based on those Riemann invariants. In addition, a mass transfer modeling approach is also proposed for the fast depressurization of water in order to take into account metastable effects. Comparison with experiments are also presented. Finally, a Finite-Volume numerical approach for compressible flows is presented for the treatment of the junction of several branches and the abrupt change of area in ducts. All of the algorithms presented have been implemented in the fast transient dynamics software for fluids and structures Europlexus (

mercredi 4 octobre à 14h00 en salle 35.3.22 - Raphaël Loubère (Institut Mathématiques de Bordeaux (IMB)) - A new subcell limiter for Discontinuous Galerkin scheme - hyperbolic systems of conservation laws with stiff source terms.

Abstract : The purpose of this joined work is to propose a novel a posteriori finite volume subcell limiter technique for the Discontinuous Galerkin finite element method for nonlinear systems of hyperbolic conservation laws in multiple space dimensions that works well for arbitrary high order of accuracy in space and time and that does not destroy the natural subcell resolution properties of the DG method. High order time discretization is achieved via a one-step ADER approach that uses a local space-time discontinuous Galerkin predictor method to evolve the data locally in time within each cell. Our new limiting strategy is based on a paradigm, which a posteriori verifies the validity of a discrete candidate solution against physical and numerical detection criteria after each time step. For those troubled cells that need limiting, our new limiter approach recomputes the discrete solution by scattering the DG polynomials at the previous time step onto a set of N’ = 2N + 1 finite volume subcells per space dimension. A robust but accurate finite volume scheme then updates the subcell averages of the conservative variables within the detected troubled cells. The recomputed subcell averages are subsequently gathered back into high order cell-centered DG polynomials on the main grid via a subgrid reconstruction operator. We illustrate the performance of the new a posteriori subcell finite volume limiter approach for (very high order) DG methods via the simulation of numerous test cases run on Cartesian and unstructured grids in two and three space dimensions, using DG schemes of up to tenth order of accuracy in space and time (N = 9). Moreover we will present the coupling of our approach with AMR techniques and for different systems of PDEs (Euler, MHD, multiphase).

jeudi 29 juin à 14h00 en salle 37.2.43 - O.Wilk (IR, M2N CNAM) - Décomposition de domaines - Une plateforme logicielle pour les méthodes de Schwarz.

Abstract : Les méthodes de Schwarz (multplicatives ou additives) permettent la résolution d’EDP par décomposition de domaines. Contrairement aux méthodes de Schur, elles interviennent plus amont au niveau du problème continu par des choix pertinents de conditions d’interface. Ces méthodes permettent de mettre en place des résolutions itératives préconditionnées en utilisant une résolution directe par sous-domaine. L’exposé présentera principalement une méthode additive, soulignera l’importance de la condition d’interface, du recouvrement des sous-domaines, de la grille grossière indispensable à la bonne performance du processus parallèle et des aspects permettant une parallélisation intéressante. Il se poursuivra par la présentation d’une plateforme logiciel dédiée puis se terminera par quelques applications numériques permettant d’évaluer les performances.

Cet exposé repose principalement sur :
Victorita Dolean, Pierre Jolivet, Frédéric Nataf - An Introduction to Domain Decomposition Methods : algorithms, theory and parallel implementation - Master, France, 2015.
Martin J. Gander, Laurence Halpern - Méthodes de décomposition de domaines Notions de base - Techniques de l’ingénieur Analyse numérique des équations différentielles et aux dérivées partielles , avril 2012.
Marc Jacques - Décomposition de domaines par les méthodes de Schwarz, Mise en oeuvre d’une plateforme de développement - Mémoire d’ingénieur CNAM en informatique option calcul scientifique, mars 2017.

jeudi 22 juin à 14h00 en salle 35.3.22 - Meriem Jedouaa (ATER, M2N CNAM) - Méthode de capture d’interface pour la simulation de suspensions d’objets immergés dans un fluide.

Abstract : Nous nous intéressons à la simulation numérique de suspensions denses d’objets immergés dans un fluide. En s’inspirant d’une technique de segmentation d’image, une méthode efficace de capture d’interface a été développée. Celle-ci permet d’une part de localiser les structures immergées et d’autre part de gérer les contacts numériques entre les structures. Le domaine fluide/structure est représenté à l’aide de trois fonctions labels et de deux fonctions distances qui permettent de localiser chaque structure et son plus proche voisin. Les interfaces sont capturées par une seule fonction level set, celle-ci est ensuite transportée par la vitesse du fluide ou par la vitesse de chaque structure. Un algorithme de multi-label fast marching permet de réinitialiser à chaque pas de temps les fonctions labels et distances dans un périmètre proche des interfaces. La gestion des contacts numériques est effectuée à l’aide d’une force répulsive à courte portée prenant en compte l’interaction entre les objets les plus proches. La méthode est appliquée à des solides rigides et des membranes élastiques évoluant dans un fluide incompressible.

jeudi 1er juin à 14h00 en salle 33.3.20 - Frederic Hecht - (Professeur des Universités, Laboratoire Jacques Louis Lions) - Tour de FreeFem++ en exemples.

Abstract : FreeFem ++ est un logiciel puissant et flexible pour résoudre des équations aux dérivées partielles (EDP) dans ℝ2 et dans ℝ3 avec des méthodes d’éléments finis. Le langage FreeFem ++ permet une spécification rapide des EDP linéaires, en utilisant la formulation variationnelle d’un problème linéaire stationnaire. L’utilisateur peut écrire son propre script pour résoudre des problèmes non linéaires et/ou instationnaires. Il est possible de résoudre des problème couplés, de faire de l’adaptation de maillages, du calcul de valeurs propres, d’avoir des domaines mobiles, …

Je présenterai un aperçu des principales caractéristiques de FreeFem++ sur :
- des exemples académiques,
- la mise en lumière d’instabilité thermique dans des extrudeurs d’imprimante 3d (couplage : équation de Stokes à viscosité variable/équation de la Chaleur),
- une étude numérique pour faire de l’imagerie cérébrale pour la recherche de type AVC.

jeudi 18 mai à 14h00 en salle 33.3.20 - Marc Massot (Professeur des Universités à CentraleSupélec et à l’Ecole Polytechnique) - Eulerian models for the description of polydisperse sprays : from fundamental issues to industrial applications and HPC.

Abstract : The modeling and simulation of multiphase reacting flows covers a large spectrum of applications ranging from combustion in automobile and aeronautical engines to atmospheric pollution as well as biomedical engineering. In the framework of this seminar, we will mainly focus on a disperse liquid phase carried by a gaseous flow field which can be either laminar or turbulent ; however, this spray can be polydisperse, that is constituted of droplets with a large size spectrum. Thus, such flows involve a large range of temporal and spatial scales which have to be resolved in order to capture the dynamics of the phenomena and provide reliable and eventually predictive simulation tools. Even if the power of the computer resources regularly increases, such very stiff problems can lead to serious numerical difficulties and prevent efficient multi-dimensional simulations.

The purpose of the presentation is to introduce to the Eulerian modeling of polydisperse evaporating spray for various applications, that is the disperse liquid phase carried by a gaseous flow field is modeled by ‘fluid" conservation equations. Such an approach is very competitive for real applications since it has strong ability for optimization on parallel architectures and leads to an easy coupling with the gaseous flow field resolution. We will show that all the necessary steps in order to develop a new generation of computational code have to be designed at the same time with a high level of coherence : mathematical modeling through Eulerian moment methods, development of new dedicated stable and accurate numerical methods, implementation of optimized algorithms as well as verification and validations of both model and methods using other codes and experimental measurements.

We will introduce both a new class of models and their mathematical analysis for the direct numerical simulation of spray dynamics even in the presence of coalescence and break-up, as well as a set of dedicated numerical methods and prove that such an approach has the ability, once validated, to lead to high performance computing on parallel architectures. If we have time, we will finally present a synthesis of recent contributions, which aim at :

1- on the one side transferring the proposed models into identified codes for industrial applications in the fields of solid propulsion, aeronautical and automotive engines,

2- on the other side extending the previous work to turbulent flows, where some scales can not be resolved and have to be modeled, and where some dedicated numerical methods have to be designed,

3- proposing a unified description for the separated and disperse phase modeling in the framework of fuel injection.

jeudi 4 mai à 14h00 en salle 33.3.20 - Jean-Christophe Robinet (Laboratoire Dynfluid, Arts et Métiers ParisTech) - Instabilités pour des écoulements tridimensionnels.

Abstract : L’étude des instabilités se développant au sein d’écoulements remonte à la fin du XIXème siècle. Initialement ces analyses ont été réalisées sur des écoulements modèles et le plus souvent en supposant de nombreuses hypothèses simplificatrices comme le caractère non visqueux des perturbations ou certaines invariances spatiales ou temporelles de l’écoulement. Ces hypothèses ont été progressivement relaxées principalement grâce aux avancés du numérique et du calcul scientifique. Depuis une dizaine d’années, il est possible d’étudier la stabilité linéaire et non linéaire pour des écoulements pleinement tridimensionnels sans presque plus aucune hypothèse simplificatrice. Lors de ce séminaire, je vous propose d’une part de vous présenter les différentes méthodes permettant de réaliser de telles études et d’autre part de vous les illustrer sur différent cas comme un écoulement autour d’une sphère, d’une rugosité cylindrique ou même autour d’un profil d’aile transsonique en régime de tremblement aérodynamique.

jeudi 27 avril à 14h00 en salle 33.3.20 - Ruiying Li (Institut Pprime-Département Fluide, Université de Poitiers) - Machine learning control for drag reduction of a car model.

Abstract : Machine Learning Control (MLC) is a recently proposed model-free control framework for turbulent flow control. It explores and exploits strongly nonlinear dynamics in an unsupervised manner. The assumed plant has multiple actuators and sensors and its performance is measured by a cost functional. The control problem is to find a control logic which optimizes the given cost function. The corresponding regression problem for the control law is solved by employing a specific machine learning algorithm - linear genetic programming - as an easy and simple regression solver in a high-dimensional control search space. This search space comprises open-loop actuation, sensor-based feedback and combinations thereof. MLC is first applied to the stabilization of a forced nonlinearly coupled three-oscillator model comprising open- and closed-loop frequency crosstalk mechanisms. MLC performance is then demonstrated in a turbulence control experiment, achieving 22% drag reduction for a simplified car model. For both cases, LGPC identifies the best nonlinear control achieving the optimal performance by exploiting frequency crosstalk. Our control strategy is suited to complex control problems with multiple actuators and sensors featuring nonlinear actuation dynamics.

30 mars à 14h00 en salle 33.3.20 - Jean-Matthieu Etancelin (Ingénieur de recherche, Université de Reims) - ROMEOLab : une solution interactive de cours en HPC hybride pouvant utiliser 100+CPU, 10+GPU et un réseau Infiniband.

Abstract : ROMEOLab est une plateforme web développée au Centre de Calcul ROMEO, à l’Université de Reims Champagne-Ardenne, pour l’accès à des contenus pédagogiques interactifs sur les ressources du calculateur ROMEO. Ce dernier constitue le plus grand cluster hybride de France, dédié à la recherche académique et industrielle. À travers cette plateforme, nous proposons des TP et des formations pratiques spécifiques aux technologies et outils utilisés en production dans un seul et même environnement. L’originalité de cette plateforme réside en la capacité de manipuler et d’expérimenter dans un réel environnement HPC à travers un simple navigateur web avec un simple login et bouton on/off au lieu de multiples connections à distances et d’une utilisation du gestionnaire de ressources en ligne de commande. Dans cet exposé, je détaillerai les enjeux et les intérêts d’une telle solution à la fois dans un contexte de cours universitaires ou de formations professionnelles et dans une utilisation en production.

2 mars à 15h00 en salle 33.3.20 - Mohammed Khalil Ferradi (Entreprise Strains - STRucture Analysis INnovation Software -, Paris) - Modèle de poutre enrichie avec la méthode des développements asymptotiques.

Abstract : La méthode des développements asymptotiques est une méthode générale pour la résolution d’équations différentielles, qui peut être appliquée aux équations d’équilibre mécanique, pour développer ou justifier certains modèles de poutres ou de coques. Dans cette présentation nous allons appliquer cette méthode aux problèmes de poutres, pour construire une cinématique formée de modes de gauchissements (déplacement hors plan de la section) et de déformations transversales (déplacement dans le plan de la section). Ces modes seront déterminés en fonction du chargement (forces externes, déformations imposées...), par un calcul 2D sur la section de la poutre, formant ainsi une base appropriée pour exprimer la cinématique et permettant une réduction de modèle efficace pour l’élément de poutre.

23 février à 14h00 en salle 33.3.20 - Emmanuel Trélat (Laboratoire Jacques-Louis Lions, UPMC, Paris 6) - Optimisation du domaine pour observer ou contrôler des modèles EDP.

Abstract : On étudie le problème d’optimiser la forme et le placement de capteurs ou de contrôleurs, dans des systèmes d’évolution modélisés par des EDP. On considère notamment les modèles classiques des ondes, Schrödinger ou chaleur, sur un domaine arbitraire Ω, en toute dimension d’espace, et avec des conditions frontières appropriées (s’il y a une frontière). Ce type de problème apparaît fréquemment en pratique dans des applications où l’on cherche, par exemple, à maximiser la qualité de reconstruction de la solution, en se servant d’observations partielles. Par exemple : quelle est la forme optimale, et la localisation idéale dans Ω, d’un thermomètre de mesure de Lebesgue donnée ? Du point de vue mathématique, il s’agit d’un problème inverse, en fait mal posé à moins qu’on restreigne l’ensemble des formes qu’on fait varier. Tout d’abord, par des considérations probabilistes (suivant des travaux de N. Burq et N. Tzvetkov), on montre qu’il est pertinent de modéliser ce problème en maximisant ce qu’on appelle la "constante d’observabilité randomisée", parmi tous les sous-domaines de Ω de mesure de Lebesgue donnée. Cela revient à maximiser un infimum parmi tous les modes possibles de certaines quantités spectrales liées aux fonctions propres du Laplacien. L’analyse spectrale de ce problème s’avère être en lien étroit avec la théorie du chaos quantique, plus précisément, avec les propriétés d’ergodicité quantique du domaine. Il s’agit d’une série de travaux avec Yannick Privat (Paris 6) et Enrique Zuazua (Bilbao).

26 janvier à 14h00 en salle 37.2.43 - Pr. Spencer Sherwin (Imperial College, Londres) - Development and analysis of spectral / hp element techniques for high Reynolds number flow simulations relevant to Formula One.

Abstract : The use of computational tools in industrial flow simulations is well established. As engineering design continues to evolve and become ever more complex there is an increasing demand for more accurate transient flow simulations. It can, using existing methods, be extremely costly in computational terms to achieve sufficient accuracy in these simulations. Accordingly, advanced engineering industries, such as the Formula One (F1) industry, are looking to academia to develop the next generation of techniques which may provide a mechanism for more accurate simulations without excessive increases in cost.

This demand for modelling of accurate flow physics around complex geometries are therefore making high order methods such as spectral/hp type discretisations more attractive to industry. Nevertheless a number of challenges still exist in translating academic tools into engineering practice. As the start of the pipeline, meshing techniques for high order methods are required to handle highly complex geometries. Next many engineering problems require high Reynolds numbers leading to turbulent flow that typically are only marginally resolved. Therefore, there is a need for greater robustness in marginally resolved conditions where aliasing errors and high frequency damping are typically required. Finally maintaining computational efficiency is also obviously important.

In this presentation we will outline the demands imposed on computational aerodynamics within the highly competitive F1 sector and discuss the numerical challenges which have to be overcome to translate academic tools into this environment.

5 Janvier à 14h00 en salle 33.3.20 - Jean-Jacques Chattot (University of California, Davis) - Wind turbine aerodynamics : an engineering approach.

Abstract : Steady flows past wind turbines have been successfully simulated with the helicoidal vortex model that uses a prescribed wake defined by matching the power captured by the rotor with that lost in the far-wake, in a manner consistent with actuator disk theory. This approach has been found to be accurate and very efficient in predicting the global quantities such as power and thrust on the tower, as well as blade profile working conditions, using 2-D viscous polar data, so long as no major separation occurs on the blades. This approach also gave excellent results in cases of unsteady flow from yaw or tower interference, when the power fluctuations are small. The vortex model has also been extended to account for large changes in power, such as occurs with abrupt changes in blade pitch. The wake is treated as a flexible spring, extending from the rotor to the far-field (Trefftz plane), along which the pitch varies according to the convected power history at the rotor. Results of test cases are compared with experimental data available from the Tjaereborg and NREL experiments, indicating that the code gives not only correct power levels asymptotically, but also predicts the transient overshoots and undershoots and recovery time accurately. The hybrid method of coupling a near blade-attached Navier-Stokes domain and vortex model for the wake will be presented and shown to be both accurate and efficient.

Aeroelastic simulation has been developped using the linear modal decomposition of the blade bending motion of the NREL blade, which has proved to be more accurate than finite difference solution of the flapping equation due to stability requirement and drifting errors. Results will be presented for the NREL rotor in yaw at different incoming flow velocities. Recent extension of the hybrid method to unsteady flow will be outlined.


8 Décembre à 14h00 en salle 35.1.45 - Olivier Piller (Irstea, Bordeaux) - Optimisation et analyse des systèmes de distribution d’eau sous pression

Abstract : L’eau est une ressource fondamentale pour le bien-être de l’homme qui présente des enjeux économiques considérables. Les sociétés modernes dépendent d’infrastructures complexes et interconnectées pour fournir de l’eau potable aux consommateurs. Les réseaux de distribution d’eau potable sont également des infrastructures à risques, exposées à des contaminations délibérées ou accidentelles. Il est donc important de disposer d’outils d’analyse du fonctionnement du réseau du point de vue de la qualité de service à un coût acceptable, mais aussi d’outils d’aide à la décision pour la sécurité du réseau et celle des abonnés.
Mes travaux de recherche au sein de l’UR GPIE d’Irstea (Gestion Patrimoniale des Infrastructures liées à l’eau) contribuent à apporter des réponses sur l’optimisation des flux, la sécurité et la Gestion durable des réseaux.

24 Novembre à 14h00 en salle 33.3.20 - Théo Corot (CNAM) - Un nouveau schéma volume finis pour l’hydrodynamique Lagrangienne, application à l’explosion vapeur

Abstract : On décrit un schéma volume finis sur maillage non structuré pour l’hydrodynamique Lagrangienne. Les flux sont basés sur les noeuds calculés grâce à un nouveau solveur nodal qui ne dépend que de la répartition angulaire des variables autour des noeuds. On validera numériquement le schéma grâce à des comparaisons avec les schémas EUCCLHYD et GLACE puis on appliquera ce schéma à l’explosion vapeur.

30 juin 2016 à 14h00 en salle 21.2.40 - Frédéric Lagoutière (Université Paris-Sud) - Outils probabilistes pour l’analyse numérique d’équations de transport (déterministes).

Abstract : Dans cet exposée, je décrirai quelques résultats obtenus ces dernières années avec François Delarue (Nice Sophia Antipolis) et Nicolas Vauchelet (Paris 6). Ces résultats concernent l’ordre d’approximation de schémas de volumes finis de type upwind, ou, plus généralement, de schémas diffusifs pour des problèmes de Cauchy associés à des équations de transport, conservatives ou non conservatives. Nous verrons des techniques pour démontrer que l’ordre de convergence (en les pas d’espace et de temps associés au maillage) est 1/2 lorsque la donnée initiale, le champ de vitesses, ou le maillage, est peu régulier. Les techniques que nous proposons sont probabilistes, et fondées sur une réinterprétation du schéma, déterministe, comme l’espérance d’un schéma aléatoire. Cette réinterprétation met en évidence l’existence de courbes caractéristiques numériques liées au schéma, ainsi que de formules de représentation de la solution numérique au moyen de ces caractéristiques.

2 juin 2016 à 14h00 en salle 17.2.20 - Paola Cinnella - (ENSAM, Paris) - Bayesian approach for the quantification of model-form uncertainties in Fluid Mechanics.

Abstract : Numerical predictions in fluid mechanics are affected by several sources of error : discretization error, parametric uncertainty, and physical modeling error, are the three most significant. Yet only the latter cannot be estimated and controlled with standard techniques. As such, it represents the bottleneck to a robust predictive capability in many fields. Here we investigate a systematic stochastic approach, based on Bayesian inference, for model parameter estimation, model selection, and robust prediction based on multiple alternative model forms and calibration scenarios. The prediction is robust in such a sense that it takes into account the uncertainty about model parameters, the choice of the most appropriate calibration data for predicting the new configuration, and the model structure. Precisely, we try to find an a posteriori error estimate, calibrated to specific classes of flow. It is based on variability in model closure coefficients across multiple flow scenarios, for multiple closure models. The variability is estimated using Bayesian calibration against experimental data for each scenario, and Bayesian Model-Scenario Averaging (BMSA) is used to collate the resulting posteriors, to obtain a stochastic estimate of a Quantity of Interest (QoI) in an unmeasured (prediction) scenario. The scenario probabilities in BMSA are chosen using a sensor which automatically weights those scenarios in the calibration set that are similar to the prediction scenario. The preceding methodology is applied to the quantification of uncertainties associated to turbulent closures of the Reynolds-Averaged Navier-Stokes (RANS) equations and to the equations of state used to model the thermodynamic behaviour of dense gas flows. Perspectives on the extension of the proposed approach to complex flow configurations are also discussed.

10 mars 2016 à 14h en salle 17.2.20 - Jean-Jacques Chattot - (UC Davis, USA) - Tricomi’s equation and condition for shock-free flow

Abstract : A Dirichlet boundary value problem is investigated for the Tricomi equation, in relation to shock-free solutions, their uniqueness and their numerical computation. The study of uniqueness and existence or rather non-existence of shock-free solutions by Morawetz was based on the formulation of a Goursat type problem, in which only part of the streamline data is given in the hodograph plane, the missing part corresponding to the arc intercepted by the two characteristic lines coming from a point on the sonic line. In the physical plane, on the other hand, the complete profile shape determines the solution. To reconcile the formulations in both the physical and the hodograph planes, a Dirichlet boundary value problem is proposed in the hodograph plane. The requirement for such a problem to be well-posed is that the streamline that represents the profile be “sub-characteristic”, a condition that is shown to yield a shock-free flow. A class of symmetrical, solutions to Tricomi’s equation is presented and we discuss conditions for shock-free flow and for the need of a shock to regularize the solution. As a first step, such a formulation is applied to the wave equation and it is shown that, provided the boundary is “sub-characteristic”, a unique solution exists and is obtained numerically in a simple example. Along the same line, the uniqueness of the Dirichlet problem as well as the computation, to second order accuracy, of the analytic solution of the Tricomi equation presented earlier, are demonstrated.

3 mars 2016 à 14h en salle 31.2.85 - Frédéric Nataf - LJLL - UPMC Paris 6 et Equipe Alpines-INRIA - Une théorie de type Schwarz pour l’algorithme de P.L. Lions

Résumé : Les méthodes de Schwarz optimisées (OSM) sont des méthodes très populaires qui ont été introduites par P.L. Lions pour des problèmes elliptiques et B. Després pour les équations d’Helmholtz et de Maxwell. Nous introduisons une théorie de l’algorithme de P.L. Lions qui est la véritable contrepartie de la théorie développée au fil des ans pour l’algorithme de Schwarz. La première étape est d’introduire une variante symétrique de l’algorithme ORAS (Optimized Restricted Additif Schwarz) qui soit appropriée pour l’analyse d’une méthode à deux niveaux. Puis nous construisons un espace grossier pour lesquels le taux de convergence de la méthode à deux niveaux convergence est garantie indépendamment de la régularité des coefficients. Nous montrons des résultats d’extensibilité (« scalability" en anglais) sur des milliers de coeurs pour le système de l’élasticité presque incompressible et celui de Stokes avec une discrétisation en continu de la pression.


17 décembre 2015 - Olivier Pironneau - LJLL - UPMC Paris 6 - A Simple FSI Model for Optimal Shape Design

A Fluid-Structure Interaction model is studied based on Koiter’s shell model for the structure, Navier-Stokes equations for the fluid and transpiration for the coupling. It accounts for wall deformation while yet working on a fixed geometry. The model is established first. Then a numerical approximation is proposed and some tests and comparison with other models are given. The model is then used for optimal design of an hemodynamic stent and possible recovery of the arterial wall elastic coefficients by inverse methods. Hemodynamics, a special branch of computational fluid dynamics, poses many problems of modeling, data acquisition, computation and visualization. Numerical simulations software are valuable tools to understand aneurisms, to design stents and heart valves, etc. Large scale simulations on super computers are possible but expensive and not suited or at least awkward in the medical environment so there is room for cheaper methods to couple fluid and structures. At least two classes of FSI problems have been investigated numerically extensively : blood flows (L. Formaggia & A. Quarteroni) and free motions of objects in flows, whether self-propelled or passive and rigid or deformable. A number of algorithms have been proposed, each with different coupling mechanisms. We shall review some of them and recall the mathematical results known for immersed boundaries (C. Peskin), artificial density, fluid as solid, both with Finite Elements (M. Bergman & A. Iollo) or SPH (D. Violeau), Eulerian/Lagrangian formulations (P. Le Tallec & J. Mouro), etc. Algorithms that iterate between the structure and the fluid have usually restricted stability because of the “added mass effect” ; we shall present a method that solves the fluid and solid variables in the same variational formulation by using a semi-linearization called “transpiration condition” (T. Chacon, V. Girault, F. Murat & O. Pironneau). The method is unconditionally stable. It will be illustrated with numerical results for blood flow and comparison with others methods (M. Bukaca, S. Canic, R. Glowinski, J. Tambacac & A. Quainia). Because the code runs on a laptop within minutes it is convenient to solve inverse problems. As the geometry is fixed, an optimal design problem becomes a parameter identification problem for the coefficients of the structure model. We shall show the performance of the method on the design of a stent in the aorta.

7 octobre 2015 - Kazuo Aoki - Kyoto University, Department of Mechanical Engineering and Science - Motion of an array of plates in a rarefied gas caused by radiometric force.

We consider an infinitely long two-dimensional channel containing a rarefied gas. Inside the channel, there is an array of infinitely many two-dimensional plates (with finite width and without thickness) perpendicular to the axis of the channel, and the array can move freely along the channel. If one side of each plate of the array is heated and the other side is not, it is subject to a force because of the temperature difference on its two sides (radiometric force). In consequence, the array starts moving, and finally its motion reaches the steady motion with a constant velocity, where the radiometric force and the drag force acting on each plate counterbalance. We investigate the behavior of the gas in this final steady motion and obtain the speed of the array numerically on the basis of kinetic theory, for a wide range of the Knudsen number. The present problem can be regarded as a simplified model for the moving vanes of the Crookes radiometer. This is a joint work with Satoshi Taguchi (University of Electro-Communications,Chofu,Tokyo, Japan).

28 mai 2015 - Íñigo Arregui - Universidade da Coruña - Sur la simulation numérique d’un problème elastohydrodynamique lié aux dispositifs de lecture magnétique

Le problème qu’on propose consiste a calculer la pression de l’air dans un dispositif de lecture magnetique. Si celui-ci est, en plus, flexible (une bande, par exemple) il faut aussi calculer sa position. Nous utilisons une technique de point fixe pour découpler le problème en deux : le sous-probléme hydrodynamique, géré para l’équation de Reynolds compressible, et le sous-problème élastique, où l’on considère un modèle de Koiter.
Nous proposons des méthodes numériques pour l’approximation de la solution (méthodes de charactéristiques, de dualité, multigrille, éléments finis ou méthodes de Galerkin discontinus), et montrons quelques resultats numériques.

26 Mars 2015 : Laetitia Giraldi - ENSTA ParisTech - Contrôle de micro-robots nageurs

L’auto-propulsion à l’échelle microscopique se heurte à des obstructions qui en diminuent singulièrement son efficacité. Contre intuitive, à cette échelle, les forces de viscosité dominent les effets inertiels engendrant des difficultés qui peuvent être résumées par le fameux théorème dit de ``la coquille Saint Jacques’’ de E. M. Purcell qui établit que pour se déplacer le nageur microscopique doit faire un cycle de déformation non réciproque. Par les retombées que pourrait provoquer le développement de micro-robots nageurs commandés, de nombreux chercheurs tentent de surmonter les difficultés évoquées précédemment dans le but de construire une telle machine. L’exposé, après une explication des divers phénomènes sous-jacents, fera un point sur les avancées mathématiques obtenues sur ce type de problèmes. On montrera en particulier, comment ce domaine se situe à l’intersection de la mécanique des fluides, de la théorie des équation aux dérivées partielles et de la théorie du contrôle.

26 février 2015 : Emmanuel Frénod - Université de Bretagne-Sud - An exponential integrator for the 4D-Vlasov-Poisson system with strong magnetic field

With the aim of solving in a four dimensional phase space a multi-scale Vlasov- Poisson system, we propose in a Particle-In-Cell framework a robust time-stepping method that works uniformly when the small parameter vanishes. As an exponential integrator, the scheme is able to use large time steps with respect to the typical size of the solution’s fast oscillations. In addition, we show numerically that the method has accurate long time behaviour and that it is asymptotic preserving with respect to the limiting Guiding Center system.

12 février 2015 : Sinisa Krajnovic - Chalmers University of Technology - Partially Averaged Navier-Stokes Simulation for Bluff Body Flows of Engineering Interest

Bluff body flows are characterized with regions of separated flow where unsteadiness governs flow dynamics. For prediction of these flows, the traditional Reynolds-Averaged Navier-Stokes (RANS) statistical modelling was found to produce inaccurate results. The key problem of steady RANS model for bluff body flows can be found in its inability to model wide spectrum of turbulent scales. The model capable of resolving large coherent structures such as Large-Eddy Simulation (LES) is better equipped to predict these flows. However, the accurate LES requires resolution of the fine-scale near-wall coherent structures which prevents its usage for most bluff body applications of the engineering interest. The engineering solution to decrease the resolution requirement of LES but to keep its capability to predict large scale flow structures was found in hybrids between the resolving techniques and RANS methods. Several hybrid models such as Detached-Eddy Simulation (DES), Unsteady RANS (URANS) and hybrid RNS/LES have been proposed. These models combine resolution of parts of the coherent structure motion with RANS turbulence modeling. The switch between the two is often done in zonal way such as in DES and hybrid RANS/LES where the near-wall flow is modeled using RANS while the outer flow is resolved with LES.

Partially-Averaged Navier-Stokes (PANS) proposed by Girimaji [1] is another hybrid model where the amount of the resolved and the modeled turbulent scales is controlled with the ratio of the unresolved to total kinetic energy (fk) and the ratio of the unresolved to total dissipation (fε). These parameters are used to modify the RANS model coefficients so that the required resolution of the coherent-structure motion is obtained.

The talk will discuss the PANS model in the framework of engineering application of bluff body flows. Comparisons with resolving LES technique and URANS of several bluff body flows is done for better understanding of the behavior of PANS model in these flows. Several implementation issues of PANS such as fk variable in space and time, influence of the inlet boundary conditions and discretization scheme are explored. The reference comparison with other models such as LES, URANS and DES displays the differences between the methods in complex interaction between the resolved and the modelled coherent flow scales. The predictions that will be considered in the talk are from flows around generic bluff bodies such as finite cylinders, cubes and pyramids to flows around simplified road vehicles, trains to a landing gear of an airplane. A critical review of PANS simulations of bluff body flows will be presented with success stories and failures. The remaining problems and the possible directions in the improvement of the PANS model will be discussed. References [1] Girimaji S., 2006., Partially-Averaged Navier-Stokes model for turbulence : a Reynolds-averaged Navier-Stokes to direct numerical simulation bridging method. Journal of Applied Mechanics 73 (3), 413-421.

15 Janvier 2015 : Double exposé de Rémi ABGRALL - Institut für Mathematik & Computational Science Universität Zürich

An innovative phase transition modeling for reproducing cavitation.

Abstract : This work is devoted to model the phase transition for two-phase flows with a mechanical equilibrium model. First, a five-equation model is obtained by means of an asymptotic development starting from a non-equilibrium model (seven-equation model), by assuming a single-velocity and a single pressure between the two phases, and by using the Discrete Equation Method (DEM) for the model discretization. Then, a splitting method is applied for solving the complete system with heat and mass transfer, i.e., the solution of the model without heat and mass transfer terms is computed and, then, updated by supposing a heat and mass exchange between the two phases. Heat and mass transfer is modeled by applying a thermo-chemical relaxation procedure allowing to deal with metastable states. The interest of the proposed approach is to preserve the positivity of the solution, and to reduce at the same time the computational cost. Moreover, it is very flexible since, as it is shown in this paper, it can be extended easily to six (single velocity) and seven-equation models (non-equilibrium model). Several numerical test-cases are presented, i.e.a shock-tube and an expansion tube problems, by using the five equation model coupled with the cavitation model. This enables us to demonstrate, using the standard cases for assessing algorithms for phase transition, that our method is robust, efficient and accurate, and provides results at a lower CPU cost than existing methods. The influence of heat and mass transfer is assessed and we validate the results by comparison with experimental data and to the existing state-of-art methods for cavitation simulations. Joint work with M.G. Rodion (INRIA)

Linear and non-linear high order accurate residual distribution schemes for the discretization of the steady compressible Navier- Stokes equations,

Abstract : A robust and high order accurate Residual Distribution (RD) scheme for the discretization of the steady Navier-Stokes equations is presented. The proposed method is very flexible : it is formulated for unstructured grids, regardless the shape of the elements and the number of spatial dimensions. A continuous approximation of the solution is adopted and standard Lagrangian shape functions are used to construct the discrete space, as in Finite Element methods. The traditional technique for designing RD schemes is adopted : evaluate, for any element, a total residual, split it into nodal residuals sent to the degrees of freedom of the element, solve the non linear system that has been assembled and then iterate up to convergence. The main issue addressed by the paper is that the technique relies in depth on the continuity of the normal flux across the element boundaries : this is no longer true since the gradient of the state solution appears in the flux, hence continuity is lost when using standard finite element approximations. Naive solution methods lead to very poor accuracy. To cope with the fact that the normal component of the gradient of the numerical solution is discontinuous across the faces of the elements, a continuous approximation of the gradient of the numerical solution is recovered at each degree of freedom of the grid and then interpolated with the same shape functions used for the solution, preserving the optimal accuracy of the method. Linear and non-linear schemes are constructed, and their accuracy is tested with the method of the manufactured solutions. The numerical method is also used for the discretization of smooth and shocked laminar flows in two and three spatial dimensions. Joint work with Dante de Santis (Stanford)


18 décembre 2014 : Chloé Mimeau - Université de Grenoble - Mise en œuvre d’une méthode vortex hybride avec pénalisation dans un milieu solide-fluide-poreux : application au contrôle passif d’écoulement

Dans cet exposé, je présenterai une méthode particulaire de type méthode vortex semi-lagrangienne, couplée à une méthode de pénalisation, permettant de modéliser des interactions fluides structures dans le cadre d’écoulements incompressibles. Ce travail vise à appliquer cette méthode à une étude de contrôle passif d’écoulement utilisant des milieux poreux afin de diminuer la traînée aérodynamique de corps non profilés et plus particulièrement de rétroviseurs extérieurs de véhicules terrestres. Dans un premier temps, j’introduirai les fondements de cette méthode et je soulignerai l’ensemble des caractéristiques qui la rendent adaptée à la résolution du problème considéré. Après avoir décrit l’approche algorithmique et l’approche de développement utilisées dans ce travail, je présenterai les résultats du contrôle passif autour d’un demi-cylindre en 2D et d’une demi-sphère en 3D (pouvant être assimilée à un rétroviseur simplifié), où les différents dispositifs de contrôle présentés seront matérialisés par l’ajout de zones poreuses à la surface de l’obstacle.

18 décembre 2014 : Amélie Danlos - CNAM Paris - Application de la Décomposition Orthogonale en Modes Propres à l’analyse expérimentale d’écoulements turbulents monophasiques et diphasiques

La Décomposition Orthogonale en Modes Propres (POD) est un outil efficace pour la simulation d’écoulement pour établir des modèles réduits. Cet outil mathématique peut également devenir une technique optimale d’analyse d’écoulements turbulents lorsqu’il est appliqué en post-traitement de données obtenues expérimentalement (pour des données 1D, 2D ou 3D). Appliquée à des champs de vitesse obtenus par Vélocimétrie par Images de Particules (PIV), la POD permet d’étudier l’efficacité d’un contrôle passif ou actif d’écoulements turbulents monophasiques. Cette technique de post-traitement a ainsi permis d’étudier le contrôle de jets annulaires (utilisés pour le procédé de fibrage de verre, la ventilation ou encore les soupapes d’admission d’un moteur thermique) et le contrôle de la cavitation d’un écoulement hydraulique autour d’un profil de Venturi (pour viser des applications sur des machines tournantes hydrauliques telles que des hydroliennes par exemple). Au-delà du contrôle d’écoulements, la POD peut aussi devenir un moyen efficace de comparaison de données expérimentales et numériques.

11 juin - Suttida WONGKAEW - University of Wuerzburg and CNAM - Modeling and control through leadership of a refined flocking system.

Abstract : A new refined flocking model that includes self-propelling, friction, attraction and repulsion, and alignment features is presented. This model takes into account various behavioral phenomena observed in biological and social systems. In addition, the presence of a leader is included in the system in order to develop a control strategy for the flocking model to accomplish desired objectives. Specifically, a model predictive control scheme is proposed that requires the solution of a sequence of open-loop optimality systems. An accurate Runge-Kutta scheme to discretize the flocking optimal control optimality systems and a nonlinear conjugate gradient scheme are implemented and discussed. Results of numerical experiments demonstrate the validity of the refined flocking model and the ability of the control strategy to drive the flocking system to attain a desired target configuration and to follow a given trajectory.

16 avril - Pierre SOCHALA - BRGM - Méthodes spectrales pour la propagation d’incertitudes. Application aux écoulements en milieux poreux.

Abstract : Les performances et la précision des modèles numériques progressant, la prise en compte d’aléas, d’incertitudes et du caractère probabiliste des situations réelles devient incontournable lors des simulations. Les sources d’incertitudes rencontrées en modélisation peuvent porter sur le modèle (e.g. EDP) et les données (lois de comportement, terme source, conditions aux limites et initiale). En effet, la formalisation mathématique d’un modèle physique nécessite des hypothèses simplificatrices et l’ensemble des données d’entrée n’est pas toujours spécifiable de façon déterministe. Dans cet exposé, nous considérons les incertitudes liées aux données pour lesquelles une description probabiliste s’avère plus adaptée. Nous étudions la propagation et l’analyse de ces incertitudes par méthode spectrale. Une première partie présente la méthode spectrale utilisant les Polynômes de Chaos. Cette base de fonctions aléatoires permet de réaliser un développement convergent d’une variable aléatoire d’ordre deux selon une série ayant des coefficients déterministes. Les cas unidimensionnel et multidimensionnel seront présentés ainsi que les différentes approches pour obtenir les coefficients de la décomposition. On distingue l’approche intrusive qui nécessite une modification du code de calcul déterministe et les approches non-intrusives qui utilisent le code déterministe de façon "boîte noire". Une seconde partie illustre la méthode des Polynômes de Chaos avec des applications issues des écoulements en milieux poreux. Les quantités d’intérêt seront d’abord des variables scalaires représentatives d’un écoulement aux propriétés hydrodynamiques incertaines. Le champ de pression aléatoire sera ensuite reconstruit à partir d’une décomposition spectrale des lignes de niveau associées à la pression.

Mis à jour le mercredi 16 janvier 2019
, par Olivier Wilk

Documents joints

SPIP | | Plan du site | Suivre la vie du site RSS 2.0