Colloquium du laboratoire Dieudonné

(2017-2018)

Laboratoire Dieudonné-CNRS-UNS UMR 7351

Le Colloquium a lieu le Lundi à 16h00 en salle de conférences du LJAD




VACANCES

Exposés passés


Septembre

Lundi 11 Septembre      Rémi ABGRALL (Universität Zürich, Institut für Mathematik, Zürich, SCHWEIZ)
Quelques commentaires sur les problèmes de conservation pour les problèmes hyperboliques
Résumé

Nous sommes intéressés par les problèmes soulevés par l'approximation numérique des problèmes hyperboliques, comme ceux qui viennent de la mécanique des fluides. Depuis les travaux de Lax, on connaît la forme faible de ces systèmes, et on sait qu'il faut rajouter des conditions supplémentaires pour sélectionner les solutions "physiques". Depuis le célèbre théorème de Lax et Wendroff (1960), on connaît quelle doit être la forme a priori d'un schéma numérique pour pouvoir, supposant un certain nombre de conditions de stabilité, garantir la convergence vers une solution faible, voire une solution faible entropique. A priori violer ces conditions peut avoir des conséquences catastrophiques.

Est-ce la fin de l'histoire ? Doit-on respecter strictement ces principes, sans pouvoir en déroger ?

Le but de cet exposé est de montrer, sur quelques exemples, que ce n'est pas nécessairement le cas. On montrera comment construire un schéma où, sous les même conditions de stabilité que pour Lax-Wendroff, et partant d'une forme non conservative des équations, on peut construire un schéma qui converge vers les 'bonnes' solutions. Je montrerai aussi qu'une grande partie des schémas connus (ou que je connais) sont tous de la même forme. Enfin, si le temps le permet, je montrerai comment construire systématiquement des schémas entropie stable. Toutes ces questions sont des diverses facettes de la même question : quel est le sens de la notion de conservation locale en hyperbolique non linéaire ?



Octobre

Lundi 10 Octobre      Tony LELIÈVRE (Ecole des Ponts ParisTech, CERMICS, Marne la Vallée)
Simulation moléculaire et mathématiques
Résumé

La simulation moléculaire consiste à modéliser la matière à l'échelle des atomes. En utilisant ces modèles, on espère obtenir des simulations plus précises et plus prédictives, et ainsi avoir accès à une sorte de microscope numérique, permettant de scruter les phénomènes moléculaires à l'origine des propriétés macroscopiques. Les perspectives applicatives sont innombrables : prédiction des structures des protéines, conception de nouveaux médicaments ou de nouveaux matériaux, simulation de la dynamique des défauts dans un matériau, etc. La simulation moléculaire occupe aujourd'hui une place importante dans de nombreux domaines scientifiques (biologie, chimie, physique) au même titre que les développements théoriques et les expériences.

Malgré la formidable explosion de la puissance des ordinateurs, il reste difficile de simuler suffisamment d'atomes sur des temps suffisamment longs pour avoir accès à toutes les quantités d'intérêt. Les mathématiques jouent un rôle fondamental à la fois pour dériver rigoureusement des modèles réduits moins coûteux, et pour analyser et améliorer des algorithmes permettant de relever les défis posés par les différences d'échelles en temps et en espace entre le modèle atomique et notre monde macroscopique.

L'objectif de l'exposé sera de présenter les modèles utilisés en dynamique moléculaire ainsi que quelques questions mathématiques soulevées par leur simulation.



Novembre

Lundi 13 Novembre      Damian BROTBEK (Université de Strasbourg, Institut de Recherche Mathématique Avancée, CNRS, Strasbourg)
Sur l'hyperbolicité des hypersurfaces générales
Résumé

Le théorème de Liouville en analyse complexe nous assure qu'une fonction entière non constante ne peut pas être bornée.
Le petit théorème de Picard nous assure même qu'une fonction entière non constante peut omettre au plus une valeur. Cet énoncé peut s'interpréter en terme de la géométrie de la sphère épointée.
L'objectif de cet exposé est d'expliquer quelles sont les questions analogues qui se posent en dimensions supérieures. En particulier, nous verrons en quel sens la géométrie d'une variété complexe X impose, tout du moins de façon conjecturale, des conditions sur les applications holomorphes f : C→X.
Nous donnerons aussi un énoncé dans cette direction, conjecturé par Kobayashi : Les hypersurfaces générales de grand degré d'un espace projectif sont hyperboliques.

Cet exposé large public ne présuppose aucun prérequis mis à part la définition d'une fonction holomorphe.



Décembre

Lundi 18 Décembre      Yves D'ANGELO (Université Côte d'Azur, Laboratoire J.A. Dieudonné, CNRS, Nice)
Dynamiques d’interfaces actives : du micro au macro, l'exemple des flammes
Résumé

On se propose de présenter les difficultés inhérentes à la modélisation et à la simulation de la dynamique de flammes minces en milieux gazeux, i.e. des mélanges multi-espèces, réactifs, en interaction avec un écoulement turbulent.
Après un tour d'horizon sur les différentes équations mises en jeu, j'évoquerai la problématique de la cinétique chimique complexe raide, insisterai sur l'aspect multi-échelles et illustrerai sur des exemples simples les notions de diffusion et dispersion numériques. Du point de vue de la modélisation numérique, je présenterai deux approches classiques: la simulation directe et l'approche RANS (pour Reynolds Averaged Navier-Stokes) et montrerai également quelques exemples de simulations de cas « réels ».
Enfin, je terminerai l'exposé sur l'exemple d'une autre problématique a priori éloignée, mais en fait connexe : la propagation du thalle (i.e. du réseau « racinaire ») de champignons filamenteux.



Février

Lundi 5 Février      John BECHHOEFER (Simon Fraser University, Department of Physics, Burnaby, CANADA)
La thermodynamique de l’information et le contrôle : l’héritage de Maxwell, Szilard, et Landauer
Résumé

Il y a 150 ans, James Clerk Maxwell a posé un défi fondamental à la thermodynamique, sujet qui n’était que récemment développé. Juste deux mois après une lettre qui décrit l’être que l’on connaît actuellement comme le démon de Maxwell, il a écrit un article, “On governors”, qui donne le premier l'analyse d’un système de rétroaction. Ces deux oeuvres-clés reflètent les aspects fondamentaux et pratiques de la théorie du contrôle.

Je présenterai une expérience qui unit les deux : en utilisant la rétroaction pour réaliser une dynamique “impossible”, on crée un démon de Maxwell qui atteint les limites de contrôle fixées par la thermodynamique. Dans un moteur de Szilard, on teste, et puis généralise la prédiction de Rolf Landauer de 1961 que l’effacement de l’information dissipe de la chaleur pour compenser le travail acquis grâce à l’information. Ces limites thermodynamiques fondamentales sont des repères pour évaluer les performances des moteurs d’information pratiques, tels que ceux actifs dans les cellules et d’autres systèmes complexes.



Lundi 19 Février      Étienne LOZES (Université Côte d'Azur, Laboratoire d'Informatique, Signaux et Systèmes de Sophia Antipolis, CNRS, Nice)
Introduction à la complexité descriptive
Résumé

La théorie de la complexité algorithmique a pour but de classer les propriétés des structure finies selon la difficulté intrinsèque qu'elles ont à être vérifiées. Les classes de complexités comme P et NP donnent une borne inférieure sur les ressources nécessaires pour CALCULER si une propriété est satisfaite ou non.

La complexité descriptive est une approche alternative de la théorie de la complexité qui se base sur la logique, et qui vise à définir une classe de complexité par rapport aux ressources nécessaires pour ENONCER une propriété. Elle établit une correspondance entre des limitations sur des ressources de calcul (temps, espace, etc) et des limitations sur des ressources syntaxiques (variables, quantificateurs, etc). Par exemple, un théorème de Ronald Fagin stipule que la classe de complexité NP correspond à la classe des propriétés que l'on peut énoncer dans la logique existentielle du second ordre, autrement dit uniquement à l'aide de variables désignant des noeuds de la structure ou des relations entre ceux-ci.

Le problème le plus connu en complexité descriptive est celui, toujours ouvert malgré de récents progrès, de la caractérisation logique de la classe de complexité P, avec en ligne de mire la fameuse question P =? NP.

Dans cet exposé grand public, je rappellerai les notions nécessaires de calculabilité, de complexité, et de logique, puis j'aborderai quelques résultats emblématiques de la complexité descriptive comme le théorème de Fagin, le théorème d'Immerman-Vardi, le théorème d'Immerman-Szelepcsényi, ou encore le théorème d'Abiteboul-Vianu.



Mars

Lundi 19 Mars      Andreas HÖRING (Université Côte d'Azur, Laboratoire J.A. Dieudonné, CNRS, Nice)
Autour du problème de Kodaira
Résumé

Une variété complexe lisse est un objet géométrique obtenu en recollant des ouverts de C^n.
Une variété projective est un sous-ensemble de l’espace projectif défini par des polynômes, les variétés projectives donnent de nombreux exemples de variétés complexes compactes.
Il est donc intéressant de trouver des conditions suffisantes pour une variété complexe compacte d’être projective. On peut être encore plus ambitieux et essayer de montrer que beaucoup de variétés ont une petite déformation qui est projective (problème de Kodaira). Le but principal de cet exposé sera de discuter le cas "élémentaire" des tores de dimension deux, c’est-à-dire d'un quotient de C^2 par un réseau. Ensuite j’expliquerai le rôle des familles de tores dans le progrès récent sur le problème de Kodaira en dimension trois (travaux de Graf, Lin et Claudon-Höring).



Mai

Lundi 14 Mai      Zbigniew JELONEK (Instytut Matematyczny, Polska Akademia Nauk, Poland)
On the effective Nullstellensatz
Résumé



Lundi 28 Mai      Ian AGOL (University of California, Department of Mathematics, Berkeley, USA)
Coloring maps on surfaces
Résumé

The Heawood conjecture (proved by Ringel & Youngs) gives a sharp lower bound on the number of colors needed to color a (loopless) graph on a compact surface. The genus zero case is the 4 color theorem proved by Appel and Haken.
We will consider the question of whether the surface admits a finite-sheeted cover for which the induced cover of the graph is 4-colorable. We will prove certain special cases of this question, and formulate a conjecture which would imply that this is possible in general.



Juin

Lundi 25 Juin      Jeffrey A. F. HITTINGER (Lawrence Livermore National Laboratory, Center for Applied Scientific Computing, California, USA)
Variable Precision Computing: Making Every Bit Count
Résumé

Decades ago, when computer memory was a scarce resource, computational scientists routinely worked in single precision and were more sophisticated in dealing with the pitfalls finite-precision arithmetic. Today, however, we typically compute and store results in 64-bit double precision by default, even when very few significant digits are meaningful. Many of these bits are representing errors – truncation, iteration, roundoff – instead of useful information about the computed solution. This over-allocation of resources is wasteful of power, bandwidth, storage, and operations; we communicate and compute on many meaningless bits and do not take full advantage of the computer hardware we purchase.

Because of the growing disparity of Floating-Point Operation per second (FLOPs) to memory bandwidth in modern computer systems and the rise of General-Purpose Graphics Processing Unit (GPU) computing – which has better peak performance in single (or lower) precision – there has been renewed interest in mixed precision computing, where tasks are identified that can be accomplished in single precision in conjunction with double precision. Such static optimizations reduce data movement and FLOPs, but their implementations are time consuming and difficult to maintain, particularly across computing platforms. Task-based mixed-precision would be more common if there were tools to simplify development, maintenance, and debugging. But why stop there? We often adapt mesh size, order, and models in simulations to focus the greatest effort only where needed. Why not do the same with precision?

At LLNL, we are developing the methods and tools that will enable the routine use of dynamically adjustable precision at a per-bit level depending on the needs of the task at hand. Just as adaptive mesh resolution frameworks adapt spatial grid resolution to the needs of the underlying solution, our goal is to provide more or less precision as needed locally. Acceptance from the community will require that we address three concerns: that we can ensure accuracy, ensure efficiency, and ensure ease of use in development, debugging, and application. In this talk, I will discuss the benefits and the challenges of variable precision computing, highlighting aspects of our ongoing research in data representations, numerical algorithms, and testing and development tools.




Archives du séminaire: 2011/2012, 2012/2013, 2013/2014, 2014/2015, 2015/2016, 2016/2017

Organisation: A. Galligo (écrire) et A. Sangam (écrire)