Le Colloquium a lieu le Lundi à 16h00 en salle de conférences du LJAD
Exposés passés
Septembre
Lundi 11 Septembre | Rémi ABGRALL (Universität Zürich, Institut für Mathematik, Zürich, SCHWEIZ) |
Résumé
Nous sommes intéressés par les problèmes soulevés par l'approximation numérique des problèmes hyperboliques, comme ceux qui viennent de la mécanique des fluides. Depuis les travaux de Lax, on connaît la forme faible de ces systèmes, et on sait qu'il faut rajouter des conditions supplémentaires pour sélectionner les solutions "physiques". Depuis le célèbre théorème de Lax et Wendroff (1960), on connaît quelle doit être la forme a priori d'un schéma numérique pour pouvoir, supposant un certain nombre de conditions de stabilité, garantir la convergence vers une solution faible, voire une solution faible entropique. A priori violer ces conditions peut avoir des conséquences catastrophiques. |
Octobre
Lundi 10 Octobre | Tony LELIÈVRE (Ecole des Ponts ParisTech, CERMICS, Marne la Vallée) |
Résumé
La simulation moléculaire consiste à modéliser la matière à l'échelle des atomes. En utilisant ces modèles, on espère obtenir des simulations plus précises et plus prédictives, et ainsi avoir accès à une sorte de microscope numérique, permettant de scruter les phénomènes moléculaires à l'origine des propriétés macroscopiques. Les perspectives applicatives sont innombrables : prédiction des structures des protéines, conception de nouveaux médicaments ou de nouveaux matériaux, simulation de la dynamique des défauts dans un matériau, etc. La simulation moléculaire occupe aujourd'hui une place importante dans de nombreux domaines scientifiques (biologie, chimie, physique) au même titre que les développements théoriques et les expériences. |
Novembre
Lundi 13 Novembre | Damian BROTBEK (Université de Strasbourg, Institut de Recherche Mathématique Avancée, CNRS, Strasbourg) |
Résumé
Le théorème de Liouville en analyse complexe nous assure qu'une fonction entière non constante ne peut pas être bornée. |
Décembre
Lundi 18 Décembre | Yves D'ANGELO (Université Côte d'Azur, Laboratoire J.A. Dieudonné, CNRS, Nice) |
Résumé
On se propose de présenter les difficultés inhérentes à la modélisation et à la simulation de la dynamique de flammes minces en milieux gazeux, i.e. des mélanges multi-espèces, réactifs, en interaction avec un écoulement turbulent. |
Février
Lundi 5 Février | John BECHHOEFER (Simon Fraser University, Department of Physics, Burnaby, CANADA) |
Résumé
Il y a 150 ans, James Clerk Maxwell a posé un défi fondamental à la thermodynamique, sujet qui n’était que récemment développé. Juste deux mois après une lettre qui décrit l’être que l’on connaît actuellement comme le démon de Maxwell, il a écrit un article, “On governors”, qui donne le premier l'analyse d’un système de rétroaction. Ces deux oeuvres-clés reflètent les aspects fondamentaux et pratiques de la théorie du contrôle. |
Lundi 19 Février | Étienne LOZES (Université Côte d'Azur, Laboratoire d'Informatique, Signaux et Systèmes de Sophia Antipolis, CNRS, Nice) |
Résumé
La théorie de la complexité algorithmique a pour but de classer les propriétés des structure finies selon la difficulté intrinsèque qu'elles ont à être vérifiées. Les classes de complexités comme P et NP donnent une borne inférieure sur les ressources nécessaires pour CALCULER si une propriété est satisfaite ou non. |
Mars
Lundi 19 Mars | Andreas HÖRING (Université Côte d'Azur, Laboratoire J.A. Dieudonné, CNRS, Nice) |
Résumé
Une variété complexe lisse est un objet géométrique obtenu en recollant des ouverts de C^n. |
Mai
Lundi 14 Mai | Zbigniew JELONEK (Instytut Matematyczny, Polska Akademia Nauk, Poland) |
Résumé
|
Lundi 28 Mai | Ian AGOL (University of California, Department of Mathematics, Berkeley, USA) |
Résumé
The Heawood conjecture (proved by Ringel & Youngs) gives a sharp lower bound on the number of colors needed to color a (loopless) graph on a compact surface. The genus zero case is the 4 color theorem proved by Appel and Haken. |
Juin
Lundi 25 Juin | Jeffrey A. F. HITTINGER (Lawrence Livermore National Laboratory, Center for Applied Scientific Computing, California, USA) |
Résumé
Decades ago, when computer memory was a scarce resource, computational scientists routinely worked in single precision and were more sophisticated in dealing with the pitfalls finite-precision arithmetic. Today, however, we typically compute and store results in 64-bit double precision by default, even when very few significant digits are meaningful. Many of these bits are representing errors – truncation, iteration, roundoff – instead of useful information about the computed solution. This over-allocation of resources is wasteful of power, bandwidth, storage, and operations; we communicate and compute on many meaningless bits and do not take full advantage of the computer hardware we purchase. |
Archives du séminaire: 2011/2012, 2012/2013, 2013/2014, 2014/2015, 2015/2016, 2016/2017
Organisation: A. Galligo (écrire) et A. Sangam (écrire)