Colloquium du laboratoire Dieudonné

(2021-2022)

Laboratoire Dieudonné-CNRS-UNS UMR 7351

Le Colloquium a lieu le Lundi à 12 h en salle de conférences du LJAD




VACANCES

Exposés passés


Février

Lundi 21 Février      Sébastien DARSES (Aix-Marseille Université, Institut de Mathématiques de Marseille, CNRS, Marseille)
Sur des généralisations probabilistes du critère de Nyman-Beurling pour la fonction Zeta
Résumé

Une des reformulations apparemment innocente de la terrifiante hypothèse de Riemann (HR) est le critère de Nyman-Beurling (1950) : l’indicatrice de [0,1] peut être approchée linéairement dans L^2 par des dilatations de la fonction partie fractionnaire.
Considérer ces dilatations comme aléatoires génère de nouvelles structures et de nouveaux critères pour HR. On peut en particulier obtenir des polynômes dans les approximations.
Comment les difficultés sont-elles alors re-localisées ? Beaucoup de nouvelles questions apparaissent.

On présentera brièvement la fonction Zeta et on évoquera son histoire mythique.
L’exposé sera très accessible, notamment pour les doctorants. Aucune connaissance sur Zeta n’est nécessaire pour suivre l’exposé.

Travaux en commun avec François ALOUGES et Erwan HILLION.



Mars

Lundi 21 Mars      Carlos SIMPSON (Université Côte d'Azur, Laboratoire J.A. Dieudonné, CNRS, Nice)
Apprentissage pour les preuves : un cas d'étude dans la classification des structures algébriques
Résumé

Une question de plus en plus actuelle est comment utiliser l'apport de l'informatique pour guider les preuves formelles en mathématiques. Nous allons considérer un cas quelque peu spécial de cette question : les preuves de classification de structures algébriques par une succession de dichotomies (à la manière des Sudoku). Ici on choisit de regarder les structures de semigroupes 4-nilpotents (on expliquera ce que c'est). Pour une étape de la preuve on doit choisir un endroit dans la table de multiplication; et la suite de ces choix a une influence non négligeable sur la longueur de la preuve. Je parlerai des résultats qu'on peut obtenir avec les techniques d'Intelligence Artificielle pour optimiser les choix. Une des questions soulevées est celle de l'échantillonnage: les cas qui posent problème vers le milieu de la preuve ne représentent qu'une fraction infime des cas prévisibles au départ.



Avril

Lundi 4 Avril      Clément DE SEGUINS PAZZIS (Lycée Sainte-Geneviève, Versailles et Université de Versailles-Saint-Quentin-en-Yvelines, Laboratoire de Mathématiques de Versailles, CNRS, Versailles)
Décompositions en objets quadratiques dans les algèbres classiques
Résumé

On considère dans cet exposé des questions de décomposabilité de matrices en somme ou produit de matrices particulièrement simples d'un point de vue spectral. Quelques énoncés classiques sont de ce type :
- la caractérisation des matrices qui sont produits de k matrices de projections (Ballantine) ;
- la caractérisation des matrices qui sont sommes de matrices de projecteurs (sans préciser le nombre de termes) ;
- la caractérisation des matrices qui sont produits de deux matrices de symétrie (Wonenburger, Djokovic) ;
- le fait que toute matrice de déterminant 1 ou -1 soit produit de quatre matrices de symétrie (Gustafson, Halmos, Radjavi).

On passera en revue de nombreuses avancées récentes sur ces questions :
(a) caractérisation complète de la décomposabilité en somme ou produit de deux matrices d'un type quadratique donné ;
(b) les meilleurs résultats de décomposabilité quadratique en dimension infinie ;
(c) et enfin un domaine d'étude à peine défriché : le cas d'endomorphismes d'espaces munis de formes bilinéaires non-dégénérées (symétriques ou alternées).

L'essentiel de l'exposé est accessible avec uniquement des connaissances de L2 en réduction des matrices.



Mai

Lundi 9 Mai      Bruno MARTIN (Université Côte d'Azur, Laboratoire d’Informatique, Signaux et Systèmes de Sophia Antipolis, CNRS, Sophia Antipolis)
De l’universalité à l’aléatoire
Résumé

L'universalité est l'une des notions essentielles en informatique théorique. L’universalité permet de calculer toute fonction calculable (au sens de Church-Turing) dans un modèle de calcul donné. Mais l'universalité permet également de faire le lien entre la théorie et la pratique en fournissant une définition précise sur la manière de réaliser ce calcul. Par exemple, les ordinateurs actuels reposent sur une architecture inspirée des premiers travaux sur l'universalité. Nous présenterons plusieurs simulations capables de réaliser une machine universelle (au sens de Turing), étroitement liée à la pratique.
L'universalité permet également de caractériser l'aléatoire pour des suites (finies) bien que non calculables au moyen de la complexité de Chaitin-Kolmogorov.
Nous terminerons cet exposé par une tentative de générer des suites pseudo-aléatoires raisonnablement bonnes par des automates cellulaires, un modèle de calcul parallèle.



Lundi 23 Mai      Stéphane GAUBERT (Université Paris-Saclay, Centre INRIA de Saclay, Saclay et Institut Polytechnique de Paris, École Polytechnique, Centre de Mathématiques Appliquées, CNRS, Palaiseau)
Convexité tropicale : application à la programmation linéaire et aux jeux à somme nulle
Résumé

Les ensembles convexes tropicaux peuvent être obtenus comme des limites logarithmiques de familles paramétriques d'ensembles convexes classiques, ou si l'on préfère, comme images par la valuation de convexes sur des corps non-archimédiens. Ce procédé permet alors de voir les jeux à somme nulle avec paiement moyen comme des limites de problèmes d'optimisation convexes. Nous présenterons des applications de cette approche à des questions de complexité en optimisation et en théorie des jeux, et en particulier à un problème ouvert en programmation linéaire, en montrant qu'il n'existe aucune méthode de point intérieur qui soit fortement polynomiale. L'exposé fera un tour d'horizon de ces méthodes et résultats, accessible à un public non-spécialisé.

Cet exposé s'appuie sur une succession de travaux, avec M. Akian et A. Guterman puis avec X. Allamigeon, P. Benchimol, M. Joswig, M. Skomra et N. Vandame pour les résultats récents.

Bibliographie
* M. Akian, S. Gaubert and A. Guterman, Tropical polyhedra are equivalent to mean payoff games, International of Algebra and Computation, 22(1):125001, 2012.
* X. Allamigeon, S. Gaubert and M. Skomra, Tropical spectrahedra, Discrete Comput. Geom., 63, 507--548 (2020).
* X. Allamigeon, P. Benchimol, S. Gaubert, and M. Joswig, What Tropical Geometry Tells Us about the Complexity of Linear Programming, SIAM Rev., 63(1), 123--164 (2021).
* X. Allamigeon, S. Gaubert and N. Vandame, No self-concordant barrier interior point method is strongly polynomial, arXiv:2201.02186, 2022, to appear in the Proceedings of STOC 2022: 54th Annual ACM Symposium on Theory of Computing.



Juin

Lundi 13 Juin      Yves BERTOT (Université Côte d’Azur, Centre INRIA de Sophia Antipolis Méditerranée, Sophia Antipolis)
Peut-on utiliser Coq pour enseigner les mathématiques ?
Résumé

L'outil de preuve sur ordinateur Coq a été utilisé pour vérifier la cohérence logique de nombreuses preuves, concernant différents aspects du logiciel et des mathématiques. Nous disposons maintenant d'un corpus étendu de preuves qui couvre une bonne partie des mathématiques enseignées dans les premières années universitaires. Dans cet exposé, je rappellerai par quelques exemples ce que l'on entend par "preuve mathématique vérifiée par ordinateur" et j'aborderai la question : ce type d'outil peut-il aider dans l'apprentissage des mathématiques ?

- Le langage utilisé dans la communication avec l'ordinateur est-il assez proche du langage usuel d'un cours de mathématiques ?

- La rigueur imposée par l'ordinateur est-elle un frein ou accélérateur pour l'apprentissage des mathématiques ?

- Quel niveau d'automatisation est adapté pour un public de Licence scientifique ?

- Coq en particulier se concentre sur la théorie des types. Quels en sont les avantages et les inconvénients ?



Lundi 27 Juin      Francesca RAPETTI (Université Côte d'Azur, Laboratoire J.A. Dieudonné, Nice)
Basics on high order polynomial interpolation of physical fields on simplices
Résumé

Polynomial interpolation is a key aspect in numerical analysis, used in very classical settings as reconstructing a physical field from measures, defining quadrature formulas to compute integrals or expressing the high-order basis functions in finite element methods. We will review the roles of the three main characters featuring in polynomial interpolation, namely, the representation of the domain by a mesh, the polynomial basis, the Vandermonde matrix.

We will present a framework for the interpolation of differential k-forms on simplices that allows to generalize fundamentals concepts featuring in the classical scalar case. The Lebesgue constant pops up naturally to measure the stability of the interpolation and the Runge phenomenon may appear in case of instability.




Archives du séminaire: 2011/2012, 2012/2013, 2013/2014, 2014/2015, 2015/2016, 2016/2017, 2017/2018, 2018/2019, 2019/2020, 2020/2021

Organisation: Indira CHATTERJI (écrire) et Afeintou SANGAM (écrire)