Séminaire de Probabilités et Statistiques

 

 

 

Laboratoire JA Dieudonné, Université de Nice - Sophia Antipolis,

Parc Valrose, 06102 Nice Cedex 2,


ARRET TRAMWAY "Valrose", Plan d’accès
Attention, notre bâtiment n'est pas indiqué dans le parc Valrose, suivre BIOCHIMIE.

____________________________________________________________________________________________________________________________________________________________

 

Les séminaires de l’équipe Probabilités et Statistiques ont lieu les jeudis de 11h à 12h en salle de conférence (RDC du bâtiment Dieudonné, cf plan d’accès), sauf mention spéciale du contraire.

 

Organisateur : Matthieu Lerasle,

E-mail : mlerasle@unice.fr

VACANCES

____________________________________________________________________________________________________________________________________________________________


SEANCES PASSEES :



Février

Jeudi 20 Février

Benjamin Guedj, UPMC

Titre : Régression en grande dimension : un point de vue PAC-bayésien


Résumé

La théorie statistique de l'agrégation a motivé de très nombreux travaux depuis sa formalisation à la fin des années 1990 : parmi ceux-ci, la théorie PAC-bayésienne est aujourd'hui bien établie, et fournit de puissantes stratégies d'estimation en classification et régression. Parallèlement à ces avancées, nous entrons chaque jour un peu plus dans l'ère de ce que l'on nomme le "big data" : les volumes et dimensions des données augmentent avec les progrès constants de l'outil informatique, et leur traitement devient une véritable gageure algorithmique. Les résultats présentés dans cet exposé visent à étendre les techniques PAC-bayésiennes au cas de deux modèles de régression en grande dimension : la régression additive, et la régression logistique. Nous nous attacherons également à décrire la mise en oeuvre de ces techniques par MCMC. Nos résultats théoriques consistent en des inégalités oracles démontrant l'optimalité au sens minimax (à un facteur logarithmique près) de notre approche. Les algorithmes que nous proposons sont implémentés dans le package R pacbpred, dont les performances sur données synthétiques seront commentées.

Référence : http://projecteuclid.org/DPubS?service=UI&version=1.0&verb=Display&handle=euclid.ejs/1359041592


Janvier

Mardi 7 Janvier

Alice Cleynen, AgroParisTech

Titre : Un estimateur par vraisemblance pénalisée pour la segmentation de données RNA-Seq


Résumé

Nous nous intéressons à un modèle de segmentation pour l’analyse de données de comptage provenant d’expériences de séquençage du génome (nombre de reads débutant à chaque position du génome).

Nous proposons un estimateur de log-vraisemblance pénalisée pour le choix du nombre de segments dans un contexte non-asymptotique, inspiré des travaux de L. Birgé et P. Massart. Nous illustrons les performances de cet estimateur sur des données simulées et de RNA-Seq.

Nous proposons enfin des perspectives de généralisation à l'ensemble des distributions de la famille exponentielle. La forme de la pénalité est conservée sous des hypothèses qu'il reste à raffiner.


Jeudi 16 Janvier

Laurent MERTZ, Dieudonné

Titre : Stochastic variational inequalities and their applications in engineering mechanics


Résumé

Stochastic variational inequalities (SVI) are useful to model nonlinear phenomena
with memory such as permanent (also called plastic) deformations of a certain type
a mechanical structure under random forcing. A major advantage of SVIs is to allow
us to work in a markovian framework for problems originally formulated with
memory. In this presentation, I will show two cycle properties of a SVI arising in
random mechanics and a relevant engineering application to the risk analysis of
failure of a simple mechanical structure.


Jeudi 23 Janvier

Patricia Reynaud-Bouret, Dieudonné

Titre : Estimation of local independence graphs via Hawkes processes to unravel functional neuronal connectivity


Résumé

We will present an adaptation of the Least Absolute Shrinkage and Selection Operator “LASSO” method to the analysis of correlation dynamics of small neuronal populations.
Indeed, due to its low computational cost, Lasso is an attractive regularization method for high
dimensional statistical settings. Within our framework, we consider multivariate counting
processes depending on an unknown function parameter to be estimated by linear combinations
of a fixed dictionary. To select coefficients, we propose an adaptive \(\ell_1\)
penalty, where data-driven weights are derived from new Bernstein type
inequalities for martingales. Oracle inequalities are established under assumptions on the Gram
matrix of the dictionary. This method is then applied to Hawkes processes as model for spike train
analysis. The estimation allows us to recover the functional underlying connectivity as the local
dependence graph that has been estimated. Simulations and real data analysis show the
excellent performances of our method in practice.


Exceptionnellement à 14h00

Mardi 27 Janvier

Marjolaine Puel, JAD

Titre : TBA



Exceptionnellement à 14h00

Mardi 27 Janvier

Marjolaine Puel, JAD

Titre : TBA



Février

Jeudi 6 Février

Charles-Elie Rabier, Université Wisconsin-Madison

Titre : Processus Gaussiens et de Chi Deux pour la detection de gènes


Résumé

On s'intéresse aux processus Gaussiens résultant de la recherche de gènes (QTL) sur un chromosome.
On établira les propriétés asymptotiques du test de rapport de vraisemblance dans le cadre d'un génotypage sélectif.
On s'attardera en particulier sur deux modélisations de la recombinaison :
le modèle Poissonien de Haldane, et un modèle d'interférence.


Jeudi 13 Février

Lorenzo Rosasco, University of Genova

Titre : Regularization and Computations: Early stopping in Online Learning


Résumé

Early stopping is one of the most appealing heuristics when dealing with large data-sets, since the computational resources required for learning are directly linked to the desired generalization properties. Interestingly, the theoretical foundations of learning with early stopping have only recently been developed and only for the case of the classical batch gradient descent.

In this talk, we discuss and analyze the potential impact of early stopping for online learning algorithms in a stochastic setting. More precisely, we study the estimator defined by the incremental gradient descent of the (unregularized) empirical risk and show that it’s universally consistent when provided with a universal step-size, and a suitable early stopping rule. Our results shed light on the need of considering several passes over the data (epochs) in online learning.


Jeudi 20 Février

Benjamin Guedj, UPMC

Titre : Agrégation d'estimateurs et de classificateurs : théorie et méthodes


Résumé

Cet exposé compile un certain nombre de résultats issus de mes travaux de doctorat, qui ont essentiellement porté sur deux stratégies d'agrégation d'estimateurs, tant d'un point de vue théorique qu'algorithmique. Dans un premier temps, je présenterai une extension des méthodes issues de la théorie PAC-bayésienne, dans un contexte de régression en grande dimension. Nos résultats théoriques consistent en des inégalités oracles démontrant l'optimalité au sens minimax (à un facteur logarithmique près) de notre approche, basée sur l'utilisation de la distribution a posteriori de Gibbs. Les algorithmes de mise en œuvre que nous proposons sont implémentés dans le package R pacbpred, dont les performances sur données synthétiques seront commentées.
Dans un second temps, j'exposerai les motivations qui sont à l'origine de l'introduction d'une méthode originale d'agrégation non linéaire d'estimateurs dans un contexte de régression. À la métrique usuelle induite par le design, nous proposons de substituer une métrique particulière, suggérée par des estimateurs préliminaires de la fonction de régression. Nous montrons en particulier que l'estimateur résultant est asymptotiquement aussi efficace que le meilleur des estimateurs initiaux. Nous obtenons également une inégalité oracle exacte en espérance, avec une vitesse de convergence explicite. Notre méthode est disponible sur le CRAN sous la forme du package R COBRA, dont les performances brutes et la vélocité sur données simulées seront commentées.
Références : http://projecteuclid.org/DPubS?service=UI&version=1.0&verb=Display&handle=euclid.ejs/1359041592 et http://cran.r-project.org/web/packages/pacbpred/index.html pour l'agrégation PAC-bayésienne ; http://arxiv.org/abs/1303.2236 et http://cran.r-project.org/web/packages/COBRA/index.html pour l'agrégation non linéaire.


Jeudi 27 Février

Bruno Rémillard , HEC Montreal

Titre : Tests d’hypothèses pour la copule de modèles dynamiques


Résumé

On étudie le comportement asymptotique de la copula
empirique construite à partir des résidus de modèles à volatilité
stochastique. On montre que si la matrice de volatilité est
diagonale, alors le processus de copule empirique a le même
comportement que si les paramètres étaient connus ce qui est
remarquable. Cependant, ce n’est pas vrai dans le cas général. On
présente des applications pour la détection de changements
structuraux et pour des tests d’adéquations pour la copule des
innovations de modèles dynamiques.


Mars

Jeudi 6 Mars

Rodrigo Cofre, INRIA Nice-Sophia Antipolis

Titre : Exact computation of the Maximum Entropy Potential from spiking neuronal networks models


Résumé

Neural populations encode information about stimuli and underlying
synaptic architecture collectively through series of binary
spatio-temporal patterns of action potentials, or "spike trains".
Understanding how the stimuli and synaptic connectivity influence the
statistics of these these spike patterns is a central question in
computational neuroscience. Maximum Entropy approach have been
successfully used to characterize the statistical response of
simultaneously recorded spiking neurons. Despite these models could
achieve good performance in terms of prediction, the fitting
parameters do not explain the underlying causes of the observed
correlations. On the other hand mathematical models of spiking neurons
do provide a probabilistic mapping between stimulus, network
architecture and spike patterns in terms of conditional probabilities,
although in a highly redundant way. In this presentation i will
propose an innovative approach to establish a deterministic and
exact mapping between Maximum Entropy parameters and structural
parameters (synaptic weights and external stimulus) defining a
statistically equivalent spiking neural network model.


Jeudi 13 Mars

J-F Coeurjolly, (Figal, LJK)

Titre : Approche variationnelle pour l'estimation de l'intensité d'un processus spatial


Résumé

Dans cet exposé, je revisite le problème de l'estimation paramétrique de la fonction intensité d'un processus ponctuel spatial général dans \(\mathbb{R}^d\). En particulier, dans le cadre du modèle log-linéaire de la fonction intensité \(\rho(u) = \exp (\beta+ \theta^\top z(u))\) (\(\beta>0\) est considéré comme un paramètre de nuisance, \(\theta\in \mathbb{R}^p\) comme le paramètre d'intérêt et \(z_i\) pour \(i=1,...,p\) comme des covariables spatiales), je présenterai une nouvelle méthode basée sur une approche variationnelle alternative à la méthode standard de la maximisation de la "vraisemblance poissonienne". L'intérêt principal de cette méthode est qu'elle permet d'estimer le paramètre \(\theta\) sans optimisation. L'estimation est directe et extrêmement rapide en temps et coûts de calculs (même en grande dimension). Je montrerai quelques résultats asymptotiques quant à cet estimateur lorsque la fenêtre d'observation croît vers \(\mathbb{R}^d\) et quelques simulations. En particulier, je montrerai que si les covariables \(z_i\) ne sont observées que dans un voisinage des points du processus ponctuel, notre approche est bien meilleure que les approches standard. Ces développements sont issus d'un travail en collaboration avec Jesper Møller (Aalborg University).


Jeudi 20 Mars

Christophe Poquet,

Titre : Transitions de phases induites par le bruit dans le modèle des Active Rotators


Résumé

Les systèmes excitables sont très répandus dans les sciences du vivant
(en particulier en neurosciences).
Ce sont des systèmes caractérisés par un effet de seuil :
une petite perturbation n'entraîne qu'une réponse de faible
amplitude du système, qui retourne alors très vite à son état
d'équilibre. Cependant si l'amplitude de la perturbation qu'il subit
dépasse un certain seuil, le système passe d'abord par son état
d'excitation avant de revenir à l'état de repos, et ce retour se
produit à travers une trajectoire complexe et non linéaire.
Lorsque des systèmes excitables bruités sont mis en interaction,
différents phénomènes peuvent se produire, suivant les paramètres
d'interaction et de bruit. On peut en particulier voir apparaître un
mouvement périodique pour le système global, alors que ce phénomène
n'est pas présent pour les systèmes isolés.
Je présenterai un exemple simple de systèmes excitables en
interaction, le modèle des Active Rotators. Il s'agit d'un système
d'oscillateurs uni-dimensionnels, soumis à un potentiel, bruités, et
en interaction de type champ moyen. Nous verrons que l'on peut prouver
pour ce modèle l'apparition d'un mouvement périodique dans la limite
d'un nombre infini d'oscillateurs par une méthode de perturbation, et
ce même si la dynamique des systèmes isolés n'est pas périodique


Jeudi 27 Mars

Nelo Molter Magalhães,

Titre : Vers une nouvelle validation croisée V-fold


Résumé

La validation croisée "V-fold" est une procédure bien connue de sélection de méthodes d'estimation dans laquelle les données sont partagées en V sous-échantillons pour être utilisées tantôt comme données d'apprentissage pour construire des estimateurs, tantôt comme données de test dans une étape de validation --fondée le plus souvent sur la minimisation d'un critère de coût empirique.

Dans l'esprit de la procédure de hold-out proposée dans Birgé (2006), nous étudions l'effet produit par l'emploi d'une procédure de test robuste en lieu et place de la minimisation d'un critère de coût empirique dans l'étape de validation. Le cadre étudié est celui de l'estimation de densité sur la base d'observation indépendantes et de même loi.

Nous étudierons cette nouvelle procédure d'un point de vue théorique et pratique. Nous montrerons qu'une majoration du risque est accessible dès lors que les méthodes statistiques produisent des estimateurs linéaires. Pour finir nous analyserons empiriquement l'influence du nombre V de découpages sur la qualité de la procédure, et comparerons sur des simulations les performances de ce V-fold avec les V-fold ``classiques'', ainsi que d'autres méthodes de sélection.


Avril

Jeudi 3 Avril

Thierry Bodineau, ENS

Titre : Diffusion d'une particule marquée dans un gaz dilué de sphères dures


Résumé

On étudie le mouvement d’une particule marquée dans un gaz dilué de sphères dures à l’équilibre. Après changement d’échelle de l’espace et du temps, on montre que cette particule suit un mouvement brownien.


Jeudi 10 Avril

Jean-Baptiste Aubin,

Titre : Des indices de centralité en analyse multivariée


Résumé

La question de trouver un indice de centralité unique pour des données multivariées a fait long feu. De nombreuses généralisations existent aux indices de centralité pour des données dans R tels que la moyenne ou la médiane (pour ne citer que les plus connus). Une possibilité intéressante est d'utiliser les "depth functions" (ou fonctions de profondeur) qui ont justement pour vocation d'ordonner les données de la "plus centrale" à la "moins centrale". Nous verrons comment utiliser ces fonctions de profondeur dans le cadre d'une approche itérative. Cette méthode sera appliquée à des cas concrets comme le système de vote.


Mercredi 23 Avril

Thibaut Le Gouic, Ecole centrale de Marseille

Titre : Distance de Wasserstein entre la mesure empirique et théorique


Résumé

Nous nous intéressons à la distance de Wasserstein entre une probabilité mu et la mesure empirique associée. Nous obtenons une majoration non asymptotique de l'espérance de cette distance, dans le cadre d'un espace métrique quelconque. Une particularisation aux espaces de dimension finie permet de mettre en valeur la précision de cette majoration. Nous obtenons aussi dans le cas des mesures gaussiennes sur les espaces de Banach, de nouvelles majorations qui coïncident asymptotiquement avec celles des meilleurs quantifieurs possibles. À l’aide d'inégalités de concentration, nous établissons des bornes de déviations. Enfin, nous utilisons ces résultats pour définir des tests statistiques non asymptotiques et non paramétriques d’adéquation à une famille de lois.


Mai

Mercredi 14 Mai

Colloques Graphes Aléatoires 14 et 15 mai 2014,

Titre : Colloque Graphes Aléatoires


Résumé

L’objet de ce colloque est de réunir une quinzaine de spécialistes mondiaux de mathématiques, d'informatique et de physique qui travaillent sur les graphes aléatoires et leurs applications.


Jeudi 22 Mai

Marielle Simon, UMPA ENS Lyon

Titre : Problèmes de diffusion pour des chaînes d’oscillateurs harmoniques perturbées


Résumé

L'équation de la chaleur est connue pour être un phénomène macroscopique, émergeant après une remise à l'échelle diffusive, en espace et en temps. On aimerait comprendre les phénomènes de transport sous-jacents, impliqués au niveau microscopique. Pour apporter de l'ergodicité au système, on ajoute à la dynamique déterministe une perturbation stochastique qui conserve l'énergie. On introduira tout d'abord un système Hamiltonien d'oscillateurs couplés, dont la dynamique est perturbée par un bruit stochastique dégénéré. Ce dernier transforme aléatoirement les vitesses des oscillateurs en leurs opposés, grâce à des processus Poissoniens. On montre alors que l'évolution macroscopique de ce système est caractérisée par un système parabolique non-linéaire couplé pour les deux lois de conservation du modèle. Puis, on supposera que les oscillateurs évoluent dans un environnement aléatoire. La perturbation stochastique est très dégénérée, et pour cette raison on étudie le système à travers un comportement macroscopique différent : plus précisément, on prouve que les fluctuations de l'énergie à l'équilibre évoluent selon une équation de la chaleur linéaire.


Juin

Vendredi 6 Juin

Claude Martini, ZELIADE

Titre : Zanadu, un cloud collaboratif pour la recherche reproductible


Résumé

Les technologies Web et Cloud révolutionnent les modes opératoires de la recherche académique.
Le développement récent à Berkeley des *IPython notebooks* permet d'élaborer des articles exécutables, mélangeant du texte
avec un markup LaTeX, et des portions de code qui s'exécute dans le browser web de l'utilisateur. La plateforme Zanadu, développée
par Zeliade Systems en liaison avec le laboratoire GREGOR de l'Université Paris 1 Panthéon-Sorbonne (P. Hénaff), ajoute aux IPython notebooks
une logique d'organisation, de review et de dissémination qui rend la *recherche reproductible* effective.
Zanadu est utilisée également pour l'enseignement appliqué en Master, et fournit une base de technologie et de connaissance
directement accessible via internet aux élèves et aux enseignants. Zanadu est utilisée par des laboratoires prestigieux en
probabilités, économie et mathématiques financières. Zanadu est lauréat du 1er grant "Windows Azure for Research".


Jeudi 12 Juin

Yoann Offret, Université De Bourgogne

Titre : Marches aléatoires persistantes


Résumé

J'introduirai une classe de processus unidimensionnels dont la mémoire est variable avec le temps. Je présenterai ensuite quelques résultats de renormalisations obtenus par Cénac et al. (2012) puis je montrerai des critères de récurrence et de transience. Je finirai par donner quelques limites d'échelle de ces processus sous des conditions de stabilité.


Vendredi 13 Juin

Sylvain Maire, Toulon

Titre : Quasi-Monte Carlo quadratures for multivariate smooth functions



Exceptionnellement à 14h00

Mercredi 18 Juin

Ghislain Durif, Université Claude Bernard Lyon 1

Titre : Sparse PLS dans le cadre des modèles linéaires généralisés


Résumé

La régression Partial Least Squares parcimonieuse (ou sparse PLS) permet de résoudre des problèmes de régression linéaire (d'une réponse Y sur p prédicteurs X_1,...,X_p). Celle-ci combine les avantages de la sélection de variables (simplification du modèle) et de la compression (réduction de la dimension de l'espace des observations), en associant le principe du Lasso à la régression PLS classique. Les résultats en terme d'erreur de prédiction sont très intéressants, surtout en grande dimension quand le nombre de prédicteurs devient très supérieur au nombre d'observations disponibles.

On peut alors se poser la question de l'utilisation de ce même principe pour une réponse non plus gaussienne mais discrète ou qualitative, et notamment pour des problèmes de classifications supervisée. L'exposé portera sur l'utilisation de la compression et de la sélection de variables via la PLS parcimoniseuse dans le cadre du modèle linéaire généralisé. L'idée étant de proposer une méthode qui réponde au problème de classification supervisée dans le cadre pathologique de la grande dimension. En effet, de tels problèmes se posent de plus en plus actuellement dans les applications, en particulier en génomique. La question centrale sera de déterminer où placer la compression et la sélection de variables dans un schéma de résolution du modèle linéaire généralisé, qui fasse sens statistiquement (pour l’interprétation) et numériquement (d'un point de vue de l'optimisation). La méthode proposée ainsi que ses performances seront illustrées par des tests sur des données simulées et comparées avec les résultats données par d'autres approches.


Jeudi 26 Juin

Lorenzo Zambotti, UPMC

Titre : L'équation de KPZ généralisée


Résumé

Nous discutons comment la théorie des structures de régularité permet, avec l'ajoute d'une approche récursive, de traiter des équations comme KPZ généralisé, où un grand nombre de termes doivent être renormalisés.


Septembre

Jeudi 4 Septembre

Ghislain Durif, Université Claude Bernard (Lyon)

Titre : Sparse PLS dans le cadre des modèles linéaires généralisés


Résumé

La régression Partial Least Squares parcimonieuse (ou sparse PLS) permet de résoudre des problèmes de régression linéaire (d'une réponse Y sur p prédicteurs X_1,...,X_p). Celle-ci combine les avantages de la sélection de variables (simplification du modèle) et de la compression (réduction de la dimension de l'espace des observations), en associant le principe du Lasso à la régression PLS classique. Les résultats en terme d'erreur de prédiction sont très intéressants, surtout en grande dimension quand le nombre de prédicteurs devient très supérieur au nombre d'observations disponibles.

On peut alors se poser la question de l'utilisation de ce même principe pour une réponse non plus gaussienne mais discrète ou qualitative, et notamment pour des problèmes de classifications supervisée. L'exposé portera sur l'utilisation de la compression et de la sélection de variables via la PLS parcimoniseuse dans le cadre du modèle linéaire généralisé. L'idée étant de proposer une méthode qui réponde au problème de classification supervisée dans le cadre pathologique de la grande dimension. En effet, de tels problèmes se posent de plus en plus actuellement dans les applications, en particulier en génomique. La question centrale sera de déterminer où placer la compression et la sélection de variables dans un schéma de résolution du modèle linéaire généralisé, qui fasse sens statistiquement (pour l’interprétation) et numériquement (d'un point de vue de l'optimisation). La méthode proposée ainsi que ses performances seront illustrées par des tests sur des données simulées et comparées avec les résultats données par d'autres approches.


Jeudi 25 Septembre

Benjamin Ribba, INRIA Grenoble

Titre : TBA



Octobre

Jeudi 2 Octobre

Yannick Baraud, LJAD

Titre : Concentration des processus empiriques et vitesses sur-minimax.


Résumé

Etant donnée une classe de densités F sur laquelle
l'estimateur du maximum de vraisemblance existe, nous ferons le lien entre
des vitesses sur-minimax de l'estimateur vers certaines
densités spécifiques de F et une nouvelle borne sur l'espérance des
suprema de processus empiriques.


Jeudi 9 Octobre

Roland Diel, LJAD

Titre : EDS avec bruit irrégulier et inhomogène en temps.


Résumé

Je vais présenter un travail en collaboration avec François Delarue. Il s'agit de l'étude de la solvabilité d'une EDS dont le drift est une distribution dépendante du temps. Je montrerai l'existence faible et l'unicité en loi, puis je m'intéresserai à des propriétés locales notamment la régularité de la solution. Ce travail utilise des arguments développés par Martin Hairer dans son article "Solving the KPZ equation".


Jeudi 16 Octobre

Vincent Vargas, ENS

Titre : Some new estimates on the Liouville heat kernel


Résumé

Liouville quantum gravity (LQG) is a conformal field theory conjectured to
be the scaling limit of large random planar maps properly embedded in the
sphere. For instance, the area measure of planar maps is expected to
converge to the natural area measure associated to LQG, the so-called
Liouville measure (formally) defined by the exponential of the Gaussian
Free Field. Liouville Brownian motion (LBM) is the natural diffusion
process
associated to the Liouville measure. In this talk, I will consider the
Liouville heat kernel, defined as the density of the LBM with respect to
the Liouville measure. More precisely, I will present regularity estimates
and non trivial off-diagonal bounds for the Liouville heat kernel. Based
on joint work with P. Maillard, R. Rhodes and O. Zeitouni.


Vendredi 24 Octobre

Christophe Pousat, MAP5

Titre : TBA



Novembre

Jeudi 6 Novembre

Madison Giacofci,

Titre : Estimation et sélection de variables dans les modèles mixtes fonctionnels


Résumé

De nos jours, un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels.
Au cours de cet exposé, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection pour les effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent.
Une étude de simulation visant à appréhender les comportements des deux approches développées ainsi qu'une application à des données réelles seront discutées.


Jeudi 13 Novembre

Raghid Zeineddine, LJAD

Titre : TBA



Jeudi 20 Novembre

Michel Bauer, CEA Saclay

Titre : Trajectoires et saut quantiques, probabilités classiques


Résumé

En 1913, Niels Bohr écrivait un article révolutionnaire "On the Constitution of Atoms and Molecules" où il mentionnait déjà les sauts quantiques. Il fut ensuite le représentant phare de l'interprétation de Copenhague. Près d'un siècle plus tard, grâce aux progrès majeurs dans la maîtrise de l'électronique rapide et des basses températures, la manipulation fine des système quantiques simples, et l'observation des trajectoires et des sauts quantiques, sont devenus quotidiennes. Ces expériences nous apprennent des choses importantes sur la mesure ne mécanique quantique, mais aussi sur les enjeux pratiques liés à la conception d'ordinateurs quantiques par exemple.

Après un survol historique rapide et ciblé, je décrirai quelques exemples d'expériences récentes dédiées aux systèmes quantiques simples, et à leur interprétation mathématique qui fait intervenir de beaux résultats probabilistes.


Jeudi 27 Novembre

Mathilde Mougeot, Paris Diderot

Titre : Régression en grande dimension, de la modélisation à la prévision de signaux de consommation électrique


Résumé

La procédure LOL (Learning Out Of Leaders) permet de résoudre des problèmes de régression
en grande dimension, sans phase d’optimisation.
Cette procédure, extrêmement simple, est composée de deux seuillages successifs.
Le premier seuillage induit une réduction de dimension en sélectionnant les covariables
potentiellement intéressantes pour le modèle de régression.
Le deuxième seuillage sélectionne les coefficients du modèle à retenir.
Sous des conditions de sparsité et de cohérence, cette procédure est consistante et
les vitesses de convergence peuvent être calculées.
Une heuristique de calibration des seuils théoriques est conjointement proposée
pour permettre l'utilisation pratique de la procédure.
Dans le cadre d’une collaboration entre le LPMA et RTE, nous montrons qu’il est possible
d’appliquer cette procédure à la modélisation sparse des signaux de consommation électrique.
L’ajustement des signaux avec un petits nombres de coefficients offrent des propriétés
intéressantes pour la prévision.

Références:
M. Mougeot, D. Picard, and K. Tribouley. Learning out of leaders.
J. R. Stat. Soc. Ser. B Stat. Methodol., 74 :1{39, 2012.

M. Mougeot, D. Picard, and K. Tribouley.
Sparse approximation and fit of intraday load curves in a high dimensional framework.
Advances in Adaptive Data Analysis, 5,4 :1-23, 2013.

M. Mougeot, D Picard, and K. Tribouley. Lol selection in high dimension.
Computational Statistics & Data Analysis, pages 743{757, 2014.

M. Mougeot, D. Picard, V Le eux, and L Maillard-Teyssier. Forecasting intra day load
curves using sparse functional regression.
Modeling and Stochatic Learning for Forecasting in High Dimension, (in press).


Décembre

Jeudi 4 Décembre

Kleber Carrapatoso, ENS Cachan

Titre : Chaos et entropie dans le modèle de Kac-Boltzmann


Résumé

Dans les années 50, Kac a introduit un système de particules stochastiques pour lequel on s’attend à obtenir l’équation de Boltzmann homogène en espace dans la limite où le nombre de particules \(N\) tend vers l’infini. Pour cela il a formalisé la notion de chaos et propagation du chaos pour la probabilité jointe des \(N\) particules. J’exposerai des résultats concernant le chaos (et aussi une notion plus forte en utilisant l'entropie) pour des probabilités sur la « sphère de Boltzmann », qui correspond à l’espace de phase d’un système de \(N\) particules qui conserve la quantité de mouvement et l’énergie.


Jeudi 11 Décembre

Nathalie Krell, Rennes 1

Titre : Estimation statistique pour des taux de sauts: pour une classe de Pdmp/ tailles de bactéries.


Résumé

Je m'intéresserai à l'estimation du taux de sauts dans deux cadres qui ont l'air à priori assez différents en montrant les analogies et les différences. Tout d'abord je parlerai d'un travail fait en collaboration avec Marie Doumic, Marc Hoffmann et Lydia Robert, pour lequel on s'intéresse à l'évolution structurée en taille pour un modèle de bactéries Escherichia coli. La taille du système évolue selon une équation de transport fragmentation: chaque individu croit avec un certain taux de transport et se divise en deux bactéries filles, selon un processus de fragmentation binaire dont le taux de division dépend de la taille de la bactérie et est inconnu. Macroscopiquement le système est bien approché par une EPD et la résolution statistiques se fait grâce à un problème inverse. Dans ce travail on s'est intéressé au point de vue microscopique qui permet d'introduire plus de dépendance et qui correspond à la réalité des observations. Pour cela on a introduit un PDMP (processus déterministe par morceaux) qui modélise la taille d'une bactérie "marquée". Ce travail sera illustré par des résultats sur des données réelles: de bactéries Escherichia coli. Afin de résoudre ce problème, on a été amené à étudier un PDMP à priori assez spécifique afin d'en déduire un résultat sur des données assez complexes, structurées en arbre aléatoire et qui considérées seules ne sont pas markovienne.

Dans un deuxième temps on verra comme on peut généraliser l'étude du PDMP particulier précédent afin d'estimer le taux de sauts pour des PDMPs dont la taille va se diviser de manière déterministe au temps de sauts mais qui sinon sont assez généraux. Ces résultats seront illustrés par l'exemple du processus TCP.


Jeudi 18 Décembre

Joy Carpio, Dieudonné

Titre : TBA


Résumé

Long-range dependence in discrete and continuous time Markov
chains over a countable state space is defined via embedded
renewal processes brought about by visits to a fixed state. In the
discrete time chain, solidarity properties are obtained and
long-range dependence of functionals are examined. On the other
hand, the study of LRD of continuous time chains is defined via
the number of visits in a given time interval. Long-range
dependence of Markov chains over a non-countable state space is
also carried out through positive Harris chains. Embedded renewal
processes in these chains exist via visits to sets of states
called proper atoms.

Examples of these chains are presented, with particular attention
given to long-range dependent Markov chains in single-server
queues, namely, the waiting times of GI/G/1 queues and queue
lengths at departure epochs in M/G/1 queues. The presence of
long-range dependence in these processes is dependent on the
moment index of the lifetime distribution of the service times.
The Hurst indexes are obtained under certain conditions on the
distribution function of the service times and the structure of
the correlations. These processes of waiting times and queue sizes
are also examined in a range of M/P/2 queues via simulation (here,
\(P\) denotes a Pareto distribution).


Janvier

Jeudi 8 Janvier

Sylvain Arlot, CNRS ENS

Titre : Analyse du biais de forêts purement aléatoires


Résumé

Les forêts aléatoires (random forests, Breiman, 2001) sont très couramment utilisées en statistique, avec de très bonnes performances pratiques, mais leur analyse théorique complète reste un problème ouvert.
Des modèles simplifiés comme les forêts purement aléatoires ont alors été introduits, afin de faire un premier pas vers la compréhension théorique des forêts aléatoires de Breiman. On dispose alors d'une décomposition du risque comme la somme de deux termes, que l'on peut interpréter comme une erreur d'approximation (du signal par le "modèle" défini par la forêt) et une erreur d'estimation (des paramètres de ce "modèle"). Robin Genuer (2010) a étudié la diminution de l'erreur d'estimation lorsque la taille de la forêt augmente.
Dans cet exposé, nous nous focalisons sur l'erreur d'approximation, et son évolution en fonction de la taille de la forêt. Sous des hypothèses de régularité sur la fonction de régression, nous verrons que l'erreur d'approximation peut être significativement plus petite avec une forêt infinie qu'avec un arbre seul, ce qui se traduit par une vitesse d'apprentissage plus rapide. Par exemple, dans un cas simple avec des données unidimensionnelles, lorsque la fonction de régression est C^2, le risque de l'estimateur obtenu avec une forêt infinie atteint le taux minimax n^(-4/5) alors que le risque de l'estimateur obtenu avec un arbre seul n'atteint que le
taux n^(-2/3).

Cet exposé se fonde sur un travail en collaboration avec Robin Genuer.
http://arxiv.org/abs/1407.3939


Jeudi 15 Janvier

Guillaume LECUE, Polytechnique

Titre : Reconstruction parcimonieuse sous hypothèses faible de moments et de « petites boules ».


Résumé

Nous introduisons l’hypothèse de « petite boule » dans le contexte du Compressed Sensing. Nous montrons que cette condition avec une hypothèse de moments faible (mais nécessaire) est suffisante pour reconstruire les signaux parcimonieux par Basis Pursuit. Nous montrons que ce résultat ne peut pas être obtenu via la condition RIP et introduisons donc une nouvelle condition de reconstruction exacte pour obtenir ce résultat. Finalement, nous obtenons des résultats similaires pour les conditions CC et REC pour l’étude du LASSO, ainsi que sur des propriétés de polytopes aléatoires.


Jeudi 22 Janvier

Rémi Catellier, CEREMADE

Titre : Moyennisation le long de courbes irrégulières et régularisation d'équations différentielles ordinaires


Résumé

Nous cherchons à étudier l’équation différentielle dxt = b(t, x(t))dt + dwt lorsque w est une fonction continue et b un champs de vecteur irrégulier. Dans ce cadre, nous souhaitons quantifier les propriétés de régularisation de perturbations w arbitraires sur l’existence et unicité de solutions de cette équation.
Pour cela nous introduisons la notion de (ρ,γ)-irregularité et montrons qu'elle joue un rôle fondamentale dans des phénomènes de régularisation par le bruit.
Lorsque w est distribué suivant la loi du mouvement brownien fractionnaire de paramètre de Hurst H ∈ (0, 1), nous montrons que presque sûrement l’équation différentielle admet une unique solution lorsque b est dans l’espace de Besov-Hölder B^(α+1)_{∞,∞} , avec α > −1/2H. Il est intéressant de noter que lorsque 1 + α < 0, bien que le champs de vecteurs b soit une distribution, nous fournissons un cadre naturel pour des solutions dans ce cas.


Exceptionnellement à 14h00 en salle II

Mardi 27 Janvier

Marjolaine Puel, JAD

Titre : Diffusion anormale pour l'equation de Fokker Planck


Résumé

Dans cet exposé, on s'intéresse au procédé d'approximation diffusion pour l'équation de Fokker Planck centrée sur des équilibres de type distribution de Cauchy. Si la puissance du profil limite est suffisamment grande, on retrouve un résultat de diffusion classique mais lorsque la puissance passe sous un seuil critique, nous avons a faire a un phénomène de diffusion anormale. Ceci est un travail en collaboration avec P. Cattiaux et E. Nasreddine.


Février

Exceptionnellement à 14h00

Mardi 3 Février

Cesare Nardini, ENS Lyon

Titre : Kinetic theory for non-equilibrium long-range interacting systems


Résumé

Long-range interacting systems include gravitational systems, plasma in the low density limit, two-dimensional and geophysical fluid models. This talks describes our recent works on simple models of long-range interacting systems driven out of equilibrium by external forces.

In many physical context, long-range interacting systems are found to be out of equilibrium because of external drving. Examples come from climate dynamics, plasma physics, astrophysics and, recently, experimental setups with cold-atoms driven by laser light.

In order to address the description of driven long-range interacting systems in a theoretical way, we concentrate in this talk on models as simple as possible that still retain the following two main characteristics: non-local (i.e. long-range) nature of the interactions and broken detailed balance (i.e. non-equilibrium dynamics).

We present results both for particle systems and quasi two-dimensional flows and we show that their dynamics can be described very accurately in the limit where there is a separation of time-scales between the evolution of the mean state and the evolution of the fluctuations.
The main theoretical tool developed is kinetic theory: the accuracy of the results obtained will be compared to direct numerical simulations. Ongoing work and perspectives on a combination of kinetic theory and large deviations theory to describe bistability and rare events will also be described.


Exceptionnellement à 14h00

Mardi 17 Février

Alice Cleynen, Harvard University

Titre : TBA



Jeudi 18 Février

Conférence ANR Calibration,

Titre : Du 18 au 20 février


Résumé

programme :https://sites.google.com/site/anrcalibration/news-1


Mars

Exceptionnellement à 14h00

Mardi 10 Mars

Dieter Mitsche, JAD

Titre : Percolation de bootstrap de majorité forte sur les graphes réguliers


Résumé

On considère le modèle de percolation de bootstrap de majorité forte
sur un graphe : initialement, chaque sommet est actif avec probabilité
p, indépendamment des autres. Après, à chaque étape, un sommet inactif
v devient actif si au moins (deg(v)+r)/2 de ses voisins sont actifs,
où r >= 1 et deg(v) denote le degré de v. Etant donné p > 0
arbitrairement petit, nous construisons une famille des graphes
d=d(p,r)-réguliers, telle que avec grande probabilité tous les sommets
sont actifs à la fin. En particulier, le cas r=1 résout une question
et réfute une conjecture de Rapaport, Suchan, Todinca et Verstraete.

(Travail avec X. Pérez-Giménez et P. Pralat)


Exceptionnellement à 14h00

Mardi 17 Mars

Frédéric Patras, JAD

Titre : La structure fine des probabilités libres


Résumé

On sait depuis longtemps que les probabilités libres au sens de Voiculescu ont une structure combinatoire riche liée au poset des partitions non croisées. Une approche par les algèbres de Hopf est apparue il y a quelques années dans les travaux de Mastnak et Nica. On rappellera ces constructions et montrera comment ces idées se prolongent via de nouvelles structures, plus fines, qui permettent de comprendre différemment la nature des cumulants libres (travail avec K. Ebrahimi-Fard).


Exceptionnellement à 14h00

Mardi 24 Mars

Max Fathi, UPMC

Titre : Courbure de Ricci entropique pour les chaines de Markov : exemples et applications


Résumé

Lorsqu'on etudie le mouvement brownien sur une variete Riemanienne, une borne inferieure sur la courbure de Ricci de la variete permet de prouver plusieurs proprietes interessantes : inegalites fonctionnelles, comportement en temps long, contractivite du flot,...

Au cours des dernieres annes, plusieurs definitions possibles de bornes inferieures sur la courbure de Ricci pour des chaines de Markov sur des espaces discrets ont ete proposees. Dans cet expose, je presenterais l'une de ces definitions, due a Jan Maas et Alexander Mielke, quelques unes de ses proprietes et quelques exemples de chaines de Markov ayant une courbure positive, dont notamment des systemes de particules en interaction sur des graphes. Ces exemples ont ete etudies dans un travail en collaboration avec Jan Maas.


Exceptionnellement à 14h00

Mardi 31 Mars

Luc PRONZATO, I3S

Titre : Covariate-adjusted response-adaptive optimal design



Avril

Exceptionnellement à 14h00

Mardi 7 Avril

Stéphane JUNCA, JAD

Titre : The Elo: a rating system


Résumé

A rating system, the ELO system widely used on the web, is first presented. Second, it is applied to a large number of players. We assume that each player is characterized by an intrinsic inner strength and follow the evolution of their rating evaluations. The Markov chain is studied in a simple case. Then a derivation of a newcontinuous mean field model, a kinetic-like equation, is given. The validity of the rating system is investigated by looking at the
large time behavior of the ratings. As one would ideally expect the rating of each player to converge to their actual strength. The simplistic case when all
players interact indeed yields an exponential convergence of the ratings. However, the behavior in the more realistic cases with only local interactions
is more complex with several possible equilibria depending on the exact initial distribution of initial ratings and possibly very slow convergence.

Joint work with Pierre-Emmanuel JABIN (University of Maryland)


Exceptionnellement à 10h00 en salle I

Jeudi 9 Avril

J. Najnudel, IMT Toulouse

Titre : Une fonction analytique liée aux matrices unitaires aléatoires


Résumé

Dans un article avec R. Chhaibi et A. Nikeghbali, nous prouvons qu'après une normalisation adéquate, le polynôme caractéristique d'une matrice aléatoire unitaire bien choisie tend en loi vers une fonction analytique aléatoire dont les zéros, tous réels, forment un processus ponctuel remarquable appelé processus déterminantal de noyau sinus. Nous conjecturons que cette fonction aléatoire est également liée au comportement à petite échelle de la fonction zêta de Riemann près de l'axe critique.


Exceptionnellement à 09h00

Jeudi 16 Avril

Eva Löcherbach, Université Cergy Pontoise

Titre : TBA (Cours de l'Axe Neurosciences)



Exceptionnellement à 14h00

Mardi 21 Avril

Markus Fischer, Université de Padoue

Titre : TBA



Mai

Exceptionnellement à 14h00

Mardi 12 Mai

Yann Ollivier, LRI

Titre : TBA



Mardi 19 Mai

Jean-Christophe Mourrat, ENS Lyon

Titre : Existence globale pour le modèle \(\phi^4\) dynamique


Résumé

L'exposé portera sur certaines EDP stochastiques non linéaires à priori mal posées du fait de l'irrégularité du bruit. On s'intéressera en particulier au modèle appelé "\(\phi^4\) dynamique". Il s'agit d'une équation de la chaleur avec un bruit blanc additif et une non-linéarité cubique. Je commencerai par motiver l'étude de cette équation, puis discuterai comment montrer qu'en dimension 2, cette équation est bien posée (en particulier, la solution n'explose pas en temps fini). (Travail en collaboration avec Hendrik Weber.)


Juin

Exceptionnellement à 14h00

Mardi 2 Juin

Alain Comtet, LPTMS Orsay

Titre : TBA



Juillet

Jeudi 2 Juillet

Pierre Andreoletti, MAPMO

Titre : Générations critiques et nombre de sites visités pour une MAMA


Résumé

Je parlerai de marches aléatoires biaisées sur un arbre et m’intéresserai plus particulièrement à la façon dont la marche visite celui-ci. Je discuterai des générations critiques pour le nombre de sites visités, de son comportement asymptotique et des fluctuations typiques de l'environnement qui encouragent ce comportement.


Exceptionnellement à 14h00

Mardi 7 Juillet

Marcos Kiwi, Universidad de Chile

Titre : Adaptive Rumor Spreading


Résumé

Rumor spreading is a basic model for information dissemination in a
social network. In this setting a central concern for an entity, say the
service provider, is to find ways to speed up the dissemination process
and to maximize the overall information spread. However, a central issue
absent in this setting is that of adaptivity. How can the service
provider use information about the current state of the network to cost
effectively speed up the process?

Motivated by the recent emergence of the so-called opportunistic
communication networks, we take a novel approach by considering the
issue of adaptivity in the most basic continuous time (asynchronous)
rumor spreading process. In our setting a rumor has to be spread to a
population and the service provider can push it at any time to any node
in the network and has unit cost for doing this. On the other hand, as
usual in rumor spreading, upon meeting, nodes share the rumor and this
imposes no cost on the service provider. We consider the cost version of
the problem with a fixed deadline and ask for a minimum cost strategy
that spreads the rumor to every node. A non-adaptive strategy can only
intervene at the beginning and at the end, while an adaptive strategy
has full knowledge and intervention capabilities. Our main result is
that in the homogeneous case (where every pair of nodes randomly meet at
the same rate) the benefit of adaptivity is bounded by a constant. This
requires a subtle analysis of the underlying random process that is of
interest in its own right.

Joint work with J.R. Correa (U. Chile), N. Olver (VU University
Amsterdam; and CWI, Amsterdam), and A. Vera (U. Chile)



Archives du séminaire: 2010

Organisation: M. Lerasle (écrire)