Séminaire de Probabilités et Statistiques

 

 

 

Laboratoire JA Dieudonné, Université de Nice - Sophia Antipolis,

Parc Valrose, 06102 Nice Cedex 2,


ARRET TRAMWAY "Valrose", Plan d’accès
Attention, notre bâtiment n'est pas indiqué dans le parc Valrose, suivre BIOCHIMIE.

____________________________________________________________________________________________________________________________________________________________

 

Les séminaires de l’équipe Probabilités et Statistiques ont lieu les jeudis de 11h à 12h en salle de conférence (RDC du bâtiment Dieudonné, cf plan d’accès), sauf mention spéciale du contraire.

 

Organisateur : Raphael Chétrite,

E-mail : rchetrit@unice.fr

____________________________________________________________________________________________________________________________________________________________


PROCHAINES SEANCES :


 


Attention : Vendredi 20 Janvier 2012  

 

Nicolas Chopin, ENSAE.

 

Titre : Dealing with intractability: recent advances in Bayesian Monte-Carlo methods for intractable likelihoods (joint works with P. Jacob, O. Papaspiliopoulos and S. Barthelmé).

 


Résumé : This talk will start with a review of recent advancements in Monte Carlo methodology for intractable problems; that is problems involving intractable quantities, typically intractable likelihoods. I will discuss in turn ABC type methods (a.k.a. likelihood-free), auxiliary variable methods for dealing with intractable normalising constants (e.g. the exchange algorithm), and MC² type of algorithms, a recent extension of which being the PMCMC algorithm (Andrieu et al., 2010). Then, I will present two recent pieces of work in these direction. First, and more briefly briefly, I’ll present the ABC-EP algorithm (Chopin and Barthelmé, 2011). I’ll also discuss some possible future research in ABC theory. Second, I’ll discuss the SMC² algorithm (Chopin, Jacob and Papaspiliopoulos, 2011), a new type of MC² algorithm that makes it possible to perform sequential analysis for virtually any state-space models, including models with an intractable Markov transition. References * Chopin, N., Jacob, P. and Papaspiliopoulos, O. (2011). SMC^2: A sequential Monte Carlo algorithm with particle Markov chain Monte Carlo updates, http://arxiv.org/abs/1101.1528 * Barthelmé, S. and Chopin, N. (2011). Expectation-Propagation for Summary-Less, Likelihood-Free Inference, http://arxiv.org/abs/1107.5959


 


26 Janvier 2012 

 

Elena Di Bernardino, ISFA, Lyon 1 .

 

Titre : "PLUG-IN ESTIMATION OF LEVEL SETS IN A NON-COMPACT SETTING WITH APPLICATIONS IN MULTIVARIATE RISK THEORY"

 


Résumé : This paper deals with the problem of estimating the level sets L(c) of an unknown bivariate distribution function F. A plug-in approach is followed. That is, given a consistent estimator F_n of F, we estimate L(c) by L_n(c) . In our setting, non-compactness property is a priori required for the level sets to estimate. We state consistency results with respect to the Hausdorff distance and the volume of the symmetric difference. Our results are motivated by applications in multivariate risk theory. In particular we propose a new bivariate version of the Conditional Tail Expectation by conditioning the two-dimensional random vector to be in the level set L(c). We also present simulated and real examples which illustrate our theoretical results.


 


02 Fevrier 2012 

 

Vlada Limic, LATP Marseille.

 

Titre : Small-time behavior of exhchangeable coalescents

 


Résumé : The first part of the talk will be dedicated to defining this rather general class of models, which arise as scaling limits of genealogical forests under exchangeable dynamics. The "standard version" starts from infinitely many blocks (dust particles) at time 0, and the blocks coalesce in time to form larger and larger blocks. The coalescent is said to come down from infinity if the number of blocks becomes instantaneously finite. The second part of the talk will discuss some recent progress in understanding the small time asymptotics of standard versions in the coming down from infinity regime. This talk is partly based on joint work with Nathanael and Julien Berestycki.


 


09 Fevrier 2012 

 

Christophe Gomez, Stanford University.

 

Titre : Comportement asymptotique de la solution de l’équation de Schrödinger avec un potentiel aléatoire à décorrélations lentes.

 


Résumé : Dans cette exposé on mettra en évidence les différences de comportement entre les solutions de l’équation de Schrödinger avec un potentiel aléatoire à décorrélations rapides et lentes. Alors que pour un potentiel à décorrélations rapides tous les phénomènes non triviaux apparaissent sur la même échelle de temps. Pour un potentiel à décorrélations lentes des phénomènes intéressants apparaissent à différentes échelles.


 


16 Fevrier 2012 

 

Remi Rhodes, CEREMADE. Paris Dauphine.

 

Titre : Chaos multiplicatif: de la turbulence à la théorie de Liouville.

 


Résumé : La théorie du chaos multiplicatif a été introduite par J.P. Kahane pour proposer une alternative plus réaliste aux célèbres cascades de B. Mandelbrot. Ces modèles ont été introduits en turbulence pleinement développée pour reproduire les effets d'intermittence de la dissipation d'énergie. La première partie de l'exposé consistera donc à introduire ce concept et commenter ses principales propriétés. En particulier, je reviendrai sur la notion d'invariance d'échelle stochastique d'un processus stochastique qui généralise la notion connue d'autosimilarité. Dans un deuxième temps, l'exposé sera consacrée aux domaines d'applications actuels de la théorie du chaos, notamment ses applications en théorie des champs de Liouville.


 


23 Fevrier 2012 

 

Fabio Toninelli, ENS Lyon.

 

Titre : Dynamique du modele d'Ising 2D a temperature nulle et mouvement par courbure moyenne anisotrope.

 


Résumé : On considere la dynamique stochastique (dynamique de Glauber) du modele d'Ising bi-dimensionnel a plus proches voisins, a temperature nulle. La condition initiale est une "bulle" convexe de diametre L de spins "-", entouree par des spins "+". Nous montrons que, dans le scaling diffusif du temps et de l'espace, l'evolution du bord de la bulle suit pour L->infini une équation deterministe de mouvement par courbure moyenne anisotrope (anisotropic curve-shortening flow). (travail en collaboration avec H. Lacoin et F. Simenhaus)


 


01 Mars 2012 

 

VACANCE

 

 




 


08 Mars 2012 

 

VACANCE

 

 




 


15 Mars 2012 

 

Tibo Espinasse,

 

Titre :

 


Résumé :


 


22 Mars 2012 

 

Olivier Garel, Institut Elie Cartan Nancy.

 

Titre :

 


Résumé :


 


29 Mars 2012 

 

Pascal Massart, Orsay.

 

Titre :

 


Résumé :


 


07 Juin 2012 

 

Alexandre Gaudillere (LATP Marseille).

 

Titre :

 


Résumé :



____________________________________________________________________________________________________________________________________________________________

 

SEANCES PASSEES :


9 Septembre 2010 

 

Mathieu Merle (Paris 7)

 

Quelques résultats sur le modèle de Lotka-Volterra stochastique.

 


Le modèle de Lotka-Volterra stochastique sur le réseau entier  d-dimensionnel est un modèle spatial de compétition d'espèces. Comme  pour le modèle du votant, on place les individus (qu'on peut imaginer représenter des plantes) sur $/bb{Z}^d$ et on imagine qu'à

la mort  d'une plante elle est instantanément remplacée par une nouvelle plante  dont le type est choisi aléatoirement parmi ceux des plantes voisines.  Mais à la différence du modèle du votant, le taux de mort d'un  individu, au lieu d'être constant, dépend ici des proportions d'espèces dans le voisinage d'un site. Cette dépendance est exprimée à l'aide de deux paramètres de compétition. Une question naturelle est celle de la survie d'une espèce donnée,  et plus généralement de la coexistence possible des espèces,  c'est-à-dire de l'existence de mesures stationnaires non triviales.Il apparaît que le modèle du votant est un point critique, dans l'espace de ces paramètres de compétition, pour ces propriétés de  survie et de coexistence. En dimension 3, je résumerai l'étude  complète du voisinage de ce point, réalisée par Cox, Durrett et  Perkins dans un travail récent. Le cas de la dimension 2 est délicat :  la coexistence échoue alors pour le modèle du votant et la région de  coexistence se voit nettement réduite en comparaison du cas tri-dimensionnel. Je présenterai un résultat de coexistence en dimension 2; et montrerai qu'elle a lieu dans une région en forme de corne dans l'espace des paramètres de compétition, et au voisinage du point (à l'extrémité de cette corne) correspondant au modèle du votant.

 


16 Septembre 2010


Emmanuel Rio (Versailles)

 

Approximations fortes des sommes partielles pour les suites de variables aléatoires dépendantes.

Application à des transformations dilatantes de l'intervalle.

 

Résumé

23 Septembre 2010

ANNULE POUR CAUSE DE GREVE


Julien Berestycki (Paris 6)

 

Mouvement Brownien branchant avec absorption : généalogie et survie

On considère un système de particules qui évoluent selon la dynamique du mouvement Brownien Branchant avec dérive négative $\sqrt{2-\epsilon}$ et qui sont immédiatement tuées lorsqu'elles touchent 0. Initiallement il y a juste une particule située en $x$. Kesten (1978) a montré que le système survie avec une probabilité positive si et seulement si $epsilon >0$. Dans cet exposé, je présenterai des résultats récents obtenus avec N. Berestycki et J. Schweinsberg qui concernent le comportement asymptotique de ce processus lorsque $\epsilon \to 0$. Plus précisément, nous obtenons des estimées précises de la probabilité de survie comme fonction de $x$, la position de la particule initiale. En outre, nous montrons que la généalogie limite entre les individus de cette population a une échelle de temps caractéristique d'ordre $\epsilon^{-3/2}.$ Quand le temps est mesuré avec cette unité de temps, nous montrons que la géométrie de l'arbre généalogique converge vers le coalescent de Bolthausen-Sznitman. Ces résultats sont reliés à une série de conjectures de Brunet, Derrida et Simon.


30 Septembre 2010


Rémi Peyre (ENS-Lyon)

 

Flambage de McKean-Vlasov

Comprimez une poutre flexible dans le sens de la longueur. Tant que la compression n'est pas trop forte, la poutre reste rectiligne, mais au-delà  d'une certain seuil elle fléchit brutalement : c'est le phénomène de flambage. Mathématiquement, cela est dû au retournement de la convexité de la fonctionnelle d'énergie au voisinage de l'équilibre.

Nous allons étudier un phénomène du même type en dimension infinie. On considère une assemblée de particules soumises à  un potentiel d'interaction ( d'où Vlasov ) en présence de bruit thermique. On se place dans la limite des forts frottements pour avoir une évolution du premier ordre ( d'où McKean ). La question est de savoir, pour une distribution homogène de particules, si l'équilibre est stable ou instable.

Ce travail repose essentiellement sur l'analyse fonctionnelle, mais j'en soulignerai également les aspects probabilistes :



7 Octobre 2010 

 

Florent Malrieu (Rennes 1)

 

Comportement en temps long d'une équation de type Vlasov-Fokker-Planck

 

On s'intéresse à une équation aux dérivées partielles cinétique non linéaire. Sa non linéarité apparaît à travers un terme de convolution dans la variable d'espace. On proposera une interprétation probabiliste de cette équation et on étudiera son comportement en temps long via la description d'un système de particules en interaction naturellement associé. Cet exposé repose sur un travail en collaboration avec François Bolley et Arnaud Guillin.


14 Octobre 2010 

 

Béatrice Laurent (INSA-Toulouse)

 

Vitesses Minimax pour des tests de détection de signaux dans des modèles à variance hétérogène

 

Résumé


21 Octobre 2010 


Stefano De Marco (Marne-la-Vallée & CERMICS, ENPC)


Processus d'Itô autour de courbes déterministes et applications aux modèles d'évaluation d'options


 Nous présentons des bornes inférieures pour la probabilité qu’un processus d’Itô reste à l’intérieur d’un tube obtenu autour d’une courbe déterministe différentiable sur l’intervalle [0, T]. Nous ne considérons que des conditions locales sur les coefficients du processus, notamment nous demandons que les coefficients soient bornés et la matrice de diffusion elliptique uniquement à l’intérieur du tube. Ce genre de résultat a une grande variété d’applications, mais nous nous concentrons sur l’estimation de la loi à temps fixé d’une diffusion. Dans ce contexte, une fois les points initial et final de la courbe fixés, l’optimisation de la borne inférieure prend la forme d’un problème classique de minimisation lagrangienne. Dans le cadre de certaines classes de modèles à volatilité stochastique (ou locale-stochastique, LSV) en Finance, ce problème peut etre résolu explicitement, et sa solution permet de capter le comportement asymptotique des queues de la distribution du sous-jacent. En particulier, les estimations qui en dérivent entraînent l’explosion des moments, et permettent ainsi d’obtenir de l’information sur l’asymptotique en strike de la volatilité implicite. Ce travail est une collaboration avec Vlad Bally.

 


28 Octobre 2010 

 

Magalie Fromont (ENSAI Rennes)

 

Tests adaptatifs d'homogénéïté pour un processus de Poisson

Résumé


4 Novembre 2010

ATTENTION au changement d'horaire :  de 16h30  à 17h30 en salle de conférence

 

Gérard Biau (Paris 6)

 

Analysis of a Random Forests Model (ou plus simplement "Forêts aléatoires" en français)

Random forests are a scheme proposed by Leo Breiman in the 00's for building a predictor ensemble with a set of decision trees that grow in randomly selected subspaces of data.
Despite a growing interest and emphasis on practice guidelines, there has been few explorations of the statistical properties of random forests, and little is known on the mathematical forces driving the algorithm.
In this talk, we offer an in-depth analysis of a random forests model suggested by Breiman in 04, which is very close to the authentic algorithm.
We show in particular that the procedure is consistent and adapts to sparsity, in the sense that its rate of convergence depends only on the number of strong features and not on how many noise variables are present.

Le preprint pdf est disponible ici :

http://www.lsta.upmc.fr/BIAU/b6.pdf

18 Novembre 2010 

 

Audrey Finkler (Strasbourg)

 

Modèle d'évolution avec dépendance au contexte et corrections de 
statistiques d'adéquation en présence de zéros aléatoires.


Dans cet exposé, la dépendance au contexte pour l'évolution par  substitution des séquences nucléotidiques est étudiée sous deux aspects. Dans une première partie, je définis un modèle évolutif simple. Il  intègre la distinction entre transitions et transversions d'une part,  et une dépendance des nucléotides à leur voisin de gauche modélisant l'effet CpG d'autre part. Ce modèle peut s'écrire sous la forme d'une chaîne de Markov cachée et ses paramètres sont estimés par la mise en oeuvre de l'algorithme de Baum-Welch. Enfin, ce modèle est appliqué à l'estimation de taux de substitution observés dans l'évolution de séquences génétiques. La deuxième partie est consacrée au développement de corrections pour les statistiques classiques du test d'adéquation d'un échantillon à une loi multinomiale en présence de zéros aléatoires. En effet, les tests d'indépendance de l'évolution de triplets de nucléotides voisins impliquent des tables de contingence possédant de nombreuses cases nulles et se ramènent à des tests d'adéquation sur des vecteurs creux pour lesquels les statistiques de Pearson et de Kullback ne peuvent être employées. A partir de celles-ci, je considère des statistiques corrigées qui conservent le même comportement asymptotique. Elles sont utilisées pour réaliser des tests d'indépendance, non seulement dans le cadre des données génomiques de la première partie, mais également pour des données épidémiologiques.


Mardi 23 Novembre
2010 


Enrique Figueroa-Lopez (Purdue)

 

Small-time asymptotics for Lévy processes and their application to estimation and option pricing

The first order small-time asymptotic behavior of the marginal distributions of a Lévy process has been known for long-time. In this talk, higher order expansions polynomial in time  are presented. Several applications of these expansions are also given in the estimation and option pricing of financial model with jumps including the simplest exponential Lévy model as well as time-changed Lévy models. Problems of interest are non-parametric estimation of the Lévy measure, recovery of the random clock, and small-time asymptotic behavior of the implied volatility. This talk includes joint collaborations with C. Houdré and M. Forde.


25 Novembre 2010 

 

Adrien Richou (Rennes)

 

Simulation numérique d'EDSs Rétrogrades dont le générateur est à croissance quadratique par rapport à la variable z

Dans cet exposé nous nous intéressons à la discrétisation temporelle d'une EDS Rétrograde markovienne dont la condition terminale est bornée et le générateur est à croissance quadratique par rapport à la variable z. Nous établirons dans un premier temps une estimation déterministe sur le processus Z. Nous utiliserons ensuite cette estimation afin d'établir une vitesse de convergence pour une version modifiée du schéma de discrétisation classique.



ATTENTION !    
 
Suivi du Groupe de Travail de 14h30 à 16h30 en Salle 1

Algorithmes CART  (Christine Tuleau-Malot )



2 Décembre 2010 

 

Rémi Servien (Montpellier)

 

Estimation de régularité locale

Le sujet principal de cet exposé est lié au problème général de dérivation des mesures. Il trouve ses motivations dans l'étude de problèmes d'estimation quand les conditions de régularité habituelles ne sont pas vérifiées. En effet, de nombreux théorèmes de convergence font intervenir des hypothèses de continuité qui ne sont en pratique pas toujours satisfaites. Nous utilisons donc des conditions moins contraignantes permettant de plus d'étudier la régularité de la mesure considérée.
Un paramètre A appelé indice de régularité apparaît lorsqu'on essaie d'étudier localement le comportement d'une fonction de densité dérivée d'une mesure quelconque. Ce paramètre de régularité étant fortement local, son estimation est difficile. Nous nous attacherons à étudier certains problèmes d'estimation non paramétrique où cet indice intervient et à définir différents estimateurs convergents de A.



ATTENTION !    

Vendredi 10 Décembre 2010 

de 16h00  à 17h00 en salle 1 ou 3
 

Richard Samworth (Cambridge)

 

Maximum likelihood estimation of a multidimensional log-concave density

If X_1,...,X_n are a random sample from a density f in R^d, then with probability one there exists a unique log-concave maximum likelihood estimator of f.  The use of this estimator is attractive because, unlike kernel density estimation, the estimator is fully automatic, with no smoothing parameters to choose.We exhibit an iterative algorithm for computing the estimator and show how the method can be combined with the EM algorithm to fit finite mixtures of log-concave densities. Applications to classification, clustering, functional estimation and regression problems will be discussed, as well as theoretical results on the performance of the estimator.  The talk will be illustrated with pictures from the R package LogConcDEAD.

Co-authors: Yining Chen, Madeleine Cule, Lutz Duembgen (Bern), Robert Gramacy (Cambridge), Dominic Schuhmacher (Bern) and Michael Stewart (Sydney).


6 Janvier 2011

 

Julien Berestycki (Paris 6)

 

Mouvement Brownien branchant avec absorption : généalogie et survie

On considère un système de particules qui se déplacent selon un mouvement Brownien avec drift négatif $\sqrt{2-\espilon}$, se divisent à taux et qui sont tuées lorsqu'elles touchent 0. Initialement le système ne contient qu'une seule particule en position x. Kesten a montré en 1978 que le système survit avec probabilité positive si et seulement si $\epsilon >0.$ Dans cet exposé je présente des résultats récents obtenus avec N. Berestycki et J. Schweinsberg qui concerne le comportement asymptotique lorsque $\epsilon \to 0.$ Nous donnons en particulier un équivalent asymptotique exacte de la probabilité de survie comme fonction du point initial x.
En outre, la généalogie limite des individus de cette population vit sur une échelle de temps caractéristique $\epsilon^{-3/2}$ et dans cette échelle la géométrie de l'arbre généalogique est celle du coalescent de Bolthausen-Sznitman. Ces résultats sont reliés à une série de conjectures remarquables dues à Brunet, Derrida et Simon.


ATTENTION !    
 
Suivi du Groupe de Travail de 14h30 à 16h30 en Salle 1

Algorithmes CART  (Christine Tuleau-Malot )


13 Janvier 2011

 

Dominique Bontemps (Orsay)

 

Mélange de lois multinomiales multivariées : un critère pénalisé pour la sélection de variable et le clustering

Cet exposé porte sur l'estimation du nombre de composantes et des variables pertinentes dans des modèles de mélange de lois multinomiales multivariées, dans une optique de classification non supervisée. Ce type de modèles est utilisé par exemple pour traiter des données génotypiques. Un critère du maximum de vraisemblance pénalisé est proposé, et une inégalité oracle non-asymptotique est obtenue. Le critère retenu en pratique comporte une calibration grâce à l'heuristique de pente. Ses performances sont meilleures que celles des critères classiques BIC et AIC sur des données simulées. L'ensemble des procédures est implémenté dans un logiciel librement accessible.


ATTENTION !    
 
Suivi de 14h00 à 15h00 en Salle 1

Jérémie Unterberger (Nancy)


Calcul stochastique fractionnaire: une approche physico-géométrique

On s'intéressera dans cet exposé à la construction d'un calcul stochastique pour des processus de très faible régularité Holder, l'exemple retenu étant celui du brownien fractionnaire. Les approches conventionnelles étant inopérantes, nous avons développé une approche multi-échelle provenant de la renormalisation en théorie des champs, dont on montrera la pertinence. Nous conjecturons que la construction peut s'interprêter comme une désingularisation des géométries sous-riemanniennes. L'approche multi-échelle est très robuste, elle s'étend au cas deterministe, et offre certainement des perspectives nouvelles pour l'étude des edp ou edps singulières, ou encore  celle de sous-diffusions en milieu poreux, ou de géométries aléatoires (gravité quantique bidimensionnelle, interfaces...).


20 Janvier 2011

 

Mickaël Chichignoud (Marseille)

 

Estimation non paramétrique, critère de Huber et Adaptation.

On se propose d'estimer la fonction de régression dans un modèle additif Y= f(X) + "bruit". La densité du bruit est supposé symétrique, mais inconnue pour le
statisticien. La fonction de régression f est supposée régulière, i.e.appartenant à une boule de Hölder. On souhaite estimer la fonction f en un point y. Le design X est supposé aléatoire et indépendant du bruit. Nous développons un estimateur localement paramétrique qui est construit avec le critère dit de "Huber". Ce critère utilise deux régimes, norme 1 sur les bords et norme 2 autour de 0. Ceci permet d'obtenir un estimateur robuste (non sensible aux valeurs extrêmes) et indépendant de la densité du bruit. Pour le choix de la fenêtre, nous sélectionnons celle-ci à l’aide la méthode de Lepski. Ainsi, notre estimateur atteint la vitesse adaptative classique sur les espaces de Hölder pour tout modèle additif (par exemple, bruit gaussien ou bruit de Cauchy).


27 Janvier 2011

 

Rafaël Roux (CERMICS)

 

Schéma d'Euler probabiliste pour les lois de conservation scalaires fractionnaires

On s'intéresse à la résolution numérique d'une équation aux dérivées partielles d'évolution non linéaire. Cette évolution est composée de deux parties : un terme de diffusion d'ordre non entier 0<a<2 (Laplacien fractionnaire) et un terme de transport non-linéaire d'ordre 1.


Cette équation s'interprète de façon probabiliste comme l'évolution de la fonction de répartition de la solution d'une équation différentielle stochastique dirigée par un processus de Lévy a-stable, correspondant à la diffusion fractionnaire, et présentant une dérive dépendant de la fonction de répartition de la solution, correspondant au terme non linéaire.

La solution de cette équation différentielle stochastique peut être formellement approchée en utilisant un système de particules dirigées par des processus de Lévy indépendants et interagissant à travers leur fonction de répartition empirique. L'existence de ce système de particules n'est pas clair dans le cas a<=1. On utilise par conséquent une discrétisation en temps (schéma d'Euler) afin d'assurer l'existence de l'approximation.

Si le pas de discrétisation et le nombre de particules tendent respectivement vers 0 et +oo dans de bons rapports, la fonction de répartion empirique du système converge bien vers la solution de l'équation.



3 Février 2011

 

Sophie Laruelle (Paris 6)

 

Lien entre Algorithme Stochastique et Essais Cliniques

Cet exposé présente le lien entre algorithmes stochastiques et essais cliniques basé sur un modèle aléatoire d'urne étudié par Z.-D. Bai et F. Hu (2005) et Z.-D. Bai, F. Hu, L. Shen (2002).  En reformulant les dynamiques de la composition de l'urne et du nombre de fois que chaque traitement est administré sous forme d'un algorithme stochastique avec reste, on déduit la convergence presque  sure et la normalité asymptotique (TCL) de la procédure normalisée sous des hypothèses moins fortes en utilisant les méthodes de L'EDO et de l'EDS.  Puis nous étudierons une famille de modèles connus sous le nom d'essais cliniques multi-bras, où la mise à jour de l'urne dépend des performances passées des traitements. En augmentant la dimension du vecteur d'état, notre approche par algorithme stochastique fournit un nouveau résultat de normalité asymptotique.


ATTENTION !    
 
Suivi de 15h30 à 16h30 en Salle 1


Salima El Kolei (Nice)

Calibration des modèles financiers


10 Février 2011

 

Clément Pellegrini (Toulouse)

 

Approche discrète des équations de Schrodinger stochastiques.

Les équations de Schrodinger stochastiques sont des EDS de type saut diffusion qui décrivent l'évolution d'un système quantique soumis à des mesures indirectes. Les solutions de ces équations sont appelées trajectoires quantiques (continues). Dans cet exposé, nous développerons un modèle en temps discret permettant de justifier ces équations. Nous décrirons en particulier un modèle intuitif de trajectoires quantiques discrètes qui permet de retrouver les trajectoires quantiques dans la limite du continu.


ATTENTION !    
 
Suivi de 15h30 à 16h30 en Salle 1

Osman Khodr (Nice)

Modèles mathématiques pour l'activité de microcrédit

On s'intéresse à présenter deux modèles mathématiques décrivants des méthodes de prêt appliquées par plusieurs institutions de microfinance (Grameen Bank au Bangladesh, BancoSol en Bolivie, etc...) et à comparer leur efficacité. Le premier modélise des prêts "individuels", pour lesquel l'emprunteur est seul responsable de ses remboursements, tandis que le deuxième modélise des prets "groupés" qui consistent à mettre les emprunteurs en groupe pour qu'ils partagent la responsabilité des remboursements entre les membres du groupe. Ces modèles sont inspirés d'un article d'une économiste américaine, G. Tedeschi qui a proposé d'introduire une dynamique d'incitation à rembourser les prêts consistant à renouveler automatiquement le prêt pour les emprunteurs qui remboursent à l'échéance et à exclure du prêt pour un certain temps les défaillants. L'examen de ces deux modèles, qui sont de simples chaines de Markov, montrent comment l'introduction de prêts groupés peut permettre aux institutions de microfinance, de financer, pour un même niveau de remboursement, une part plus importante de la population et aussi de consentir des taux plus avantageux que pour les prêts individuels.



17 Février 2011

 

Cristina Di Girolami (LUISS Guido Carli)

 

Calcul stochastique via régularisation en dimension infinie avec perspectives financières

Cet exposé développe certains aspects du calcul stochastique via régularisation pour des processus à valeurs dans un espace de Banach B général. Il introduit un concept original de variation quadratique, qui dépend d'un sous-espace du dual du produit tensoriel de B avec lui même muni de la topologie projective.Une classe de résultats de stabilité de classe $C^1$ pour des processus ayant ce type de variation quadratique est établie ainsi que une formule d'Itô pour de tels processus.Une attention particulière est dévouée au cas où B est l'espace des fonctions continues sur l'intervalle [-T,0], T>0 et le processus considéré est la fenêtre X(•) associée à un processus réel continu X, qui pour chaque t considère le passé du processus X jusqu'à t-T. L'espace naturel d'évolution pour un processus fenêtre X(•) est l'espace de Banach B des fonctions continues définies sur [-T,0].
Si X est un processus à variation quadratique finie (par exemple  un processus de Dirichlet, faible Dirichlet) et h est une variable aléatoire définie par une fonctionnelle de toute la trajectoire de X, il est possible de représenter h comme un nombre réel plus une intégrale progressive. Ce résultat de répresentation de la variable aléatoire h sera lié strictement à une fonction qui en général est une solution d'une equation au derivées partielles en dimension infinie. A certains égards, ceci généralise la formule de Clark-Ocone valable lorsque X est un  mouvement brownien standard W. Une des motivations vient de la théorie de la couverture d'options path-dependent lorsque le prix de l'actif soujacent n'est pas une semimartingale.


24 Février 2011

 

Laurent Duvernet (Polytechnique)

 

Des éléments pour décider si des données présentent un caractère multifractal

Dans le cadre de ma thèse, j'ai travaillé sur les propriétés statistiques d'une classe de processus aléatoires multifractals. Ceux-ci semblent plutôt bien convenir à  la modélisation de données qui possèdent des propriétés d'invariance d'échelle riches : par exemple en turbulence ou en finance. Bien que le cadre mathématique soit un peu sophistiqué, il
s'agit de modèles issus de la physique qui essaient de "coller" aux données. J'essaierai de faire un résumé (très accessible !) de cette approche et de ses applications, et aussi de présenter certaines avancées que mes co-auteurs et moi avons proposées concernant la question de décider si les données ont bien été générées par un processus aléatoire
multifractal, ou plutôt par un processus plus usuel.

10 Mars 2011

ATTENTION !  de 10h à 11h


 Julian Tugaut (Nancy)


 Convergence d'un processus auto-stabilisant


Un processus auto-stabilisant correspond à une particule d'un système dynamique à champ moyen dont la dimension est infinie. Benachour, Roynette et Vallois ont prouvé la convergence faible de ce genre de processus. Cattiaux, Guillin et Malrieu ont étendu ce résultat en ajoutant le gradient d'un potentiel convexe. Carrillo, McCann et Villani prouvent un résultat similaire dans un cas non-convexe en supposant que le centre de masse est fixe.
En utilisant la non-unicité des mesures stationnaires et l'énergie-libre, je vais prouver la convergence sous une condition portant uniquement sur la loi initiale dans un cadre multi-puits.



suivi de 11h à 12h


Grégory Schehr (Orsay)

 

Statistiques des racines réelles de polynômes aléatoires : des polynômes
de Kac aux propriétés de persistence de l'équation de la chaleur.


Nous considérons une classe de polynômes aléatoires réels (une généralisation des polynômes de Kac), indéxés par un entier d et de haut degré n et nous nous intéressons au nombre de racines réelles de tels polynômes. La probabilité que ces polynômes n'aient aucune racine réelle dans l'intervalle [0,1] décroît, pour n grand, comme une loi de puissance avec un exposant \theta(d) > 0. Nous montrons que \theta(d) est exactement l'exposant associé à la décroissance algébrique de la probabilité de persistence pour l'équation de la chaleur avec des conditions initiales aléatoires en dimension d. Par ailleurs nous montrons que la probabilité que ces polynômes aient exactement k racines réelles dans l'intervalle [0,1] admet une forme d'échelle inhabituelle donnée par n^{-\tilde \varphi(k/\log n)} où \tilde \varphi(x) est une fonction (universelle) de grande déviation.

Nous discuterons également l'extension de ces résultats à d'autres classes de polynômes aléatoires comme les polynômes de Weyl ou les polynômes binomiaux.

G. Schehr, S.N. Majumdar, Phys. Rev. Lett. 99, 060603 (2007), arXiv:0705.2648 G. Schehr, S.N. Majumdar, J. Stat. Phys. 132, 235 (2008), arXiv:0803.4396


17 Mars 2011 

 

Yannick Baraud (Nice)

Sélection d'estimateurs en régression Gaussienne

Un modèle basique en statistique est d'estimer la moyenne d'un vecteur gaussien dont la matrice de covariance est proportionnelle à l'identité. Ce cadre permet de traiter des problèmes de débruitage, de détection de ruptures ou de sélection de variables par exemple, des problèmes très classiques dans la littérature et qui peuvent être traités par de nombreuses procédures différentes. Malheureusement, appliquées aux données, ces procédures conduisent à des estimateurs dont on ne peut apprécier la qualité, puisque la réalité nous est inconnue. Notre problème est le suivant. Etant donnée une famille quelconque d'estimateurs concurrents, comment sélectionner à partir des mêmes données un estimateur dont le risque sera comparable au meilleur d'entre eux?



24 Mars 2011

 

Patrick Loiseau (Lyon)

 

Principe de grandes déviations presque-sûr et applications

Nous montrons qu'un principe de grandes déviations est valable pour presque toute réalisation d'un processus stationnaire mélangeant vérifiant un principe de grandes déviations classique. Ce principe de grandes déviations décrit les fluctuations locales de presque toute réalisation d'une marche aléatoire autour de son comportement moyen donné par la lois des grands nombres. Nous donnons quelques exemples d'applications, notamment à la caractérisation des performances du trafic Internet utilisant le protocole TCP.


ATTENTION !  

 
 
Vendredi 25 Mars à 15h30 en salle de Conférence


Gilles Wainrib (Stanford)

 

Moyennisation et bifurcations stochastiques dans les systèmes lents-rapides

Les systèmes stochastiques à plusieurs échelles de temps apparaissent naturellement dans la modélisation de phénomènes biologiques, en particulier en neurosciences. Nous présenterons une approche générique, basée sur le principe de moyennisation stochastique, pour étudier certains phénomènes induits par le bruit dans ce type de modèles non-linéaires. Plusieurs exemples issus de la modélisation des neurones seront développés en détail.




31 Mars 2011  

  11h -12h Salle de Conférence


Groupe de travail sur Physique Hors d'Equilibre (Raphaël Chétrite)

Théorie des grandes déviation par un (et pour) amateur.

 Je vais présenter les bases de la théorie des grandes déviations d'un processus Markovien homogène. J'insisterai en particulier sur une symétrie du régime des grandes déviations: la relation de Gallavotti-Cohen.

ATTENTION !
Mercredi 6 Avril 2011
 11h -12h  

 

Matthieu Lerasle (Sao Paulo)

 

Une approche Oracle pour le problème d’estimation de voisinage d’interactions dans les champs aléatoires

Collaboration avec Daniel Yasumasa Takahashi (Princeton University)

Le but de l’exposé est de présenter un modèle de champs aléatoires pour représenter les interactions entre neurones. A`partir de l’observation de l’activité neuronale, l’objectif est de retrouver le graphe d’interaction. Nous considérons des observations partielles du champ aléatoire et nous ne faisons pas d’hypothèses sur la portée des interactions de manière à se rapprocher d’un cadre réel d’observations en neuroscience.
Nous développons une approche oracle du problème, de manière à compléter les approches par identification jusqu’ici considérées. Au lieu de chercher à estimer exactement le voisinage d’interaction, nous recherchons un voisinage minimisant une certaine fonction de risque.
Cette nouvelle approche permet en théorie de travailler sous des hypothèses beaucoup moins restrictives sur le champ aléatoire. D’un point de vue plus pratique, elle permet de retrouver en utilisant beaucoup moins d’observations les principales interactions neuronales. Nous développons, en plus de plusieurs inégalités oracles, un algorithme pratique permettant de calculer nos estimateurs en temps linéaire.


7 Avril 2011

 

Mikaël Falconnet (Grenoble)

 

Autour de modèles d'évolution de séquences d'ADN avec influence du voisinage
et/ou translocations


Après une introduction rapide aux modèles de substitutions usuels, je présenterai un modèle d'évolution de séquence d'ADN avec influence du voisinage introduit par Bérard et al. Ensuite, j'expliquerai comment il est possible de calculer des distances phylogénétiques sous ce modèle et présenterai une étude numérique succincte des estimateurs produits. Enfin, j'expliquerai comment on peut étendre le modèle précédent en ajoutant un nouveau mécanisme, la translocation, et quels résultats nous avons sur l'ergodicité de ces modèles.



14 Avril 2011
 

Raphaël Lefevere (Paris 7)

 

Grandes déviations du courant dans les dynamiques de collisions locales.

J'introduirai certains modèles représentant la dynamique microscopique des aerogels, gels dont l'élément liquide a été retiré et remplacé par des atomes de gaz. Ensuite, je montrerai comment on peut comprendre le transport de la chaleur dans ces modèles en étudiant une approximation stochastique de ceux-ci. Je montrerai que les fluctuations du courant d'énergie dans les modèles stochastiques possède des propriétés inhabituelles et comment extrapoler celles-ci aux modèles déterministes d'où l'on est partis.



ATTENTION !    
 
Suivi de 15h30 à 16h30 en Salle 1


Groupe de travail sur Quantification L1 (Thomas Laloë)


21 Avril 2011
 

Roland Diel (Orléans)

 

TITRE

Résumé



12 Mai 2011

 

Olivier Catoni (ENS Paris)

 

Petites perturbations des estimateurs et bornes PAC-Bayésiennes.


On présentera différentes techniques de perturbation des paramètres permettant d'élargir le champ d'application des bornes PAC-Bayésiennes à des estimateurs classiques. On s'intéressera en particulier à  la classification par Support Vector Machines et à  la régression ridge aux moindres carrés avec plan d'expérience aléatoire.
 



9 Juin 2011

Franck Picard (Lyon)

 

Ondelettes et modèles mixtes pour la classification non supervisée de courbes


Un nombre croissant de domaines scientifiques s'intéressent aux données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension et le cadre naturel de modélisation est alors l'analyse fonctionnelle pour laquelle les unités de base sont les courbes. Notre objectif est de réaliser une classification non supervisée de ces courbes en présence de variabilité inter-individuelle.  Les approches existantes sont fondées sur les splines (James et Sugar (2003)). Cependant, ces modèles ne permettent pas de prendre en compte des fonctions présentant des irrégularités et leur utilisation est limitée à des données de faible dimension.

Nous proposons une nouvelle proc
édure de classification de courbes non-supervisée fondée sur une décomposition en ondelettes des signaux. Nous introduisons un effet aléatoire prenant en compte la variabilité inter-individuelle et grâce à une modélisation appropriée dans le domaine des ondelettes, nous nous assurons que les effets fixes et aléatoires appartiennent au même espace fonctionnel (espace de Besov, Antoniadis et Sapatinas~(2007)). Ainsi nous obtenons un modèle de mélange Gaussien multivarié dont les composantes  s'écrivent comme des modèles linéaires mixtes.

Nous proposons une proc
édure en deux étapes. Nous commençons par une etape de réduction de dimension basée sur les techniques de seuillage des ondelettes et sur les tests multiples. La taille conséquente des données rend cette étape fondamentale et notre but est de sélectionner les coefficients les plus informatifs pour la classification. Ensuite, une procédure de classification est appliquée sur les coefficients sélectionnés : l'algorithme EM est utilisé pour avoir une estimation des paramètres par maximum de vraisemblance et prédire conjointement les classes des individus et les effets individuels.

Les propri
étés de notre procédure sont validées par une étude de simulation approfondie. Nous illustrons ensuite notre méthode sur des données issues de la biologie moléculaire (données omics) comme les données CGH ou les données de spectrométrie de masse. Notre procédure est disponible dans le package R curvclust.



30 Juin 2011

 

Mauro Mariani (Marseille)



 


8 Septembre 2011 

 

Clément Sire. Laboratoire de Physique Théorique, Université Paul Sabatier & CNRS, Toulouse

 

The physics of poker, baseball, and football tournaments.

 


I will present a simple model of Texas hold'em poker tournaments which retains the two main aspects of the game: a) the minimal bet grows exponentially with time; b) players have a finite probability to bet all their money. The distribution of the fortunes of players not yet eliminated is found to be independent of time during most of the tournament, and reproduces accurately data obtained from Internet tournaments and world championship events. This model also makes the connection between poker and the persistence problem widely studied in physics, as well as some recent physical models of biological evolution, and extreme value statistics. Other applications of physical methods to the understanding of baseball/football tournaments (winning probability vs final ranking, streaks...) and to games having a tree structure will be briefly presented.


 


15 Septembre 2011 

 

Maureen Clerc . INRIA

 

Analyse de données multi-essais en neuroimagerie.

 


Dans cet exposé, je présenterai l'analyse de données multi-essais en neurophysiologie, provenant d'enregistrements d'électroencéphalographie. De tels enregistrements présentent plusieurs difficultés majeures dans leur analyse: leur niveau de bruit élevé, et l'absence de données "propres", non-bruitées. On définit dès lors le bruit comme la partie des données qui est non-corrélée à travers les essais. Les données multi-essais sont donc nécessaires pour extraire de l'information pertinente. De plus, cette information d'intérêt est sujette à de la variabilité inter-essais. Je présenterai deux familles de méthodes pour le traitement de ces données: des méthodes basées sur les données (la réduction de dimensionnalité non-linéaire) et des méthodes basées sur les modèles (Matching Pursuit et ses extensions). L'importance de la variabilité inter-essais sera illustrée sur quelques études de cas en neurosciences cliniques et cognitives.


 


22 Septembre 2011 

 

Etienne Tanré . INRIA

 

Approximation des temps d'atteinte pour les diffusions en dimensions 1.

 


Travail en commun avec Samuel Herrmann (univ. de Bourgogne) - ANR MANDy Dans les modèles populaires d'activité électrique de la membrane des neurones, il est admis que les neurones transmettent un signal en émettant des décharges (spikes) à chaque fois que le potentiel de membrane atteint un seuil fixe. D'un point de vue mathématique, l'instant de décharge du neurone correspond au premier temps de passage d'une diffusion unidimensionnelle au dessus d'un seuil. Pour des modèles généraux de neurones, il est peu probable que nous puissions obtenir des développements explicites de la loi des instants de décharges. Nous avons développé des méthodes rapides de simulation numérique de ces instants par des méthodes de Monte-Carlo efficaces.


 


29 Septembre 2011 

 

Bruno Bouchard . CEREMADE Dauphine.

 

Problème de cible stochastique sous forme de jeux .

 


Nous proposons une formulation sous forme de jeux différentiels des problèmes de cible stochastique sous contrainte de fonction de perte. Il s'agit de trouver les conditions initiales d'un processus contrôlé telles qu'il existe une stratégie assurant que la valeur terminale du processus vérifie une contrainte en espérance, quel que soit le contrôle d'un joueur adverse. On étend à ce cadre le principe de programmation dynamique géométrique de Soner et Touzi, et de Bouchard et Vu, et caractérise la fonction valeur associée comme solution discontinue de viscosité d'une équation de type Hamilton-Jacobi-Isaac. On commencera par rappeler les principaux résultats sur les cibles stochastiques, ainsi que les principales motivations de ces travaux.


 


Attention : Vendredi 08 Octobre 2011 

 

Kirone Mallick . IPHT Saclay.

 

Titre : Solutions exactes en Physique Statistique loin de l'équilibre.

 


Résumé : Les lois classiques de la thermodynamique et de la physique statistique s'appliquent uniquement à des systèmes au voisinage de l'équilibre thermique. Il n'existe aujourd'hui aucune théorie physique générale des processus loin de l'équilibre : on ne dispose ni d'une description macroscopique à partir de fonctions d'états (qui jouerait un rôle analogue à celui de l'entropie ou de l'énergie libre), ni d'un principe combinatoire à l'échelle microscopique (qui, tel la loi de Boltzmann, nous permettrait d'énumérer les états fondamentaux). Une stratégie possible pour construire une physique statistique hors d'équilibre est de chercher des solutions exactes de modèles épurés mais pertinents. Dans cette optique, le processus d'exclusion asymétrique (ASEP) est considéré comme un paradigme. Ce modèle stochastique de particules en interaction peut être résolu par des techniques inspirées de la théorie des systèmes intégrables. Nous décrirons ces méthodes en mettant l'accent sur les fonction de grandes déviations. Nous montrerons aussi que certaines généralisations de ce modèle font apparaître des problèmes intéressants de représentations d'algèbre quadratiques.


 


Semaine du 10 au 14 Octobre 2011  

 

Pierre Mathieu . LATP Marseille.

 

Titre : La relation d’Einstein pour les diffusions dans un milieu désordonné.

 


Résumé :
La relation d’Einstein est une relation de type fluctuation-dissipation qui permet d’identifier la diffusivité effective - au sens de l’homogénéisation - et la mobilité d’une particule diffusant dans un milieu désordonné périodique ou aléatoire. Par définition, la mobilité mesure la réponse de la diffusion `a une petite force constante. Bien que cette relation ait joué un rôle déterminant dés les premiers travaux d’A. Einstein [2] sur le mouvement brownien et bien qu’on puisse conjecturer qu’elle est vérifiée par de nombreux modèles homogénéisés, elle n’a été prouvée que sur quelques rares exemples [6], [7], [10]. L’objectif de ce cours est en particulier de présenter les travaux récents sur la preuve de la relation d’Einstein pour des diffusions réversibles dans un milieu aléatoire avec des corrélations à portée finie [3].
Plan du cours
1. Dans un premier temps, je rappellerai quelques éléments classiques d’homogénéisation/principe d’invariance pour les diffusions dans un milieu périodique et je donnerai la forme et la preuve (élémentaire) de la relation d’Einstein toujours dans le cas périodique. La suite du cours portera sur les différents ingrédients de la preuve de la relation d’Einstein dans le contexte d’un milieu aléatoire en suivant [3], `a savoir.
2. Le régime diffusif pour un milieu aléatoire stationnaire: résultats d’homogénéisation [8], [11], [12], [5], [1] et théorie de Lebowitz-Rost [9].
3. Le régime ergodique pour un milieu avec corrélations à portée finie: régénération et loi des grands nombres [13] [14].
4. Fin de la preuve de la relation d’Einstein.
Bibligraphie :
1 : \bibitem{kn:DFGW} De Masi, A., Ferrari, P., Goldstein, S., Wick, W.D.~(1989)\\ An invariance principle for reversible Markov processes. Applications to random motions in random environments.\\ {\em Journ.~Stat.~Phys.}~{\bf 55}~(3/4), 787--855.
2 : \bibitem{kn:Einstein} Einstein, A.~(1956)\\ Investigations on the theory of the Brownian movement.\\ Edited with notes by R. F\"urth. Translated by A. D. Cowper. Dover Publications, Inc., New York.
3 : \bibitem{kn:GMP} Gantert, N., Mathieu, P., Piatnitski, A.~(2011)\\ Einstein relation for reversible diffusions in random environment.\\ A para\^\i tre dans {\em Comm. Pure Appl. Math.}.
4 : \bibitem{kn:JKO} Jikov, V.V., Kozlov, S.M., Oleinik, O.A.~(1994)\\ {\em Homogenization of differential operators and integral functionals.}\\ Springer-Verlag, Berlin.
5 : \bibitem{kn:KV} Kipnis, C., Varadhan, S.R.S.~(1986)\\ A central limit theorem for additive functionals of reversible Markov processes and applications to simple exclusions. \\ {\em Comm.~Math.~Phys.}~{\bf 104}, 1--19.
6 : \bibitem{kn:KO} Komorowski, T., Olla, S.~(2005)\\ Einstein relation for random walks in random environments.\\ {\em Stochastic~Process.~Appl.}~{\bf 115}~(8), 1279--1301.
7 : \bibitem{kn:KO2} Komorowski, T., Olla, S.~(2005)\\ On mobility and Einstein relation for tracers random walks in time-mixing random environments.\\ {\em Journ. Stat. Phys.}~{\bf 118}~(3/4), 407--435.
8 : \bibitem{kn:Ko85} Kozlov, S.M.~(1985)\\ The method of averaging and walks in inhomogeneous environments\\ {\em Russian~Math.~Surveys}~{\bf 40}~(2), 73--145.
9 : \bibitem{kn:LR} Lebowitz, J.L., Rost, H.~(1994)\\ The Einstein relation for the displacement of a test particle in a random environment.\\ {\em Stochastic~Process.~Appl.}~{\bf 54}~(2), 183--196.
10 : \bibitem{kn:loulakis} Loulakis, M.~(2005)\\ Einstein relation for a tagged particle in simple exclusion processes.\\ {\em Comm.~Math.~Phys.}~{\bf 229}~(2), 347--367.
11 : \bibitem{kn:Osada} Osada, H.~(1982)\\ Homogenization of diffusion processes with random stationary coefficients.\\ {\em Probability theory and mathematical statistics} (Tbilisi, 1982), 507--517, Lecture Notes in Math., 1021, Springer, Berlin, 1983.
12 : \bibitem{kn:PV} Papanicolaou, G., Varadhan, S.R.S.~(1982)\\ Diffusion with random coefficients.\\ {\em Essays in honor of C.R. Rao, ed. by G. Kallianpur, P.R. Krishnajah, J.K. Gosh} pp. 547--552. Amsterdam: North Holland 1982.
13 : \bibitem{kn:LS} Shen, L.~(2003)\\ On ballistic diffusions in random environment.\\ {\em Ann.~I.~H.~Poincar\'e-PR}~{\bf 39}~(5), 839--876.
14 : \bibitem{kn:SZ} Sznitman, A., Zerner, M.~(1999)\\ A law of large numbers for random walks in random environment.\\ {\em Ann. Probab.}~{\bf 27}, 1851--1869.


 


20 Octobre 2011 

 

Sylvain Prolhac . Zentrum Mathematik, M5 Technische Universität München.

 

Titre : Height fluctuations in the one-dimensional Kardar-Parisi-Zhang universality class.

 


Résumé : The Kardar-Parisi-Zhang (KPZ) equation describes the stochastic evolution of a growing surface. In one dimension, exact scaling functions for the fluctuations of the height of the interface around its mean value have been obtained. These scaling functions have been derived first from microscopic realizations of the KPZ equation. More recently, it has been possible to obtain some of these scaling functions directly from the Cole-Hopf solution of the KPZ equation using the replica method. The calculations involve a summation over all the Bethe eigenfunctions of the attractive quantum delta-Bose gas in one dimension.


 


03 Novembre 2011 

 

Michel Bauer. IPHT Saclay.

 

Titre : Mesures quantiques non destructives répétées et martingales

 


Résumé : Depuis quelques années, on sait faire des expériences de mesures quantiques indirectes non destructives répétées. Après avoir expliqué en quoi consistent ces protocoles, nous montrons qu'ont peut interpréter ces expériences comme une nouvelle réalisation d'un instrument de mesure quantique obéissant à tous les postulats usuels et en particulier la réduction du paquet d'onde. Ce sont des concepts probabilistes classiques (convergence des martingales, entropie, ...) qui expliquent ce résultat.


 


Semaine du 07 au 11 Novembre 2011  

 

Xavier Viennot . Directeur de recherche CNRS, LaBRI, Université Bordeaux 1.

 

Titre : Physique combinatoire et algèbres quadratiques: une approche cellulaire.

 


Résumé :
Le PASEP ("partially asymmetric exclusion process") est un modèle classique en physique des systèmes dynamiques loin de l'équilibre. Le calcul des probabilités stationnaires repose sur l'algèbre quadratique définie par la relation DE = qED + E + D. Une autre algèbre quadratique importante en physique est celle définie par la relation UD = DU +Id (ou algèbre de Weyl-Heisenberg). Nous exposons une théorie générale, " l'Ansatz cellulaire", permettant de construire par une approche planaire des objets et des bijections combinatoires à partir d'une telle algèbre quadratique Q. Des exemples sont la correspondance de Robinson-Schensted entre permutations et paires de tableaux de Young, les tableaux alternatifs associés au PASEP, ou encore les pavages et les matrices à signes alternants.
Cours 1
Rappels sur la classique correspondance de Robinson-Schensted: les insertions de Schensted, la version géométrique avec les "ombres et lumières" et la version «locale» de Fomin. Comment retrouver cette correspondance à partir de l’algèbre quadratique définie par la relation UD = DU +Id.
Cours 2
Le modèle PASEP en physique des particules avec interactions. Expression des probabilités stationnaires avec l’Ansatz matriciel de Derrida, Evans, Hakim et Pasquier. Interprétation combinatoire avec les "tableaux alternatifs" associés à l’algèbre quadratique définie par la relation DE = qED + E + D. Bijection entre les permutations et les tableaux alternatifs.
Cours 3
PASEP et théorie combinatoire des polynômes orthogonaux. Moments des polynômes q-Laguerre et tableaux alternatifs. Cas particulier du TASEP ("totally asymmetric exclusion process"), lien avec la combinatoire des arbres binaires et l’algèbre de Hopf de Loday-Ronco.
Cours 4
Théorie générale de " l'Ansatz cellulaire". Q-tableaux associés à une algèbre quadratique Q. Equivalence avec la notion d'automate planaire. Construction de bijections. Exemples en physique statistique: les matrices à signes alternants, le modèle des FPL ("fully packed loops"), partitions planes, chemins ne se coupant pas, pavages. L'algèbre du modèle "8-vertex".


 


17 Novembre 2011 

 

Nick Whiteley, School of Mathematics, University Walk, Bristol.

 

Titre : Linear variance bounds for particle approximations of Feynman-Kac formulae.

 


Résumé : Interacting particle systems have become popular devices for approximate solution of problems arising in applications such as non-linear filtering and computational statistics. The theme common to these applications is that they involve quantities which can be expressed as Feynman-Kac formulae, hence naturally admitting particle approximation. However, in the setting of a non-compact state space, the properties of these particle approximations are still not well understood. We will describe recent developments which allow linear-in-time bounds on the variance of the particle approximation to be verified in the non-compact setting. This involves some structural connections to spectral and multiplicative-ergodic properties of linear operators associated with Feynman-Kac formulae.


 


24 Novembre 2011 

 

Cyril Roberto. LAMA Marne La Vallée.

 

Titre : Quelques résultats rigoureux sur le modèles Est

 


Résumé : Nous nous intéresserons dans cet exposé au modèle Est qui fait partie d'une vaste famille de modèles de spins dits avec contraintes cinétiques. Après un survol d'un certains nombre de résultats concernant la vitesse de convergence vers l'équilibre, nous analyserons plus en détail son évolution en partant d'une mesure hors équilibre. En particulier nous montrerons que le modèle peut être approximé par un modèle de coalescence dont la résolution nous permettra d'établir des résultats de type "vieillissemment". Exposé reposant sur des travaux en collaboration avec N. Cancrini, A. Faggionato, F. Martinelli et C. Toninelli : arXiv:math/0610106, arXiv:1007.0109, arXiv:1012.4912.


 


01 Decembre 2011 

 

Judith Rousseau, Ceremade Paris Dauphine.

 

Titre : Bernstein von Mises dans les modèles semi-paramétriques Bayésiens.

 


Résumé : Dans les modèles paramétriques réguliers la loi a posteriori converge , lorsque le nombre d'observations tend vers l'infini vers une loi normale d'espérance le maximum de vraisemblance et de variance l'inverse de l'information de Fisher du $n$-échantillon. Cette propriété est appelée Propriété de Bernstein - von Mises. Elle induit un certain nombre de conséquences intéressantes quant à la comparaison entre les approches fréquentistes et les approches Bayésiennes. Dans ce travail nous étendons ce genre de résultats aux modèles non ou semi-paramétriques, lorsque le paramètre d'intérêt est une fonctionnelle finie dimensionnelle du paramètre. Nous donnerons dans ce cas des conditions suffisantes pour que la loi a posteriori vérifie la propriété de Bernstein von Mises ainsi que certains contre-exemples montrant que certaines lois a priori "raisonnables" n'induisent pas forcément Bernstein - von Mises. Il s'agit d'un travail joint avec V. Rivoirard et I. Castillo


 


08 Decembre 2011, annullé  

 

Jean Baptiste Monnier, LPMA Paris 7.

 

Titre : Classification via projections multi-résolution localisées

 


Résumé :


 


15 Decembre 2011 

 

Bertrand Cloez, Marne la Vallée.

 

Titre : Comportement en temps long du processus "TCP window size" et application à des problèmes populations structurées.

 


Résumé : Le processus TCP (Transmission Control Protocol) est un objet mathématiques trés simple. En effet, il croit linéairement et passe de x à x/2 à des temps aléatoires (homogène ou inhomogène en espace). Son étude a motivé beaucoup de chercheurs ces dernières années. Dans cet exposé, nous présenterons brièvement ce processus et donnerons des bornes quantitatives de convergence vers l'équilibre. Après ce bref résumé, nous présenterons comment ces résultats s'appliquent pour des problèmes de mesures branchantes liées à la mitose cellulaire.


 


05 Janvier 2012 

 

Pierre Calka, Laboratoire de Mathématiques Raphaël Salem, Université de Rouen.

 

Titre : Variances limites pour des polytopes aléatoires

 


Résumé : Dans l'espace Euclidien, un moyen classique de générer un polytope aléatoire consiste à construire l'enveloppe convexe d'un ensemble de points tirés aléatoirement. Ce modèle qui trouve des applications dans des domaines aussi variés que l'optimisation, la statistique ou l'algorithmique, est surtout étudié dans un cadre asymptotique. Dans cet exposé, nous considérons tout d'abord un polytope aléatoire dans la boule-unité. Pour chacune des grandeurs étudiées (nombre de faces k-dimensionnelles, volumes intrinsèques), nous prouvons un théorème central limite avec calcul explicite de la variance limite. Les techniques s'appuient sur l'introduction d'un modèle limite équivalent après changement d'échelle et sur une méthode dite de stabilisation, utilisée classiquement en géométrie aléatoire. Nous discutons enfin le cas d'un polytope aléatoire dans un corps convexe général. Ce travail est une collaboration avec Tomasz Schreiber et Joseph Yukich.


 


12 Janvier 2012 

 

Oleg Lepski, LATP Université de Provence.

 

Titre : Sur l'estimation adaptative

 


Résumé : Cet exposé consiste de - l'introduction courte à l'adaptation; - l'aperçu de résultats obtenus; - problèmes ouverts (partie principale).



_______________________________________________________________________________________________

 

_____________________________________________________________