Introduction aux processus


Objectif

Ce cours constitue une introduction aux processus stochastiques. Un processus est une famille de variables aléatoires dépendantes indexée par un ensemble (N, Z, [0,T], R, [0,T]x[a,b]…). Nous considérons dans un premier temps deux classes de processus à temps discret : les martingales et les chaînes de Markov.
La notion de martingale vient de l'étude des jeux de casino, elle est aujourd'hui fondamentale en finance mathématique. Il s'agit d'un outil d'analyse très puissant. Les techniques de martingales permettent notamment de prouver plus simplement la loi forte des grands nombres ou de construire l'intégrale stochastique.
Une chaîne de Markov est un modèle dynamique (aisément simulable) qui lie le présent d’une (de) variable(s) à son (leur) passé proche. Les chaînes de Markov apparaissent quant à elles naturellement lorsque l'on fait de la modélisation et que l'on cherche à modéliser de manière simple la dépendance temporelle. Il existe de très nombreux modèles en statistiques, finance, physique, biologie (dans l’étude de la dynamique de population, génétique) et économie. Les modèles autorégressifs étudiés en séries temporelles en sont un exemple linéaire simple.
Du fait de leur flexibilité, elles sont également devenues un outil très performant de simulation (méthode MCMC : Monte Carlo Markov Chain). Nous étudierons plus précisément le comportement des chaînes de Markov à état fini ou dénombrables : les propriétés de communication, l’existence de loi stationnaire (théorème ergodique). Le cas continu permettra d’introduire des outils puissants de renouvellement et d’extension de Nummelin. Des application à la simulations de loi (algorithme MCMC) et aux algorithmes d’optimisation stochastique  (algorithme de recuit simulé, Robbins-Monro) seront  abordées en cours et TD.
Enfin nous introduirons deux processus à temps continu: le processus de Poisson et le mouvement Brownien. Le processus de Poisson intervient notamment dans les problèmes de files d'attente, fiabilité, risque de crédit. Le mouvement Brownien a lui un rôle central équivalent à celui de la Gaussienne en dimension finie. La trajectoire Brownienne a été décrit pour la première fois par un botaniste et apparait aujourd'hui de manière fondamentale en statistique, physique, finance… 

Acquis de la formation : à l’issue de la formation, l’étudiant saura

  • manipuler l'espérance conditionnelle sachant une sous tribu et énoncer ses propriétés
  • énoncer les définitions des principaux concepts de bases sur les processus (filtration, temps d'arrêt, etc.), énoncer le théorème de Kolmogorov sur l'existence de la loi d'un processus.
  • énoncer les principaux résultats de la théorie L1 des martingales à temps discret (convergence, martingales inverses, loi du 0-1, théorèmes d’arrêts et inégalités de martingales) et les appliquer pour des problèmes concrets de statistique vus en travaux dirigés
  • énoncer les principales définitions et les principaux résultats sur les chaînes de Markov à temps discret et espaces d’états finis ou dénombrables (classification des états, probabilités invariantes, théorème ergodique, convergence vers l’équilibre, réversibilité)
  • prouver l'existence du processus de Poisson et du Mouvement Brownien et construire ces deux processus.

Mode d'évaluation:

La note finale du cours sera composée de la note de contrôle continu (25%) et de l'examen final (75%). La note de contrôle continue est égale à la moyenne de la note de participation et de la note de mi-parcours. La note de participation est la moyenne de la note de présence et de la note de participation aux TD, laissée à la l'appreciation du chargé de TD.

 

Plan

  • Notions de bases, exemples –  Processus, filtrations, temps d’arrêt, définitions, exemples, théorème de Kolmogorov.
  • Martingales à temps discrets – Martingales, sur martingales (indexées par N). Inégalités de Doob, théorème d'arrêt. Théorème de convergence presque sûre, convergence dans L1 et équi-intégrabilité, convergence dans Lp. Applications: loi du 0-1, loi forte des grands nombres, convergence des U-statistiques, convergence du test du rapport de vraisemblance, filtrage…
  • Chaînes de Markov à états discrets – Chaîne de Markov à espace d’états fini et dénombrable. Propriété de Markov forte. Récurrence et transience. Probabilité/mesure invariante. Théorèmes limites. Applications aux algorithmes d’optimisation stochastiques; simulation de loi (MCMC) / recuit simulé
  • Notions sur les processus de Poisson, de Wiener, et processus Gaussiens

Références

BREMAUD P. (1999). Markov Chains, Gibbs Fields, Monte Carlo Simulation, and Queues, Springer. [21 BRE 00 A]WILLIAMS D. (1997). Probability with Martingales, Cambridge University Press. [16 WIL 00 A]