Statistique 1


Objectif

Ce cours présente les bases théoriques de la modélisation statistique, essentiellement dans un cadre paramétrique. L’approche inférentielle est privilégiée, et l’on traitera avant tout des méthodes d’estimation des paramètres, ainsi que de leurs propriétés, notamment en terme d’optimalité (asymptotique ou à distance finie). La théorie des tests d’hypothèses sera aussi abordée.

Acquis de la formation : à l’issue de la formation, l’étudiant saura :

– Enoncer et appliquer les principes généraux d'estimation paramétrique, tels que M-estimation, Z-estimation, estimation bayésienne
– Enoncer et appliquer la théorie des intervalles de confiance.
– Enoncer et appliquer les principes généraux de construction de tests (asymptotiques et non-asymptotiques), les appliquer dans des situations courantes
– Lors d’un projet en R, simuler des données synthétiques, leur appliquer les techniques statistiques et en analyser les résultats

Mode d'évaluation:

La note finale du cours sera la moyenne de la note de contrôle continu (50%) et de l'examen final (50%). La note de contrôle continue est égale à la moyenne de la note de participation et de la note de projet. La note de participation est la moyenne de la note de présence et de la note de participation aux TD, laissée à la l'appreciation du chargé de TD.

 

 

Plan

– Principes généraux – Les buts de la statistique, les diverses approches (inférentielle, bayésienne). Les types de modèles statistiques (paramétrique, semi- et non-paramétriques). Echantillonnage, information apportée par un échantillon (Fisher, Kullback), statistiques (exhaustives, libres), modèles exponentiels.
– Problématique de l'estimation. Approche décisionnelle: admissibilité. Estimation sans biais : optimalité, borne FDCR, efficacité. Estimation asymptotique: maximum de vraisemblance, méthode des moments, efficacité asymptotique. Estimation bayésienne: formule de Bayes, estimateur de Bayes, approches subjective et objective.
– Tests d'hypothèses – Optique de Neyman-Pearson (région de confiance, puissance, niveau, risques). Tests simples, Lemme de Neyman-Pearson. Test de Student. Tests asymptotiques (Wald, rapport de vraisemblance). Tests d'adéquation (Khi-deux, Kolmogorov).
– Statistique computationnelle : Newton-Raphson, Algorithme EM, introduction au Gibbs sampling, Bootstrap.

Références

Lehmann E.L. et G. Casella (2003) Theory of point estimation, 2nd edition, Springer-Verlag [21 LEH 00 D]Tsybakov A. (2006) Polycopié du cours de Statistique Appliquée, Université Pierre et Marie Curie. Disponible à l'adresse : www.crest.fr/ckfinder/userfiles/files/Pageperso/tsybakov/StatAppli\_tsybakov.pdf
Wasserman L. (2004) All of Statistics, Springer-Verlag [21 WAS 00 A]