Sélection de modèles et sélection d'estimateurs pour l'Apprentissage statistique

(Cours Peccot 2011)


J'ai donné ce cours au Collège de France (3 rue d'Ulm, Paris 5e), en quatre séances de deux heures chacune, du 10 au 31 Janvier 2011.

Avertissement: Il se peut qu'il reste des coquilles ou imprécisions des les transparents et notes de cours proposés ci-dessous. Si vous pensez en avoir trouvé, merci de me le signaler par mail.


Références:

[1] Sylvain Arlot. V-fold cross-validation improved: V-fold penalization. arXiv:0802.0566v2.
[2] Sylvain Arlot. Model selection by resampling penalization. Electron. J. Stat., 3:557-624 (electronic), 2009.
[3] Sylvain Arlot et Francis Bach. Data-driven calibration of linear estimators with minimal penalties. Proceedings of NIPS 2009.
[4] Sylvain Arlot et Alain Celisse. Segmentation of the mean of heteroscedastic data via cross-validation. Statistics and Computing, 2010.
[5] Sylvain Arlot et Alain Celisse. A survey of cross-validation procedures for model selection. Statist. Surv., 4:40-79, 2010.
[6] Sylvain Arlot et Pascal Massart. Data-driven calibration of penalties for least-squares regression. J. Mach. Learn. Res., 10:245-279 (electronic), 2009.
[7] Lucien Birgé et Pascal Massart. Minimal penalties for Gaussian model selection. Probab. Theory Related Fields, 138(1-2):33-73, 2007.
[8] Matthieu Lerasle. Optimal model selection in density estimation. hal-00422655, 2009.
[9] Adrien Saumard. Nonasymptotic quasi-optimality of AIC and the slope heuristics in maximum likelihood estimation of density using histogram models. hal-00512310, 2010.
[10] Adrien Saumard. The slope heuristics in heteroscedastic regression. hal-00512306, 2010.



Résumé

Le problème de la prédiction est l'un des principaux problèmes de l'apprentissage statistique : étant donné un échantillon (X_i, Y_i)_{i=1..n} de variables aléatoires indépendantes et identiquement distribuées, le but est de prédire une nouvelle réalisation Y_{n+1} de la variable d'intérêt à l'aide de X_{n+1} (les variables explicatives) uniquement.

De nombreux estimateurs (ou règles d'apprentissage) ont été proposés pour ce problème, chacun dépendant en général d'un ou plusieurs paramètres, dont la calibration précise est cruciale pour obtenir une performance optimale.

Cette série de quatre cours abordera le problème de la sélection d'estimateurs à l'aide des données uniquement, principalement dans le cadre de la prédiction. Ceci comprend en particulier le problème de la sélection de modèles (où chaque estimateur est obtenu par minimisation du risque empirique sur un modèle), et celui de la calibration de paramètres (par exemple, le paramètre de régularisation pour les méthodes de minimisation du risque empirique régularisé).

Nous considérerons deux approches principales : la pénalisation du risque empirique (avec une forme de pénalité déterministe ou estimée à l'aide des données), et la validation croisée.

Nous proposerons des réponses aux questions suivantes :
- Quels résultats mathématiques peuvent être prouvés pour les procédures de sélection existantes ?
- Comment ces résultats peuvent-ils aider à choisir en pratique une procédure de sélection pour un problème statistique donné ?
- Comment la théorie peut-elle guider la définition de nouvelles procédures de sélection ?



Retour à l'index - Back to index