Introduction aux modèles graphiques

Francis Bach, Ecole des Mines de Paris

Master recherche spécialité "Mathématiques Appliquées",
Parcours M2 Mathématiques, Vision et Apprentissage (ENS Cachan), 1er semestre, 2005/2006
 


Le cours a lieu tous les mardis de 10h a 12h dans la salle 103 du bâtiment Cournot de l'ENS Cachan.
ATTENTION (changé le 29 novembre 2005) :
    (1) Pas de cours le 6 décembre 2005.
    (2) Le dernier cours aura lieu le 13 décembre de 10h30 à 12h30.
    (3) La présentation des projets aura lieu de 13 janvier de 9h à 12h.



Exercices à rendre (obligatoires)

Pour le 8 novembre 2005:  [pdf], correction [pdf].
Pour le 22 novembre 2005:  [pdf], données: [classification.dat] [classification.test] .
Pour le 13 décembre 2005:  [pdf], données: [EMGaussienne.dat] [EMGaussienne.test].



Projets



Description

Ce cours porte sur la modélisation statistique de données complexes multivariées. Il est centré sur le formalisme des modèles graphiques probabilistes (aussi appelés réseaux Bayésiens), qui se trouvent à la frontière entre la théorie des graphes et les probabilités. Ce formalisme regroupe un grand nombre de modèles existants (modèle de Markov cachés, filtres de Kalman) et définit la sémantique et les algorithmes d’inférence et d’apprentissage nécessaires pour étendre naturellement ces modèles à des situations plus complexes. Des applications des modèles graphiques à des problèmes de vision, traitement du signal, intelligence artificielle et bioinformatique seront présentées.
 


Références - Polycopié

Le cours sera basé sur le livre en préparation de Michael Jordan (UC Berkeley) sur les modèles graphiques, et sur des articles scientifiques appliquant ces techniques. Le polycopie tiré du livre sera disponible pour les élèves suivant ce cours. 
 


Programme prévisionnel

  Date du cours chapitre  du polycopié
Introduction aux modèles graphiques 11/10
18/10
2
Algorithme d'élimination 18/10
25/10
3
Algorithme de propagation sur les arbres 25/10 4
Concepts statistiques 25/10 5
Régression linéaire 8/11 6
Classification linéaire 8/11 7
Famille exponentielles et modèles linéaires généralisés 29/11
8
Apprentissage pour les modèles complètement observes 15/11 9
Mixtures - EM 15/11 10-11
Modèles de Markov cachés 22/11  12
Analyse factorielle 22/11 13-14
Filtres de Kalman 29/11  15
Résultats théoriques sur les propriétés de Markov   16
algorithme de l'arbre de jonctions 29/11 17-18
Features, entropie maximum   19
Méthodes d'échantillonage   21