Année universitaire : 2025–2026. J’enseigne à l’Université Bourgogne Europe (UBE), principalement à l’UFR Sciences & Techniques. J’interviens en Masters et en Licence, et je participe à la préparation des oraux de l’agrégation (Modélisation, option A).
Aperçu rapide, formation par formation :
Masters PMG (M1 & M2) — blog.
Le master vise une formation de haut niveau pour les métiers des mathématiques (M1 généraliste, puis M2 spécialisé).
M1 (resp. : Daniel Faenzi) ; M2 (resp. : Peggy Cénac).
M2 — Modèles aléatoires (CM/TD/TP Python) — UE mutualisée MIGS2 & PMG2 (en collaboration avec Arnaud Rousselle et Peggy Cénac).
M2 — Préparation à l’agrégation — modélisation, option A (proba–stat), oraux.
Encadrement régulier de mémoires de M1–M2 PMG et M1–M2 MIGS (environ un par an en moyenne).
Encadrement de stages de recherche :
Thibaut Duboux (2021) — Marches maximales entropiques sur $\mathbb{N}$.
Gaëtan Maréchal (2025) — Marches maximales entropiques et principe des grandes déviations.
Colles en classes préparatoires au lycée Carnot (Dijon), filières MP/MP* et MPSI.
Dans le passé, colles également en PTSI et BCPST.
Détails des enseignements et ressources
MIGS2-PMG2 — Modèles aléatoires
Résumé : Chaînes de Markov à espace d’état fini ; irréductibilité, apériodicité ; théorème de Perron–Frobenius ; théorème ergodique. Algorithmes de Monte Carlo par chaînes de Markov : Metropolis–Hastings, échantillonneur de Gibbs. Méthode du recuit simulé (applications et exemples).
Ressources :
— Formulaire.pdf : Formulaire de probabilités (très succinct) — rappels : convergence en loi, lemmes de Borel–Cantelli, LFGN (loi forte des grands nombres), TCL, martingales, chaînes de Markov.
— Metropolis-Hasting.pdf : Présentation de l’algorithme Metropolis–Hastings et de la méthode du recuit simulé.
— TD.pdf : Feuille d’exercices sur les chaînes de Markov à espace d’état fini.
— Vidéo de David Louapre, de la chaîne YouTube Science Étonnante, illustrant la méthode du recuit simulé pour le déchiffrage de code secret.
Plus de détails dans le billet de blog.
Science Étonnante - Recuit simulé
MIGS2 — Algorithmes stochastiques 2
Résumé : Algorithme EM (modèles de mélange, clustering). Gradient stochastique ; application à la régression logistique.
Ressources :En préparation...
PMG2 — Préparation Agrégation — Modélisation (option A proba–stat)
Résumé : Rappels de convergence et caractérisation des lois ; vecteurs gaussiens ; espérance et loi conditionnelles en cadre général.
Ressources :
— Poly-Proba.pdf : Notes de cours de probabilités rédigées par Samuel Herrmann.
— TD-Proba.pdf : Feuille d’exercices sur les notions abordées.
MIGS1-PMG1 — Algorithmes stochastiques
Résumé : Simulation de variables aléatoires (fonction de répartition, méthode du rejet), méthodes de Monte Carlo et réduction de variance, martingales, algorithme de Robbins–Monro, chaînes de Markov.
— Tables.pdf : Formulaire de statistique pour le M1 avec des tables de lois.
L3 — Probabilités
Résumé : Probabilités dans le cadre de la théorie de la mesure et de l’intégration de Lebesgue.
Ressources :En préparation...
L2 — Probabilités (CM)
Résumé : Espaces de probabilité discrets, indépendance, probabilité conditionnelle ; v.a. discrètes et introduction aux v.a. continues à densité ; fonction de répartition et fonction génératrice ; espérance, variance, covariance ; inégalités de Markov et de Tchebychev ; loi faible des grands nombres, introduction à la loi forte et au théorème central limite ; introduction aux graphes et aux chaînes de Markov (2–3 états).