Découvrez les nouveautés de cette version : Fonctionnalités, améliorations et évolutions vous attendent ! 👉 Cliquez ici pour en savoir plus

Méthodes de Monte-Carlo

Modifié par Rémi Peyre le 01/05/2025 - 18:42

Méthodes de Monte-Carlo

8KUAAN11

 ECTS

2

SEMESTRE

S8

CM

TD

TP

EI

Travail personnel

7 h

14 h

0 h

0 h

36 h

Langues d'enseignement

Français

 

Responsable(s)

Rémi PEYRE, maitre de conférenceshttps://play-lh.googleusercontent.com/kMofEFLjobZy_bCuaiDogzBcUT-dz3BBbOrIEjJ-hqOabjK8ieuevGe6wlTD15QzOqwindex.png

Mots clefs

Simulation aléatoire ; Méthode de Monte-Carlo ; Réduction de la variance ; Méthodes MCMC ; Recuit simulé ; Descente de gradient stochastique

Prérequis

Théorie des probabilités (niveau M1) ; Rudiments de Python

Objectif pédagogique

À l’issue du module, les étudiants seront en mesure d'utiliser la simulation aléatoire pour résoudre des problèmes déterministes complexes.

Organisation et contenus

   Ce cours se compose de deux volets distincts (quoique étroitement connectés), qui partagent en commun le fait de recourir à des procédés de simulation aléatoire pour résoudre des problèmes dont l'énoncé est pourtant défini de manière parfaitement déterministe, sans faire intervenir d'aléa.

   Le premier volet du cours porte sur la « méthode de Monte-Carlo » pour évaluer une quantité de nature intégrale (donc déterministe), consistant à écrire celle-ci, dans un premier temps, en tant qu'espérance probabiliste, puis à estimant statistiquement cette espérance à l'aide de simulations aléatoires. Dans plusieurs cas d'usage, le résultat approché que cette méthode fournit concernant le calcul de la quantité d'intérêt s'avèrera plus précis que celui qu'on aurait obtenu par des méthodes d'analyse numérique “classiques” !

   Outre l'estimation de la quantité d'intérêt en tant que telle, le cours expliquera aussi comment déterminer l'intervalle de confiance associé à l'estimateur obtenu. Il peut être important de disposer de moyens de réduire la largeur de l'intervalle qu'on arrive à obtenir pour un cout de calcul donné : cela est l'objectif des techniques dites de réduction de la variance. Le cours présente quatre de ces techniques : l'échantillonnage préférentiel ; le conditionnement ; le couplage ; et la variable de contrôle.

   Dans certaines situations d'usage, la simulation des variables aléatoires s'avère être un problème plus complexe que la mise en œuvre de la méthode de Monte-Carlo elle-même. Le cours expliquera comment on peut alors, dans de nombreux cas, utiliser les méthodes de chaines de Markov pour Monte-Carlo [dites « méthodes MCMC »] pour pallier cette difficulté.

   À partir du chapitre sur les chaines de Markov pour Monte-Carlo, on effectuera une transition naturelle vers le second volet du cours, consacré pour sa part aux méthodes stochastiques d'optimisation de fonctions. On commencera par présenter la plus célèbre de ces méthodes, à savoir le recuit simulé : celui-ci étant étroitement apparenté à l'algorithme MCMC de Metropolis-Hastings qu'on aura vu précédemment. Le cours explique aussi comment on peut améliorer le recuit simulé par l'idée de recuit parallèle (« parallel tempering »).

   Le dernier chapitre, enfin, sera consacré à la méthode de descente de gradient stochastique, un procédé d'optimisation qui est notamment au cœur de l'entrainement des réseaux de neurones artificiels !

   Ce module comprendra une large partie de mise en œuvre informatique des concepts étudiés, que nous effectuerons en l'occurrence avec Python.

Compétences

Niveaux

Description et verbes opérationnels

Connaître 

Connaitre le protocole d'estimation d'une espérance par méthode de Monte-Carlo, et la façon de déterminer l'intervalle de confiance associé

Connaitre les principales techniques de réduction de la variance

Connaitre le principe des méthodes MCMC, en particulier les chaines de Metropolis-Hastings

Connaitre l'algorithme de recuit simulé ; l'algorithme de recuit parallèle ; l'algorithme de descente de gradient stochastique

Comprendre

Comprendre dans quelles situations la méthode de Monte-Carlo pour le calcul d'une espérance est pertinente, quelles sont ses forces et ses limites

Comprendre le comportement des chaines de Markov impliquées dans les différents algorithmes d'évolution stochastique abordés dans ce cours

Appliquer 

Déterminer théoriquement les quantités auxiliaires requises par les méthodes abordées dans ce cours : fonction de quantile d'une loi à simuler ; espérance d'une variable de contrôle ; ratios de densité d'une mesure à échantillonner par Metropolis-Hastings ; gradient de la fonction dont on optimise l'espérance ; etc.

Implémenter informatiquement une méthode de Monte-Carlo, une technique de réduction de la variance

Implémenter informatiquement un algorithme de Metropolis-Hastings, de recuit simulé (éventuellement parallèle), de descente de gradient stochastique

Analyser 

Choisir une technique de réduction de la variance adaptée au calcul considéré

Identifier les situations où les chaines de Markov pour Monte-Carlo sont à privilégier sur la simulation “directe”

Reconnaitre une situation se prêtant à telle ou telle méthode stochastique d'optimisation

Régler adroitement les paramètres des algorithmes stochastiques

Synthétiser

 

Évaluer

Porter un regard critique sur la convergence d'un estimateur de Monte-Carlo

Porter un regard critique sur la solution obtenue par un procédé stochastique d'optimisation

Contributions aux Objectifs de Développement Durable des Nations Unies

Modalités de contrôle des connaissances et compétences

Contrôle Continu

Examen écrit

Oral / Soutenance

Rapport / Projet