Filtre particulaire

Les filtres particulaires, aussi connus sous le nom de méthodes de Monte-Carlo séquentielles, sont des techniques sophistiquées d'estimation de modèles fondées sur la simulation.

Résultat d'un filtrage particulaire (courbe rouge) basé sur les données observées produites depuis la courbe bleue.

Les filtres particulaires sont généralement utilisés pour estimer des réseaux bayésiens et constituent des méthodes 'linéaires' analogues aux méthodes de Monte-Carlo par chaînes de Markov qui elles sont des méthodes 'non-linéaires' (donc a posteriori) et souvent similaires aux méthodes d'échantillonnage préférentiel.

S'ils sont conçus correctement, les filtres particulaires peuvent être plus rapides que les méthodes de Monte-Carlo par chaînes de Markov. Ils constituent souvent une alternative aux filtres de Kalman étendus avec l'avantage qu'avec suffisamment d'échantillons, ils approchent l'estimé Bayésien optimal. Ils peuvent donc être rendus plus précis que les filtres de Kalman. Les approches peuvent aussi être combinées en utilisant un filtre de Kalman comme une proposition de distribution pour le filtre particulaire.

Objectif

modifier

L'objectif d'un filtre à particule est d'estimer la densité postérieure des variables d'état compte tenu des variables d'observation. Le filtre de particules est conçu pour un modèle de Markov caché, où le système se compose de variables cachées et observables. Les variables observables (processus d'observation) sont liées aux variables cachées (state-processus) par une forme fonctionnelle connue. De même, le système dynamique décrivant l'évolution des variables d'état est également connu de façon probabiliste[1].

Un filtre de particules génériques estime la distribution postérieure des états cachés en utilisant le procédé de mesure d'observation. Considérez un espace d'état illustré dans le diagramme ci-dessous[2]

 


Le problème de filtrage consiste à estimer séquentiellement les valeurs des états cachés   , compte tenu des valeurs du processus d'observation  , à tout moment étape  .

Toutes les estimations bayésiennes de   suivent de la densité postérieure  . La méthodologie du filtre à particules fournit une approximation de ces probabilités conditionnelles en utilisant la mesure empirique associée à un algorithme de type génétique. En revanche, l'approche d'échantillonnage Méthode de Monte-Carlo par chaînes de Markov ou d'importance modéliserait la postérieure complète  .

Le modèle d'observation du signal

modifier

Les méthodes de particules supposent souvent que   et les observations   peuvent être modélisées sous cette forme :

  •   est un processus Markov sur   (pour un certain  ) qui évolue en fonction de la densité de probabilité de transition  . Ce modèle est également souvent écrit de manière synthétique comme[3],[2]
      avec une densité de probabilité initiale  .
  • Les observations   prennent des valeurs dans un certain espace d'état sur   (pour un certain  ) et sont conditionnellement indépendantes à condition que   soient connus. En d'autres termes, chaque   dépend uniquement de  . En outre, nous supposons que les distributions conditionnelles pour   étant donné   sont absolument continues, et de manière synthétique, nous avons
     

Un exemple de système avec ces propriétés est[2]:

 
 

  et   sont des séquences mutuellement indépendantes avec les fonctions de densité de probabilité   et   connues sont des fonctions connues. Ces deux équations peuvent être considérées comme des équations d'espace d'état et ressemblent aux équations d'espace d'état pour le filtre de Kalman. Si les fonctions g et h dans l'exemple ci-dessus sont linéaires, et si   et   sont toutes deux gaussiennes, le Filtre de Kalman trouve la distribution de filtrage bayésienne exacte. Sinon, les méthodes basées sur le filtre de Kalman sont une approximation de premier ordre (EKF) ou une approximation de second ordre (UKF en général, mais si la distribution de probabilité est gaussienne, une approximation de troisième ordre est possible).

L'hypothèse selon laquelle la distribution initiale et les transitions de la chaîne de Markov sont absolument continues par rapport à la mesure de Lebesgue peuvent être assouplies. Pour concevoir un filtre à particules, nous devons simplement supposer que nous pouvons échantillonner les transitions   de la chaîne de Markov   et calculer la probabilité Fonction   (voir par exemple la description de la sélection de sélection génétique du filtre à particules donné ci-dessous). L'hypothèse absolument continue sur les transitions de Markov de   ne sert qu'à dériver de manière informelle (et plutôt abusive) différentes formules entre les distributions postérieures en utilisant la règle de Bayes pour les densités conditionnelles.

Modélisation

modifier

Les filtres particulaires font l'hypothèse que les états   et les observations   peuvent être modélisées sous la forme suivante :

  • La suite des paramètres   forme une chaîne de Markov de premier ordre, telle que   et avec une distribution initiale  .
  • Les observations   sont indépendantes conditionnellement sous réserve que les   soient connus. En d'autres termes, chaque observation   ne dépend que du paramètre   :  

Un exemple de ce scénario est  

où à la fois   et   sont des séquences mutuellement indépendantes et distribuées à l'identique avec des fonctions de densité de probabilité connues et où   et   sont des fonctions connues. Ces deux équations peuvent être vues comme des équations de l'espace d'état et ressemblent à celles du filtre de Kalman.

Si les fonctions   et   étaient linéaires, et si à la fois   et   étaient des gaussiennes, alors le filtre de Kalman trouve la distribution de filtrage bayésien exacte. Dans le cas contraire, les méthodes à base de filtre de Kalman donnent une estimation de premier ordre. Les filtres particulaires donnent également des approximations, mais avec suffisamment de particules, les résultats peuvent être encore plus précis.

Approximation de Monte-Carlo

modifier

Les méthodes à particules, comme toutes les méthodes à base d'échantillonnages (telles que les MCMC), créent un ensemble d'échantillons qui approchent la distribution de filtrage  . Ainsi, avec   échantillons, les valeurs espérées vis-à-vis de la distribution de filtrage sont approchées par :    est la (L)-ième particule à l'instant  ; et  , de la façon habituelle des méthodes Monte-Carlo, peut donner tous les données de la distribution (moments, etc.) jusqu'à un certain degré d'approximation.

En général, l'algorithme est répété itérativement pour un nombre donné de valeurs   (que nous noterons  ).

Initialiser   pour toutes les particules fournit une position de départ pour créer  , qui peut être utilisé pour créer  , qui peut être utilisé pour créer  , et ainsi de suite jusqu'à  .

Une fois ceci effectué, la moyenne des   sur toutes les particules (ou  ) est approximativement la véritable valeur de  .

Échantillonnage avec rééchantillonnage par importance (SIR)

modifier

L'échantillonnage avec rééchantillonnage par importance ou Sampling Importance Resampling (SIR) est un algorithme de filtrage utilisé très couramment. Il approche la distribution de filtrage   par un ensemble de particules pondérées :  .

Les poids d'importance   sont des approximations des probabilités (ou des densités) a posteriori relatives des particules telles que  .

L'algorithme SIR est une version récursive de l'échantillonnage d'importance. Comme en échantillonnage par importance, l'espérance de la fonction   peut être approchée comme une moyenne pondérée :  

La performance de l'algorithme est dépendante du choix des distributions d'importances :  .

La distribution d'importance optimale est donnée comme :  

Cependant, la probabilité de transition est souvent utilisée comme fonction d'importance, comme elle est plus aisée de calculer, et cela simplifie également les calculs des poids d'importance subséquents :  

Les filtres à rééchantillonnage par importance (SIR) avec des probabilités de transitions comme fonction d'importance sont connues communément comme filtres à amorçage (bootstrap filters) ou algorithme de condensation.

Le rééchantillonnage permet d'éviter le problème de la dégénérescence de l'algorithme. On évite ainsi les situations où tous les poids d'importance sauf un sont proches de zéro. La performance de l'algorithme peut aussi être affectée par le choix de la méthode de rééchantillonnage appropriée. Le rééchantillonnage stratifié proposé par Kitagawa (1996) est optimal en termes de variance.

Un seul pas de rééchantillonnage d'importance séquentiel se déroule de la façon suivante :

  1. Pour  , on tire les échantillons des distributions d'importances :  
  2. Pour  , on évalue les poids d'importance avec une constante de normalisation :  
  3. Pour   on calcule les poids d'importance normalisés :  
  4. On calcule une estimation du nombre effectif de particules comme  
  5. Si le nombre effectif de particules est plus petit qu'un seuil donné  , alors on effectue le rééchantillonnage :
    1. Tirer   particules de l'ensemble de particules courant avec les probabilités proportionnelles à leur poids puis remplacer l'ensemble des particules courantes avec ce nouvel ensemble.
    2. Pour   l'ensemble  .

Le terme Rééchantillonnage d'importance séquentiel (Sequential Importance Resampling) est aussi utilisé parfois pour se référer aux filtres SIR.

Échantillonnage séquentiel par importance (SIS)

modifier

L'échantillonnage séquentiel par importance ou Sequential Importance Sampling (SIS) est similaire à l'échantillonnage avec rééchantillonnage par importance (SIR) mais sans l'étape de rééchantillonnage.

Version directe de l'algorithme

modifier

La version directe de l'algorithme est relativement simple en comparaison des autres algorithmes de filtrage particulaire et utilise la composition et le rejet. Pour produire un simple échantillon   à   de  :

(1) Fixer p=1
(2) Créer uniformément L depuis  
(3) Créer un test   depuis sa distribution  
(4) Créer les probabilités de   en utilisant   depuis    est la valeur mesurée
(5) Créer une autre uniformément u depuis  
(6) Comparer u et  
(a) Si u est plus grand alors répéter depuis l'étape (2)
(b) Si u est plus petite alors sauver   comme   et incrémenter p
(c) Si p > P alors arrêter

L'objectif est de créer P particules au pas   en n'utilisant que les particules du pas  . Cela requiert qu'une équation markovienne puisse être écrite (et calculée) pour créer un   en se basant seulement sur  . Cet algorithme utilise la composition de P particules depuis   pour créer à  .

Cela peut être plus facilement visualisé si   est vu comme un tableau à deux dimensions. Une dimension est   et l'autre dimension correspond au nombre de particules. Par exemple,   serait la Lème particule à l'étape   et peut être donc écrite   (comme effectué plus haut dans l'algorithme).

L'étape (3) crée un potentiel   basé sur une particule choisie aléatoirement ( ) au temps   et rejette ou accepte cette particule à l'étape (6). En d'autres termes, les valeurs   sont calculées en utilisant les   calculées précédemment.

Notes et références

modifier
  1. (en) M. Sanjeev Arulampalam, « A Tutorial on Particle Filters for Online Nonlinear/Non-Gaussian Bayesian Tracking », IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 50, NO. 2,‎
  2. a b et c (en) « Particle Filters »
  3. (en) Bishop, Christopher M., 1959-, Pattern recognition and machine learning, New York, Springer, , 738 p. (ISBN 978-0-387-31073-2, OCLC 869873325, lire en ligne)

Voir aussi

modifier

Bibliographie

modifier
  • Sequential Monte Carlo Methods in Practice, par A Doucet, N de Freitas et N Gordon. Publié par Springer.
  • On Sequential Monte Carlo Sampling Methods for Bayesian Filtering, par A Doucet, C Andrieu et S. Godsill, Statistics and Computing, vol. 10, no. 3, p. 197-208, 2000 CiteSeer link
  • Tutorial on Particle Filters for On-line Nonlinear/Non-Gaussian Bayesian Tracking (2001); S. Arulampalam, S. Maskell, N. Gordon et T. Clapp; CiteSeer link

Liens externes

modifier