En statistique, la distance de Mahalanobis est une mesure de distance mathématique introduite par Prasanta Chandra Mahalanobis en 1936[1]. Elle est basée sur la corrélation entre des variables par lesquelles différents modèles peuvent être identifiés et analysés. C'est une manière utile de déterminer la similarité entre une série de données connues et inconnues. Elle diffère de la distance euclidienne par le fait qu'elle prend en compte la variance et la corrélation de la série de données. Ainsi, à la différence de la distance euclidienne où toutes les composantes des vecteurs sont traitées indépendamment et de la même façon, la distance de Mahalanobis accorde un poids moins important aux composantes les plus dispersées. Dans le cas de l'analyse des signaux, et en supposant que chaque composante soit une variable aléatoire de type gaussien, cela revient à minimiser l'influence des composantes les plus bruitées (celles ayant la plus grande variance).
La distance de Mahalanobis est souvent utilisée pour la détection de données aberrantes dans un jeu de données, ou bien pour déterminer la cohérence de données fournies par un capteur par exemple : cette distance est calculée entre les données reçues et celles prédites par un modèle.
En pratique, la distance de Mahalanobis d'un vecteur à plusieurs variables à un ensemble de vecteurs de valeurs moyennes et possédant une matrice de covarianceΣ est définie comme suit :
La distance de Mahalanobis peut aussi être définie comme étant la mesure de dissimilarité entre deux vecteurs aléatoires et de même distribution avec une matrice de covariance Σ :
Si la matrice de covariance est la matrice identité, cette distance est simplement la distance euclidienne. Si la matrice de covariance est diagonale, on obtient la distance euclidienne normalisée :
où σi est l'écart type de xi sur la série de données.
Le vecteur aléatoire X est défini à partir de la loi normale multidimensionnelle centrée réduite de la manière suivante: si , alors où Σ = AA' (où A' désigne la matrice transposée de A). Par le théorème spectral appliqué à Σ (symétrique réelle par construction), il existe une matrice Oorthogonale et une matrice Λdiagonale telles que Σ = OΛO'. De plus, comme Σ = AA', elle est définie positive et donc a un sens.
Dès lors, on peut écrire et donc on peut choisir dans la définition de X.
En outre, nous avons
↑(en) P. C. Mahalanobis, « On the generalised distance in statistics », Proceedings of the National Institute of Sciences of India, vol. 2, no 1, , p. 49–55 (lire en ligne)