En théorie des probabilités , la fonction de masse [ 1] est la fonction qui donne la probabilité de chaque issue (c.-à-d. résultat élémentaire) d'une expérience aléatoire. C'est souvent ainsi que l'on définit une loi de probabilité discrète . Elle se distingue de la fonction de densité, c.-à-d. de la densité de probabilité , en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues , et que ce sont leurs intégrales sur des domaines qui ont valeurs de probabilités (et non leurs valeurs en des points).
Fonction de masse d'une loi de probabilité
modifier
La loi de probabilité d'une variable aléatoire discrète. Le support est composé des singletons {1}, {3}, et {7}. Les probabilités associées sont respectivement 0,20, 0,50, et 0,30. Un ensemble ne contenant pas ces points se voit attribuer une probabilité nulle.
Soit
(
Ω
,
A
,
P
)
{\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )}
un espace probabilisé .
On appelle fonction de masse de
P
,
{\displaystyle \mathbb {P} ,}
et on note
p
,
{\displaystyle p,}
la fonction de
Ω
{\displaystyle \Omega }
dans
[
0
,
1
]
{\displaystyle [0,1]}
définie par :
∀
ω
∈
Ω
,
p
(
ω
)
=
{
P
(
{
ω
}
)
si
{
ω
}
∈
A
,
0
si
{
ω
}
∉
A
.
{\displaystyle \forall \omega \in \Omega ,\quad p(\omega )={\begin{cases}\mathbb {P} {\big (}\{\omega \}{\big )}&{\text{si }}\{\omega \}\in {\mathcal {A}},\\0&{\text{si }}\{\omega \}\notin {\mathcal {A}}.\end{cases}}}
Si
P
{\displaystyle \mathbb {P} }
est discrète , alors pour tout
A
∈
A
:
{\displaystyle A\in {\mathcal {A}}:}
P
(
A
)
=
∑
ω
∈
A
∩
Ω
a
p
(
ω
)
=
∑
ω
∈
Ω
a
p
(
ω
)
δ
ω
(
A
)
,
{\displaystyle \mathbb {P} (A)=\sum _{\omega \in A\cap \Omega _{a}}p(\omega )=\sum _{\omega \in \Omega _{a}}p(\omega )\delta _{\omega }(A),}
où
Ω
a
⊂
Ω
{\displaystyle \Omega _{a}\subset \Omega }
est l'ensemble des atomes de
P
,
{\displaystyle \mathbb {P} ,}
et
δ
ω
{\displaystyle \delta _{\omega }}
la mesure de Dirac au point
ω
.
{\displaystyle \omega .}
Un dé asiatique à six faces.
Lançons un dé équilibré à six faces. On a :
L'univers des issues possibles est
Ω
=
{
1
,
2
,
3
,
4
,
5
,
6
}
.
{\displaystyle \Omega =\{1,2,3,4,5,6\}.}
La tribu des événements possibles est
A
=
P
(
{
1
,
2
,
3
,
4
,
5
,
6
}
)
{\displaystyle {\mathcal {A}}={\mathcal {P}}{\big (}\{1,2,3,4,5,6\}{\big )}}
(par exemple ; l'important est que
A
{\displaystyle {\mathcal {A}}}
soit une tribu (sur
{
1
,
2
,
3
,
4
,
5
,
6
}
{\displaystyle \{1,2,3,4,5,6\}}
) qui contienne au moins les événements physiquement possibles de l'expérience aléatoire).
Le dé n'est pas pipé, donc les six issues possibles sont équiprobables ; or
P
(
{
1
,
2
,
3
,
4
,
5
,
6
}
)
=
1
,
{\displaystyle \mathbb {P} {\big (}\{1,2,3,4,5,6\}{\big )}=1,}
donc chacune d'elles a la probabilité
1
6
.
{\displaystyle {\tfrac {1}{6}}.}
Dans cet exemple simple :
∀
ω
∈
{
1
,
2
,
3
,
4
,
5
,
6
}
,
{
ω
}
∈
P
(
{
1
,
2
,
3
,
4
,
5
,
6
}
)
.
{\displaystyle \forall \omega \in \{1,2,3,4,5,6\},\ \{\omega \}\in {\mathcal {P}}{\big (}\{1,2,3,4,5,6\}{\big )}.}
Donc la fonction de masse de
P
,
{\displaystyle \mathbb {P} ,}
notée
p
,
{\displaystyle p,}
de
{
1
,
2
,
3
,
4
,
5
,
6
}
{\displaystyle \{1,2,3,4,5,6\}}
vers
[
0
,
1
]
,
{\displaystyle [0,1],}
est définie par :
∀
ω
∈
{
1
,
2
,
3
,
4
,
5
,
6
}
,
p
(
ω
)
=
P
(
{
ω
}
)
=
1
6
.
{\displaystyle \forall \omega \in \{1,2,3,4,5,6\},\quad p(\omega )=\mathbb {P} {\big (}\{\omega \}{\big )}={\tfrac {1}{6}}.}
(Voir l'article Loi uniforme discrète pour une présentation mathématiquement un peu différente du lancer d’un même dé équilibré à six faces.)
Fonction de masse d'une loi de probabilité associée à une variable aléatoire
modifier
Soit
(
Ω
,
A
,
P
)
{\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )}
un espace probabilisé,
(
X
,
B
)
{\displaystyle ({\textsf {X}},{\mathcal {B}})}
un espace probabilisable , et
X
:
Ω
⟶
X
{\displaystyle X:\Omega \longrightarrow {\textsf {X}}}
une variable aléatoire .
On appelle fonction de masse de
P
X
,
{\displaystyle \mathbb {P} _{X},}
et on note
p
X
,
{\displaystyle p_{X},}
la fonction de
X
{\displaystyle {\textsf {X}}}
dans
[
0
,
1
]
{\displaystyle [0,1]}
définie par :
∀
x
∈
X
,
p
X
(
x
)
=
{
P
X
(
{
x
}
)
si
{
x
}
∈
B
,
[
information douteuse
]
0
si
{
x
}
∉
B
;
[
information douteuse
]
=
{
P
X
(
{
x
}
)
si
x
∈
X
(
Ω
)
,
[
information douteuse
]
0
si
x
∉
X
(
Ω
)
.
{\displaystyle {\begin{aligned}\forall x\in {\textsf {X}},\quad p_{X}(x)&={\begin{cases}\mathbb {P} _{X}(\{x\})&{\text{si }}\{x\}\in {\mathcal {B}},{\color {royalblue}^{\mathbf {[} {\text{information douteuse}}\mathbf {]} }}\\0&{\text{si }}\{x\}\notin {\mathcal {B}}\ ;{\color {royalblue}^{\mathbf {[} {\text{information douteuse}}\mathbf {]} }}\end{cases}}\\&={\begin{cases}\mathbb {P} _{X}(\{x\})&{\text{si }}x\in X(\Omega ),{\color {royalblue}^{\mathbf {[} {\text{information douteuse}}\mathbf {]} }}\\0&{\text{si }}x\notin X(\Omega ).\end{cases}}\end{aligned}}}
∀
x
∈
X
,
p
X
(
x
)
=
{
P
X
(
{
x
}
)
(possiblement 0)
si
(
X
=
x
)
∈
A
,
[
suggestion de rectification
]
0
si
(
X
=
x
)
∉
A
.
[
suggestion de rectification
]
{\displaystyle \forall x\in {\textsf {X}},\quad p_{X}(x)={\begin{cases}\mathbb {P} _{X}{\big (}\{x\}{\big )}~~~{\text{(possiblement 0)}}&{\text{si }}(X=x)\in {\mathcal {A}},{\color {royalblue}^{\mathbf {[} {\text{suggestion de rectification}}\mathbf {]} }}\\0&{\text{si }}(X=x)\notin {\mathcal {A}}.{\color {royalblue}^{\mathbf {[} {\text{suggestion de rectification}}\mathbf {]} }}\end{cases}}}
Si
X
{\displaystyle X}
est discrète, alors pour tout
B
∈
B
:
{\displaystyle B\in {\mathcal {B}}:}
P
X
(
B
)
=
∑
x
∈
B
∩
X
a
p
X
(
x
)
=
∑
x
∈
X
a
p
X
(
x
)
δ
x
(
B
)
,
{\displaystyle \mathbb {P} _{X}(B)=\sum _{x\in B\cap {\textsf {X}}_{a}}p_{X}(x)=\sum _{x\in {\textsf {X}}_{a}}p_{X}(x)\delta _{x}(B),}
où
X
a
⊂
X
{\displaystyle {\textsf {X}}_{a}\subset {\textsf {X}}}
est l'ensemble des atomes de
P
X
,
{\displaystyle \mathbb {P} _{X},}
et
δ
x
{\displaystyle \delta _{x}}
la mesure de Dirac au point
x
.
{\displaystyle x.}
Le théorème de transfert donne, pour toute fonction
φ
:
X
⟶
R
:
{\displaystyle \varphi :{\textsf {X}}\longrightarrow \mathbb {R} :}
E
(
φ
(
X
)
)
=
∑
x
∈
X
a
φ
(
x
)
p
X
(
x
)
.
{\displaystyle \mathbb {E} {\big (}\varphi (X){\big )}=\sum _{x\in {\textsf {X}}_{a}}\varphi (x)p_{X}(x).}
Pour une loi continue , la fonction de masse est la fonction nulle , donc elle n'est pas pertinente. Si une loi continue n'est pas singulière (c.-à-d. si elle est absolument continue ), on utilise sa densité de probabilité .
Lançons une pièce de monnaie équilibrée ; soit
X
{\displaystyle X}
la variable aléatoire identifiant les résultats « pile » à 0 et « face » à 1. On a :
L'univers des issues possibles est
Ω
=
{
p
i
l
e
,
f
a
c
e
}
.
{\displaystyle \Omega =\{\mathrm {pile} ,\mathrm {face} \}.}
X
=
R
{\displaystyle {\textsf {X}}=\mathbb {R} }
(par exemple ; l'important est que
X
⊃
X
(
{
p
i
l
e
,
f
a
c
e
}
)
=
{
0
,
1
}
,
{\displaystyle {\textsf {X}}\supset X{\big (}\{\mathrm {pile} ,\mathrm {face} \}{\big )}=\{0,1\},}
puisque
X
:
{
p
i
l
e
,
f
a
c
e
}
⟶
X
{\displaystyle X:\{\mathrm {pile} ,\mathrm {face} \}\longrightarrow {\textsf {X}}}
).
La tribu des événements possibles est
A
=
P
(
{
p
i
l
e
,
f
a
c
e
}
)
{\displaystyle {\mathcal {A}}={\mathcal {P}}{\big (}\{\mathrm {pile} ,\mathrm {face} \}{\big )}}
(par exemple ; l'important est que
A
{\displaystyle {\mathcal {A}}}
soit une tribu (sur
{
p
i
l
e
,
f
a
c
e
}
{\displaystyle \{\mathrm {pile} ,\mathrm {face} \}}
) qui contienne au moins les événements physiquement possibles de l'expérience aléatoire).
B
=
P
(
R
)
{\displaystyle {\mathcal {B}}={\mathcal {P}}(\mathbb {R} )}
(par exemple ; l'important est que
B
{\displaystyle {\mathcal {B}}}
soit une tribu (sur
R
{\displaystyle \mathbb {R} }
) qui contienne au moins l'image directe par
X
{\displaystyle X}
des événements physiquement possibles).
La pièce n'est pas biaisée, donc les deux issues possibles sont équiprobables ; or
P
(
{
p
i
l
e
,
f
a
c
e
}
)
=
1
,
{\displaystyle \mathbb {P} {\big (}\{\mathrm {pile} ,\mathrm {face} \}{\big )}=1,}
donc
P
(
{
p
i
l
e
}
)
=
P
(
{
f
a
c
e
}
)
=
1
2
,
{\displaystyle \mathbb {P} {\big (}\{\mathrm {pile} \}{\big )}=\mathbb {P} {\big (}\{\mathrm {face} \}{\big )}={\tfrac {1}{2}},}
c.-à-d.
P
X
(
{
0
}
)
=
P
X
(
{
1
}
)
=
1
2
.
{\displaystyle \mathbb {P} _{X}{\big (}\{0\}{\big )}=\mathbb {P} _{X}{\big (}\{1\}{\big )}={\tfrac {1}{2}}.}
Donc la fonction de masse de
P
X
,
{\displaystyle \mathbb {P} _{X},}
notée
p
X
,
{\displaystyle p_{X},}
de
R
{\displaystyle \mathbb {R} }
vers
[
0
,
1
]
,
{\displaystyle [0,1],}
est définie par :
∀
x
∈
R
,
p
X
(
x
)
=
{
1
2
si
x
∈
{
0
,
1
}
,
0
si
x
∉
{
0
,
1
}
.
{\displaystyle \forall x\in \mathbb {R} ,\quad p_{X}(x)={\begin{cases}{\tfrac {1}{2}}&{\text{si }}x\in \{0,1\},\\0&{\text{si }}x\notin \{0,1\}.\end{cases}}}
Dans cet exemple simple :
(
X
=
0
)
⇔
(
ω
=
pile
)
,
{\displaystyle (X=0)\Leftrightarrow (\omega ={\text{pile}}),}
qui
∈
A
;
(
X
=
1
)
⇔
(
ω
=
face
)
,
{\displaystyle \in {\mathcal {A}}\ ;(X=1)\Leftrightarrow (\omega ={\text{face}}),}
qui
∈
A
;
{\displaystyle \in {\mathcal {A}}\ ;}
et
∀
x
∉
{
0
,
1
}
,
(
X
=
x
)
⇔
{
ω
}
=
∅
,
{\displaystyle \forall x\notin \{0,1\},\ (X=x)\Leftrightarrow \{\omega \}=\emptyset ,}
qui
∈
A
;
{\displaystyle \in {\mathcal {A}}\ ;}
donc la fonction de masse
p
X
{\displaystyle p_{X}}
de
P
X
{\displaystyle \mathbb {P} _{X}}
est aussi définie par :
∀
x
∈
R
,
p
X
(
x
)
=
P
X
(
{
x
}
)
(possiblement 0)
.
{\displaystyle \forall x\in \mathbb {R} ,\quad p_{X}(x)=\mathbb {P} _{X}{\big (}\{x\}{\big )}~~~{\text{(possiblement 0)}}.}
X
{\displaystyle X}
est une variable aléatoire discrète, sa loi de probabilité associée
P
X
{\displaystyle \mathbb {P} _{X}}
est la loi de Bernoulli de paramètre
1
2
.
{\displaystyle {\tfrac {1}{2}}.}
(en) N.L. Johnson, S. Kotz et A. Kemp, Univariate Discrete Distributions , Wiley, p. 36 (ISBN 0-471-54897-9 )