Inégalité de Markov

En théorie des probabilités, l'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire réelle à valeurs positives soit supérieure ou égale à une constante positive. Cette inégalité a été nommée ainsi en l'honneur d'Andreï Markov.

Énoncé

Inégalité de Markov — Soit Z une variable aléatoire réelle définie sur un espace probabilisé ( Ω , A , P ) {\displaystyle \left(\Omega ,{\mathcal {A}},\mathbb {P} \right)} et supposée presque sûrement positive ou nulle. Alors

a > 0 , P ( Z a ) E ( Z ) a . {\displaystyle \forall a>0,\qquad \mathbb {P} (Z\geqslant a)\leqslant {\frac {\mathbb {E} (Z)}{a}}.}
Démonstration

Soit a R + {\displaystyle a\in \mathbb {R} _{+}^{*}} . On note 1 { Z a } {\displaystyle \mathbf {1} _{\{Z\geqslant a\}}} la fonction indicatrice de l'événement { Z a } {\displaystyle \{Z\geqslant a\}} .

On a l'inégalité :

ω Ω , a 1 { Z ( ω ) a } Z ( ω ) 1 { Z ( ω ) a } Z ( ω ) {\displaystyle \forall \omega \in \Omega ,\qquad a\,\mathbf {1} _{\{Z(\omega )\geqslant a\}}\leqslant Z(\omega )\,\mathbf {1} _{\{Z(\omega )\geqslant a\}}\leqslant Z(\omega )}

car Z {\displaystyle Z} est à valeurs positives ou nulles.

Par croissance de l'espérance, on a :

E ( a 1 { Z ( ω ) a } ) E ( Z ) ( ) {\displaystyle \mathbb {E} \left(a\,\mathbf {1} _{\{Z(\omega )\geqslant a\}}\right)\leqslant \mathbb {E} (Z)\qquad (*)}

Puis, par linéarité de l'espérance :

E ( a 1 { Z ( ω ) a } ) = a E ( 1 { Z ( ω ) a } ) = a ( 1 × P ( Z a ) + 0 × P ( Z < a ) ) = a P ( Z a ) {\displaystyle \mathbb {E} \left(a\,\mathbf {1} _{\{Z(\omega )\geqslant a\}}\right)=a\,\mathbb {E} \left(\mathbf {1} _{\{Z(\omega )\geqslant a\}}\right)=a\,\left(1\times \mathbb {P} (Z\geqslant a)+0\times \mathbb {P} (Z<a)\right)=a\,\mathbb {P} \left(Z\geqslant a\right)}

En réinjectant l'expression dans l'inégalité ( ) {\displaystyle (*)} , on obtient :

a P ( Z a ) E ( Z ) {\displaystyle a\,\mathbb {P} \left(Z\geqslant a\right)\leqslant \mathbb {E} (Z)}

c'est-à-dire

P ( Z a ) E ( Z ) a {\displaystyle \mathbb {P} \left(Z\geqslant a\right)\leqslant {\frac {\mathbb {E} (Z)}{a}}}

Généralisation

Il existe une version plus générale de ce théorème. Soit X une variable aléatoire de L p ( Ω , F , P ) {\textstyle L^{p}(\Omega ,{\mathcal {F}},\mathbb {P} )} Ω est l'ensemble des réalisations, F {\textstyle {\mathcal {F}}} est la tribu des événements et P {\textstyle \mathbb {P} } la mesure de probabilité. Alors, l'inégalité de Markov peut être énoncée de la façon suivante :

Inégalité de Tchebychev — Pour tout réel strictement positif α {\displaystyle \alpha } ,

P ( | X | α ) E ( | X | p ) α p {\displaystyle \mathbb {P} \left(|X|\geq \alpha \right)\leq {\frac {\mathbb {E} \left(|X|^{p}\right)}{\alpha ^{p}}}}

La démonstration tient entièrement au fait que pour tout α strictement positif, α p 1 { | X | α } | X | p {\textstyle \alpha ^{p}\mathbf {1} _{\left\{|X|\geq \alpha \right\}}\leq |X|^{p}} . Ici, 1A désigne l'indicatrice de l'événement A. Par croissance de l'espérance, on obtient :

E ( | X | p ) E ( α p 1 { | X | α } ) = α p E ( 1 { | X | α } ) = α p P { | X | α } {\displaystyle \mathbb {E} \left(|X|^{p}\right)\geq \mathbb {E} \left(\alpha ^{p}\,\mathbf {1} _{\left\{|X|\geq \alpha \right\}}\right)=\alpha ^{p}\,\mathbb {E} \left(\mathbf {1} _{\left\{|X|\geq \alpha \right\}}\right)=\alpha ^{p}\,\mathbb {P} \left\{|X|\geq \alpha \right\}}
En divisant de part et d'autre de l'inégalité par αp on trouve le résultat recherché.


On voit immédiatement que le résultat cité plus haut n'est rien d'autre qu'un cas particulier de cette inégalité.

De plus en prenant X = Y E ( Y ) {\textstyle X=Y-\mathbb {E} \left(Y\right)} et p = 2 on obtient exactement l'énoncé de l'inégalité de Bienaymé-Tchebychev.

Corollaire

Elle possède un corollaire fréquemment utilisé :

Corollaire — Soit ϕ une fonction croissante positive ou nulle sur un intervalle I. Soit Y une variable aléatoire réelle définie sur un espace probabilisé ( Ω , A , P ) {\displaystyle \left(\Omega ,{\mathcal {A}},\mathbb {P} \right)} telle que P ( Y I ) = 1 {\displaystyle \mathbb {P} (Y\in I)=1} . Alors :

b I | ϕ ( b ) > 0 , P ( Y b ) E ( ϕ ( Y ) ) ϕ ( b ) . {\displaystyle \forall b\in I\;|\;\phi (b)>0,\qquad \mathbb {P} (Y\geqslant b)\leqslant {\frac {\mathbb {E} (\phi (Y))}{\phi (b)}}.}
Démonstration

On applique l'inégalité de Markov à Z = ϕ ( Y )   {\displaystyle Z=\phi (Y)\ } et à a = ϕ ( b ) {\displaystyle a=\phi (b)} pour obtenir :

b > 0 , P ( ϕ ( Y ) ϕ ( b ) ) E ( ϕ ( Y ) ) ϕ ( b ) {\displaystyle \forall b>0,\qquad \mathbb {P} \left(\phi (Y)\geqslant \phi (b)\right)\leqslant {\frac {\mathbb {E} (\phi (Y))}{\phi (b)}}} .

La croissance de ϕ {\displaystyle \phi } entraîne : { Y b } { ϕ ( Y ) ϕ ( b ) }   {\displaystyle \{Y\geqslant b\}\subset \{\phi (Y)\geqslant \phi (b)\}\ } .

Par conséquent : P ( Y b ) E ( ϕ ( Y ) ) ϕ ( b ) {\displaystyle \mathbb {P} (Y\geqslant b)\leqslant {\frac {\mathbb {E} (\phi (Y))}{\phi (b)}}} .

Applications

  • Le choix, dans l'inégalité ci-dessus, de Y = | X E ( X ) | ,   I = [ 0 , + [   {\displaystyle Y=|X-\mathbb {E} (X)|,~I=[0,+\infty [\ } et ϕ(x) = x2 donne l'inégalité de Bienaymé-Tchebychev.
  • Le choix, dans l'inégalité ci-dessus, de Y = X E ( X ) {\displaystyle Y=X-\mathbb {E} (X)} , ou bien Y = E ( X ) X {\displaystyle Y=\mathbb {E} (X)-X} , de I = R {\displaystyle I=\mathbb {R} } , et de ϕ(x) = eλx, λ > 0 , est le premier pas de la démonstration de l'inégalité de Chernoff ou de l'inégalité de Hoeffding.
  • L'inégalité de Markov est souvent appliquée conjointement au lemme de Borel-Cantelli, par exemple pour démontrer la loi forte des grands nombres.

Exemple

Les salaires étant positifs, la part de la population percevant un salaire supérieur à 5 fois le salaire moyen est au maximum d'un cinquième[1].

Références

  1. Kevin Ross, 5.4 Probability inequalitlies | An Introduction to Probability and Simulation (lire en ligne)

Voir aussi

  • icône décorative Portail des probabilités et de la statistique