Loi bêta-binomiale

Loi bêta-binomiale
Image illustrative de l’article Loi bêta-binomiale
Fonction de masse
Image illustrative de l’article Loi bêta-binomiale
Fonction de répartition

Paramètres n N {\displaystyle n\in \mathbb {N} } — nombre d'essais
α > 0 {\displaystyle \alpha >0}
β > 0 {\displaystyle \beta >0}
Support k = { 0 , , n } {\displaystyle k=\{0,\dots ,n\}}
Fonction de masse ( n k ) B ( k + α , n k + β ) B ( α , β ) {\displaystyle {n \choose k}{\frac {\mathrm {B} (k+\alpha ,n-k+\beta )}{\mathrm {B} (\alpha ,\beta )}}}
Fonction de répartition 1 B ( β + n k 1 , α + k + 1 ) 3 F 2 ( a , b ; k ) B ( α , β ) B ( n k , k + 2 ) ( n + 1 ) {\displaystyle 1-{\tfrac {\mathrm {B} (\beta +n-k-1,\alpha +k+1)_{3}F_{2}({\boldsymbol {a}},{\boldsymbol {b}};k)}{\mathrm {B} (\alpha ,\beta )\mathrm {B} (n-k,k+2)(n+1)}}}

3F2(a,b,k) est la fonction hypergéométrique généralisée
3 F 2 ( 1 , α + k + 1 , n + k + 1 ; k + 2 ; β n + k + 2 ; 1 ) {\textstyle _{3}F_{2}(1,\alpha +k+1,-n+k+1;k+2;-\beta -n+k+2;1)}
Espérance n α α + β {\displaystyle {\frac {n\alpha }{\alpha +\beta }}\!}
Variance n α β ( α + β + n ) ( α + β ) 2 ( α + β + 1 ) {\displaystyle {\frac {n\alpha \beta (\alpha +\beta +n)}{(\alpha +\beta )^{2}(\alpha +\beta +1)}}}
Asymétrie ( α + β + 2 n ) ( β α ) ( α + β + 2 ) 1 + α + β n α β ( n + α + β ) {\displaystyle {\tfrac {(\alpha +\beta +2n)(\beta -\alpha )}{(\alpha +\beta +2)}}{\sqrt {\tfrac {1+\alpha +\beta }{n\alpha \beta (n+\alpha +\beta )}}}}
Kurtosis normalisé voir description
Fonction génératrice des moments 2 F 1 ( n , α ; α + β ; 1 e t ) {\displaystyle _{2}F_{1}(-n,\alpha ;\alpha +\beta ;1-\mathrm {e} ^{t})}
pour t < ln ( 2 ) {\displaystyle t<\ln(2)}
Fonction caractéristique 2 F 1 ( n , α ; α + β ; 1 e i t ) {\displaystyle _{2}F_{1}(-n,\alpha ;\alpha +\beta ;1-\mathrm {e} ^{\mathrm {i} t})}
pour | t | < ln ( 2 ) {\displaystyle |t|<\ln(2)}
modifier Consultez la documentation du modèle
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En théorie des probabilités, la loi bêta-binomiale est une loi de probabilité discrète à support fini, correspondant à un processus de tirages Bernoulli dont la probabilité de succès est aléatoire (suivant une loi bêta). Elle est fréquemment utilisée en inférence bayésienne.

La loi de Bernoulli en est un cas particulier pour le paramètre n = 1. Pour α = β = 1, elle correspond à la loi uniforme discrète sur {0,..,n} . Elle approche également la loi binomiale lorsque les paramètres α et β sont arbitrairement grands. La loi bêta-binomiale est une version unidimensionnelle de la loi de Pólya multivariée, similairement aux lois binomiale et bêta qui sont respectivement des cas spéciaux des lois multinomiale et de Dirichlet.

Obtention de la loi bêta-binomiale

Par exemple, un lancer de pièce est une épreuve de Bernouilli avec probabilité de succès p = 1 / 2 {\displaystyle p=1/2} . Ici on lance n {\displaystyle n} pièces et X {\displaystyle X} est le nombre de faces obtenues.

Soit X {\displaystyle X} une variable aléatoire qui compte le nombre de succès de n {\displaystyle n} épreuves de Bernoulli, chacune ayant une probabilité de succès p {\displaystyle p} . La variable X {\displaystyle X} suit donc une loi binomiale dont la fonction de masse est donnée par :

f ( X = k | p ) = Bin ( n , p ) = ( n k ) p k ( 1 p ) n k {\displaystyle {\begin{aligned}f(X=k|p)&=\operatorname {Bin} (n,p)={n \choose k}p^{k}(1-p)^{n-k}\end{aligned}}} .

Ici, la probabilité de succès p {\displaystyle p} est également une variable aléatoire, qui suit une loi bêta de paramètres α et β. Sa fonction de densité est donnée par :

f ( p | α , β ) = Beta ( α , β ) = p α 1 ( 1 p ) β 1 B ( α , β ) {\displaystyle {\begin{aligned}f(p|\alpha ,\beta )=\operatorname {Beta} (\alpha ,\beta )={\frac {p^{\alpha -1}(1-p)^{\beta -1}}{\operatorname {B} (\alpha ,\beta )}}\end{aligned}}}

La loi bêta-binomiale s'obtient en considérant le couple ( X , p ) {\displaystyle (X,p)} comme une nouvelle variable aléatoire puis en calculant la densité marginale de X {\displaystyle X} (cette densité marginale est une fonction de masse, puisque X {\displaystyle X} est une variable aléatoire suivant une loi discrète).

Par définition, la densité marginale de X {\displaystyle X} s'obtient en intégrant la densité conjointe de ( X , p ) {\displaystyle (X,p)} sur l'espace de probabilité occupé par p {\displaystyle p} . Supposons que les deux variables X {\displaystyle X} et p {\displaystyle p} sont indépendantes. Ainsi, leur densité conjointe s'obtient par multiplication :

f ( X = k , p ) = f ( X = k | p ) f ( p | α , β ) {\displaystyle {\begin{aligned}f(X=k,p)=f(X=k|p)\cdot f(p|\alpha ,\beta )\end{aligned}}}

En intégrant cette densité conjointe selon p {\displaystyle p} sur [ 0 , 1 ] {\displaystyle [0,1]} (l'espace sur lequel est définie la densité de la loi bêta), il advient finalement :

f ( X = k | α , β ) = 0 1 f ( X = k , p ) d p = 0 1 f ( X = k | p ) f ( p ) d p = ( n k ) 1 B ( α , β ) 0 1 p k + α 1 ( 1 p ) n k + β 1 d p = ( n k ) B ( k + α , n k + β ) B ( α , β ) . {\displaystyle {\begin{aligned}f(X=k|\alpha ,\beta )&=\int _{0}^{1}f(X=k,p)\mathrm {d} p\\&=\int _{0}^{1}f(X=k|p)\cdot f(p)\mathrm {d} p\\&={n \choose k}{\frac {1}{\mathrm {B} (\alpha ,\beta )}}\int _{0}^{1}p^{k+\alpha -1}(1-p)^{n-k+\beta -1}\,\mathrm {d} p\\&={n \choose k}{\frac {\mathrm {B} (k+\alpha ,n-k+\beta )}{\mathrm {B} (\alpha ,\beta )}}.\end{aligned}}}

En remplaçant la fonction bêta par sa définition B ( α , β ) = Γ ( α ) Γ ( β ) Γ ( α + β ) {\displaystyle \mathrm {B} (\alpha ,\beta )={\frac {\Gamma (\alpha )\,\Gamma (\beta )}{\Gamma (\alpha +\beta )}}} Γ est la fonction gamma, on obtient :

f ( X = k | α , β ) = Γ ( n + 1 ) Γ ( k + 1 ) Γ ( n k + 1 ) Γ ( α + k ) Γ ( n + β k ) Γ ( α + β + n ) Γ ( α + β ) Γ ( α ) Γ ( β ) {\displaystyle {\begin{aligned}f(X=k|\alpha ,\beta )={\frac {\Gamma (n+1)}{\Gamma (k+1)\Gamma (n-k+1)}}{\frac {\Gamma (\alpha +k)\Gamma (n+\beta -k)}{\Gamma (\alpha +\beta +n)}}{\frac {\Gamma (\alpha +\beta )}{\Gamma (\alpha )\Gamma (\beta )}}\end{aligned}}}

Dans ce contexte, la loi bêta-binomiale apparaît souvent en inférence bayésienne : la loi bêta-binomiale est la loi prédictive d'une variable aléatoire binomiale avec une probabilité de succès donnée par une loi bêta.

Utilisation de la loi bêta-binomiale dans un modèle d'urnes

La loi bêta-binomiale peut également être représentée par un modèle d'urnes, pour des paramètres α et β entiers positifs. Plus précisément, on considère une urne contenant α boules rouges et β boules noires, on effectue alors des tirages aléatoires. Si une boule rouge est tirée, alors deux boules rouges sont replacées dans l'urne (elle-même plus une autre). De la même manière, si une boule noire est tirée, elle est remise avec une autre boule noire dans l'urne. Si on répète cette opération n fois, alors la probabilité de tirer k boules rouges suit une loi bêta-binomiale de paramètres n, α et β.

Il est à noter que si après les tirages on replace une unique boule, alors la loi est binomiale, et si les tirages sont effectués sans remise, alors la loi est hypergéométrique.

Moments et propriétés

Les trois premiers moments sont

μ 1 = n α α + β μ 2 = n α [ n ( 1 + α ) + β ] ( α + β ) ( 1 + α + β ) μ 3 = n α [ n 2 ( 1 + α ) ( 2 + α ) + 3 n ( 1 + α ) β + β ( β α ) ] ( α + β ) ( 1 + α + β ) ( 2 + α + β ) {\displaystyle {\begin{aligned}\mu _{1}&={\frac {n\alpha }{\alpha +\beta }}\\\mu _{2}&={\frac {n\alpha [n(1+\alpha )+\beta ]}{(\alpha +\beta )(1+\alpha +\beta )}}\\\mu _{3}&={\frac {n\alpha [n^{2}(1+\alpha )(2+\alpha )+3n(1+\alpha )\beta +\beta (\beta -\alpha )]}{(\alpha +\beta )(1+\alpha +\beta )(2+\alpha +\beta )}}\end{aligned}}}

et le kurtosis est

γ 2 = ( α + β ) 2 ( 1 + α + β ) n α β ( α + β + 2 ) ( α + β + 3 ) ( α + β + n ) × [ ( α + β ) ( α + β 1 + 6 n ) + 3 α β ( n 2 ) + 6 n 2 3 α β n ( 6 n ) α + β 18 α β n 2 ( α + β ) 2 ] . {\displaystyle {\begin{aligned}\gamma _{2}&={\frac {(\alpha +\beta )^{2}(1+\alpha +\beta )}{n\alpha \beta (\alpha +\beta +2)(\alpha +\beta +3)(\alpha +\beta +n)}}\\&\times \left[(\alpha +\beta )(\alpha +\beta -1+6n)+3\alpha \beta (n-2)+6n^{2}-{\frac {3\alpha \beta n(6-n)}{\alpha +\beta }}-{\frac {18\alpha \beta n^{2}}{(\alpha +\beta )^{2}}}\right].\end{aligned}}}

Si on pose p = α α + β {\textstyle \mathrm {p} ={\frac {\alpha }{\alpha +\beta }}} , on remarque que la moyenne peut être écrite sous la forme μ = n α α + β = n p {\textstyle \mu ={\frac {n\alpha }{\alpha +\beta }}=n\mathrm {p} } et la variance par

σ 2 = n α β ( α + β + n ) ( α + β ) 2 ( α + β + 1 ) = n π ( 1 π ) α + β + n α + β + 1 = n p ( 1 p ) [ 1 + ( n 1 ) ρ ] {\displaystyle \sigma ^{2}={\frac {n\alpha \beta (\alpha +\beta +n)}{(\alpha +\beta )^{2}(\alpha +\beta +1)}}=n\pi (1-\pi ){\frac {\alpha +\beta +n}{\alpha +\beta +1}}=n\mathrm {p} (1-\mathrm {p} )[1+(n-1)\rho ]}

ρ = 1 α + β + 1 {\textstyle \rho ={\frac {1}{\alpha +\beta +1}}} est la corrélation deux à deux entre les n tirages de Bernoulli et est appelé le paramètre de surdispersion.

Estimations ponctuelles

Méthode des moments

L'estimation par la méthode des moments peut être obtenue par l'utilisation des premier et deuxième moments de la loi bêta-binomiale, c'est-à-dire

μ 1 = n α α + β μ 2 = n α [ n ( 1 + α ) + β ] ( α + β ) ( 1 + α + β ) {\displaystyle {\begin{aligned}\mu _{1}&={\frac {n\alpha }{\alpha +\beta }}\\\mu _{2}&={\frac {n\alpha [n(1+\alpha )+\beta ]}{(\alpha +\beta )(1+\alpha +\beta )}}\end{aligned}}}

et en les considérant égaux aux moments empiriques

μ ^ 1 = m 1 μ ^ 2 = m 2 . {\displaystyle {\begin{aligned}{\hat {\mu }}_{1}&=m_{1}\\{\hat {\mu }}_{2}&=m_{2}.\end{aligned}}}

En résolvant en α et en β, on obtient

α ^ = n m 1 m 2 n ( m 2 m 1 m 1 1 ) + m 1 β ^ = ( n m 1 ) ( n m 2 m 1 ) n ( m 2 m 1 m 1 1 ) + m 1 . {\displaystyle {\begin{aligned}{\hat {\alpha }}&={\frac {nm_{1}-m_{2}}{n({\frac {m_{2}}{m_{1}}}-m_{1}-1)+m_{1}}}\\{\hat {\beta }}&={\frac {(n-m_{1})(n-{\frac {m_{2}}{m_{1}}})}{n({\frac {m_{2}}{m_{1}}}-m_{1}-1)+m_{1}}}.\end{aligned}}}

Maximum de vraisemblance

Alors que la méthode du maximum de vraisemblance est inutilisable, sachant que la densité de probabilité est la densité d'un couple de fonction (fonction gamma et/ou fonction bêta), elles peuvent être facilement calculée via une optimisation numérique directe. Les estimées du maximum de vraisemblance à partir des données empiriques peuvent être calculées en utilisant des méthodes générales adaptées aux lois de Pólya multinomiales décrites dans (Minka 2003).

Exemple

Les données suivantes donnent le nombre de garçons parmi les 12 premiers enfants de familles de 13 enfants, pour 6115 familles prises dans des données d’hôpital en Saxe au XIXe siècle (Sokal et Rohlf, p. 59 de Lindsey). Le 13e enfant est ignoré pour considérer le fait non aléatoire que des familles s'arrêtent quand elles obtiennent le genre attendu.

Garçons 0 1 2 3 4 5 6 7 8 9 10 11 12
Familles 3 24 104 286 670 1 033 1 343 1 112 829 478 181 45 7

Les deux premiers moments empiriques sont

m 1 = 6 , 23 m 2 = 42 , 31 n = 12 {\displaystyle {\begin{aligned}m_{1}&=6{,}23\\m_{2}&=42{,}31\\n&=12\end{aligned}}}

et ainsi les estimées par la méthode des moments sont

α ^ = 34,135 0 β ^ = 31,608 5. {\displaystyle {\begin{aligned}{\hat {\alpha }}&=34{,}135\,0\\{\hat {\beta }}&=31{,}608\,5.\end{aligned}}}

Les estimées par le maximum de vraisemblance peuvent être trouvées numériquement

α ^ m l e = 34,095 58 β ^ m l e = 31,571 5 {\displaystyle {\begin{aligned}{\hat {\alpha }}_{\mathrm {mle} }&=34{,}095\,58\\{\hat {\beta }}_{\mathrm {mle} }&=31{,}571\,5\end{aligned}}}

et le maximum de log-vraisemblance est

log L = 12 492 , 9 {\displaystyle \log {\mathcal {L}}=-12\,492{,}9}

Références

* Minka, Thomas P. (2003). Estimating a Dirichlet distribution. Rapport technique de Microsoft.

Liens externes

  • (en) Utilisation de la loi bêta-binomiale pour vérifier les performances en identification biométrique
  • Fastfit contient des codes Matlab pour adapter la loi bêta-binomiale (dans le contexte d'une loi de Pólya bi-dmensionelle) aux données.
v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique