Divergence de Kullback-Leibler

En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler[1],[2] (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.

Introduction et contexte

Considérons deux distributions de probabilités P et Q. Typiquement, P représente les données, les observations, ou une distribution de probabilités calculée avec précision. La distribution Q représente typiquement une théorie, un modèle, une description ou une approximation de P. La divergence de Kullback-Leibler s'interprète comme la différence moyenne du nombre de bits nécessaires au codage d'échantillons de P en utilisant un code optimisé pour Q plutôt que le code optimisé pour P.

Définition

Il existe plusieurs définitions selon les hypothèses sur les distributions de probabilités.

Premières définitions

Pour deux distributions de probabilités discrètes P et Q sur un ensemble X. La divergence de Kullback–Leibler de P par rapport à Q est définie par[3]

D K L ( P Q ) = x X P ( x ) log P ( x ) Q ( x ) {\displaystyle D_{\mathrm {KL} }(P\|Q)=\sum _{x\in X}P(x)\log {\frac {P(x)}{Q(x)}}\!}

où P(x) est Q(x) sont les valeurs respectives en x des fonctions de masse pour P et Q. En d'autres termes, la divergence de Kullback-Leibler est l'espérance de la différence des logarithmes de P et Q, en prenant la probabilité P pour calculer l'espérance.

Pour des distributions P et Q continues de densités respectives p et q, on utilise une intégrale

D K L ( P Q ) = p ( x ) log p ( x ) q ( x ) d x {\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{-\infty }^{\infty }p(x)\log {\frac {p(x)}{q(x)}}\;dx\!} .

Définitions générales

On peut généraliser les deux cas particuliers ci-dessus en considérant P et Q deux mesures définies sur un ensemble X, absolument continues par rapport à une mesure μ {\displaystyle \mu }  : le théorème de Radon-Nikodym-Lebesgue assure l'existence des densités p et q avec d P = p d μ {\displaystyle dP=pd\mu } et d Q = q d μ {\displaystyle dQ=qd\mu } , on pose alors

D K L ( P Q ) = X p log p q d μ {\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{X}p\log {\frac {p}{q}}\;d\mu \!}

sous réserve que la quantité de droite existe. Si P est absolument continue par rapport à Q, (ce qui est nécessaire si D K L ( P Q ) {\displaystyle D_{\mathrm {KL} }(P\|Q)} est finie) alors p q = d P d Q {\displaystyle {\frac {p}{q}}={\frac {dP}{dQ}}} est la dérivée de Radon-Nikodym de P par rapport à Q et on obtient

D K L ( P Q ) = X log d P d Q d P = X d P d Q log d P d Q d Q {\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{X}\log {\frac {dP}{dQ}}\;dP=\int _{X}{\frac {dP}{dQ}}\log {\frac {dP}{dQ}}\;dQ\,\!} ,

où l'on reconnait l'entropie de P par rapport à Q.

De même, si Q est absolument continue par rapport à P, on a

D K L ( P Q ) = X log d Q d P d P {\displaystyle D_{\mathrm {KL} }(P\|Q)=-\int _{X}\log {\frac {dQ}{dP}}\;dP\!}

Dans les deux cas, on constate que la divergence de Kullback-Leibler ne dépend pas de la mesure μ {\displaystyle \mu } .

Lorsque les logarithmes de ces formules sont pris en base 2 l'information est mesurée en bits; lorsque la base est e, l'unité est le nat.

Exemple

Kullback[4] donne l'exemple suivant (Table 2.1, Example 2.1). Soit P et Q les distributions donnés dans la table et la figure. P est la distribution sur la partie gauche de la figure, il s'agit d'une distribution binomiale avec N = 2 et p = 0.4. Q est la distribution de la partie droite de la figure, une distribution uniforme discrète avec trois valeurs x = 0, 1, ou 2, chacune de probabilité p = 1/3.

Two distributions to illustrate Kullback–Leibler divergence

Le tableau suivant donne les fonctions de masse des distributions P et Q. Par exemple, pour la distribution P, la probabilité d'avoir la valeur 1 est 0.48.

0 1 2
Distribution P 0.36 0.48 0.16
Distribution Q 0.333 0.333 0.333

La divergence KL est calculée comme suit. On utilise le logarithme naturel.

D KL ( Q P ) = x X Q ( x ) ln ( Q ( x ) P ( x ) ) = 0.333 ln ( 0.333 0.36 ) + 0.333 ln ( 0.333 0.48 ) + 0.333 ln ( 0.333 0.16 ) = 0.02596 + ( 0.12176 ) + 0.24408 = 0.09637 {\displaystyle {\begin{aligned}D_{\text{KL}}(Q\parallel P)&=\sum _{x\in X}Q(x)\ln \left({\frac {Q(x)}{P(x)}}\right)\\[6pt]&=0.333\ln \left({\frac {0.333}{0.36}}\right)+0.333\ln \left({\frac {0.333}{0.48}}\right)+0.333\ln \left({\frac {0.333}{0.16}}\right)\\[6pt]&=-0.02596+(-0.12176)+0.24408\\[6pt]&=0.09637\end{aligned}}}

Propriétés

  • D K L ( P Q ) 0 {\displaystyle D_{\mathrm {KL} }(P\|Q)\geq 0}
  • P = p . s . Q {\displaystyle P\;{\stackrel {p.s.}{=}}\;Q} ssi D K L ( P Q ) = 0 {\displaystyle D_{\mathrm {KL} }(P\|Q)=0}
Démonstration (cas discret)
D K L ( P Q ) = i P ( i ) log P ( i ) Q ( i ) = i P ( i ) log Q ( i ) P ( i ) {\displaystyle D_{\mathrm {KL} }(P\|Q)=\sum _{i}P(i)\log {\frac {P(i)}{Q(i)}}=-\sum _{i}P(i)\log {\frac {Q(i)}{P(i)}}\!}

Or le logarithme est strictement concave, d'où, en utilisant l' Inégalité de Jensen:

i P ( i ) log Q ( i ) P ( i ) log ( i P ( i ) Q ( i ) P ( i ) ) = log i Q ( i ) = log ( 1 ) = 0 {\displaystyle \sum _{i}P(i)\log {\frac {Q(i)}{P(i)}}\leq \log \left(\sum _{i}P(i){\frac {Q(i)}{P(i)}}\right)=\log \sum _{i}Q(i)=\log(1)=0\!}

Avec égalité ssi Q ( i ) P ( i ) {\displaystyle {\frac {Q(i)}{P(i)}}} est constant presque partout. (à cause de la stricte concavité) Dans ce cas-là, la constante ne peut qu'être égale à 1 puisque les deux fonctions P et Q sont des probabilités. D'où les propriétés.

  • Additivité. Soit deux distributions séparables P 12 ( x 1 , x 2 ) = P 1 ( x 1 ) . P 2 ( x 2 ) {\displaystyle P_{12}(x_{1},x_{2})=P_{1}(x_{1}).P_{2}(x_{2})} et Q 12 ( x 1 , x 2 ) = Q 1 ( x 1 ) . Q 2 ( x 2 ) {\displaystyle Q_{12}(x_{1},x_{2})=Q_{1}(x_{1}).Q_{2}(x_{2})}
D ( P 12 Q 12 ) = D ( P 1 Q 1 ) + D ( P 2 Q 2 ) {\displaystyle D(P_{12}\|Q_{12})=D(P_{1}\|Q_{1})+D(P_{2}\|Q_{2})}
  • Dans le formalisme de la géométrie de l'information développé par S.Amari[5], la divergence de Kullback-Leibler est la divergence associée à deux connexions affines duales fondamentales : la connexion m (mélange, combinaison additive des distributions) et la connexion e (exponentielle, combinaison multiplicative des distributions). La divergence de Kullback-Leibler obéit localement à la métrique de Fisher et correspond à l'intégration de la distance entre deux points (distributions) le long d'une géodésique de type e ou m (selon que l'on considère un sens ou l'autre : D ( P Q ) {\displaystyle D(P\|Q)} ou D ( Q P ) {\displaystyle D(Q\|P)} ).[citation nécessaire]
  • La distance symétrique (induite par la connexion de Levi-Civita, autoduale) associée à la métrique de Fisher est la distance de Hellinger D H ( P Q ) = 2 i ( P i Q i ) 2 . {\displaystyle D_{H}(P\|Q)=2\sum _{i}\left({\sqrt {P_{i}}}-{\sqrt {Q_{i}}}\right)^{2}.}

Discussion

Bien que perçue souvent comme une distance, elle n'en remplit pas les conditions : elle n'est pas symétrique et ne respecte pas l'inégalité triangulaire.

La divergence de Kullback-Leibler entre dans la catégorie plus large des f-divergences, introduite indépendamment par Csiszár[6] en 1967 et par Ali et Silvey[7] en 1966. Par son appartenance à cette famille, elle respecte des propriétés de conservation de l'information : invariance, monotonicité[8].

De manière complémentaire, la divergence de Kullback-Leibler est également une divergence de Bregman[9], associée à la fonction potentiel ψ ( x ) = x log x x {\displaystyle \psi (x)=x\log x-x} . La conséquence est que cette divergence, par transformation de Legendre de ψ {\displaystyle \psi } est associée à un couple dual de système de coordonnées ( x , log x ) {\displaystyle (x,\log x)} permettant de représenter les distributions de la famille exponentielle.

Notes et références

  1. Kullback et Leibler 1951.
  2. Kullback 1959.
  3. MacKay, David J.C., Information Theory, Inference, and Learning Algorithms, Cambridge University Press, , First éd. (ISBN 9780521642989, lire en ligne), p. 34
  4. S. Kullback, Information Theory and Statistics, John Wiley & Sons, . Republished by Dover Publications in 1968; reprinted in 1978: (ISBN 0-8446-5625-9).
  5. Amari et Nagaoka 2000.
  6. Csiszár 1967.
  7. Ali et Silvey 1967.
  8. Amari 2010.
  9. Bregman 1967.

Annexes

Bibliographie

  • [Ali et Silvey 1967] (en) M. S. Ali et D. Silvey, « A general class of coefficients of divergence of one distribution from another », Journal of the Royal Statistical Society, Ser. B, vol. 28,‎ , p. 131-140.
  • [Amari et Nagaoka 2000] (en) Sunichi Amari et Hiroshi Nagaoka, Methods of information geometry, vol. 191, American Mathematical Society, .
  • [Amari 2010] (en) Sunichi Amari, « Information geometry in optimization, machine learning and statistical inference », Frontiers of Electrical and Electronic Engineering in China, SP Higher Education Press, vol. 5, no 3,‎ , p. 241–260 (DOI 10.1007/s11460-010-0101-3).
  • [Bregman 1967] (en) L. Bregman, « The relaxation method of finding the common point of convex sets and its application to the solution of problems in convex programming », USSR Computational Mathematics and Mathematical Physics, vol. 7, no 3,‎ , p. 200–217 (DOI 10.1016/0041-5553(67)90040-7).
  • [Csiszár] (en) I. Csiszár, « Information-type measures of difference of probability distributions and indirect observation », Studia Sci. Math. Hungar., vol. 2,‎ , p. 229-318.
  • [Kullback et Leibler 1951] (en) S. Kullback et R. Leibler, « On information and sufficiency », Annals of Mathematical Statistics, vol. 22,‎ , p. 79-86.
  • [Kullback 1959] (en) S. Kullback, Information theory and statistics, New York, John Wiley and Sons, .

Voir aussi

  • icône décorative Portail des mathématiques
  • icône décorative Portail de la cryptologie