Fonction d'influence

La fonction d'influence, ou courbe d'influence, est un outil statistique qui caractérise la sensibilité aux données aberrantes d'une statistique. Introduit par le statisticien Frank Hampel en 1968[1],[2], il s'agit d'une notion centrale des statistiques robustes.

Définition

Soit T {\displaystyle T} une statistique définie en tant que fonctionnelle. Une fonctionnelle est une application qui prend comme argument une distribution de probabilité et donne en image une valeur numérique ou vectorielle. Par exemple, la moyenne peut être définie par la fonctionnelle T : F T ( F ) = E X F [ X ] {\displaystyle T:F\mapsto T(F)=\mathbb {E} _{X\sim F}[X]} . La fonction d'influence de la statistique T {\displaystyle T} quantifie sa sensibilité asymptotique lorsqu'une proportion infinitésimale des données est corrompue[3].

Définition —  Soit F 0 {\displaystyle F_{0}} une distribution de probabilité, identifiée à sa fonction de répartition, sur un ensemble E {\displaystyle E} et x {\displaystyle x} un point de E {\displaystyle E} . Pour tout ε [ 0 , 1 ] {\displaystyle \varepsilon \in [0,1]} , notons F ε {\displaystyle F_{\varepsilon }} la distribution de probabilité sur E {\displaystyle E} définie par F ε = ( 1 ε ) F 0 + ε Δ x {\displaystyle F_{\varepsilon }=(1-\varepsilon )F_{0}+\varepsilon \Delta _{x}} Δ x {\displaystyle \Delta _{x}} est une distribution de Dirac en x {\displaystyle x} . F ε {\displaystyle F_{\varepsilon }} est ainsi la distribution d'une variable aléatoire ayant une probabilité ε {\displaystyle \varepsilon } d'être égale à x {\displaystyle x} et une probabilité 1 ε {\displaystyle 1-\varepsilon } d'être distribuée selon F 0 {\displaystyle F_{0}} .

La fonction d'influence de T {\displaystyle T} en F 0 {\displaystyle F_{0}} évaluée en x {\displaystyle x} est définie comme F I ( T , F 0 , x ) = lim ε 0 T ( F ε ) T ( F 0 ) ε {\displaystyle FI(T,F_{0},x)=\lim _{\varepsilon \to 0}{\frac {T(F_{\varepsilon })-T(F_{0})}{\varepsilon }}} , lorsque cette limite existe.

Si T {\displaystyle T} est un estimateur consistant, la fonction d'influence F I ( T , F 0 , x ) {\displaystyle FI(T,F_{0},x)} indique le biais asymptotique qu'induit une contamination infinitésimale par une valeur x {\displaystyle x} , standardisé par le taux de contamination. Il s'agit donc d'une mesure de la robustesse de la fonctionnelle T {\displaystyle T} . Une fonction d'influence bornée par rapport à x {\displaystyle x} avec des valeurs proches de 0 {\displaystyle 0} indique une fonctionnelle robuste, faiblement influencée par des valeurs aberrantes, tandis qu'une fonction d'influence non bornée, ou avec de grandes valeurs, indique une fonctionnelle non robuste.

Exemples

Fonctions d'influence de la moyenne, estimateur de Huber et médiane pour une distribution normale centrée réduite évaluées entre -5 et 5.

Moyenne arithmétique

La fonctionnelle associée à la moyenne arithmétique est T m o y : F E X F [ X ] {\displaystyle T_{moy}:F\mapsto \mathbb {E} _{X\sim F}[X]} .

Il est aisé de montrer que sa fonction d'influence est :

F I ( T m o y , F , x ) = x μ {\displaystyle FI(T_{moy},F,x)=x-\mu }

μ {\displaystyle \mu } est l'espérance de la distribution F {\displaystyle F} . Cette fonction n'est pas bornée, la moyenne arithmétique n'est donc pas robuste vis-à-vis des valeurs aberrantes : une seule observation ayant une valeur extrême peut induire un biais arbitrairement grand sur la moyenne.

Médiane

La fonctionnelle définissant la médiane est T m e d : F F 1 ( 1 / 2 ) {\displaystyle T_{med}:F\mapsto F^{-1}(1/2)} . Elle a pour fonction d'influence[4] :

F I ( T m e d , F , x ) = 1 2 f ( m ) χ R + ( x m ) χ R ( x m ) {\displaystyle FI(T_{med},F,x)={\frac {1}{2f(m)}}\chi _{\mathbb {R} ^{+}}(x-m)-\chi _{\mathbb {R} ^{-}}(x-m)}

f {\displaystyle f} désigne la densité de la distribution F {\displaystyle F} , m {\displaystyle m} la médiane de F {\displaystyle F} et χ I {\displaystyle \chi _{I}} la fonction indicatrice de l'intervalle I {\displaystyle I} .

Cette fonction est bornée, et constante par morceaux. Toute contamination par une donnée supérieure (resp. inférieure) à la médiane a le même impact positif (resp.négatif) sur la médiane, quelle que soit sa valeur. Il s'agit donc d'un estimateur robuste. Par comparaison, une contamination de la moyenne par une valeur extrême a un impact plus important que par une donnée proche de la médiane.

Estimateur de Huber

L'estimateur de Huber du centre de n {\displaystyle n} observations x 1 , . . . , x n {\displaystyle x_{1},...,x_{n}} est défini comme la solution en μ {\displaystyle \mu } de l'équation i = 1 n ψ c ( x i μ ) = 0 {\displaystyle \sum _{i=1}^{n}\psi _{c}(x_{i}-\mu )=0} , où ψ c ( t ) = { c s i t < c t s i c t c c s i t > c {\displaystyle \psi _{c}(t)=\left\{{\begin{array}{ccc}-c&\mathrm {si} &t<-c\\t&\mathrm {si} &-c\leq t\leq c\\c&\mathrm {si} &t>c\end{array}}\right.} et c {\displaystyle c} est une constante à fixer par le statisticien. La fonctionnelle associée est donc T c : F μ : E X F ( ψ c ( X μ ) ) = 0 {\displaystyle T_{c}:F\mapsto \mu :\mathbb {E} _{X\sim F}\left(\psi _{c}(X-\mu )\right)=0} . La fonction d'influence de cette estimateur est :

F I ( T c , F , x ) = a ( F ) ψ c ( x μ ) {\displaystyle FI(T_{c},F,x)=a(F)\cdot \psi _{c}(x-\mu )}

a ( F ) = 1 / P F ( | X T c ( F ) | < c ) {\displaystyle a(F)=1/P_{F}(|X-T_{c}(F)|<c)} .

Cette fonction d'influence est bornée. Elle présente un compromis entre la robustesse de la médiane (sur laquelle tous les points ont la même influence) et la moyenne (sur laquelle un point à une influence proportionnelle à son écart à l'espérance de la distribution). Un point à une influence proportionnelle à son écart à T c ( F ) {\displaystyle T_{c}(F)} tant que cet écart reste inférieur à c {\displaystyle c} , au-delà tous les points ont une influence valant ± a ( F ) × c {\displaystyle \pm a(F)\times c} .

Régression linéaire par les moindres carrés

Considérons un modèle linéaire Y = X T β + ε {\displaystyle Y=X^{T}\beta +\varepsilon } Y {\displaystyle Y} est un variable aléatoire réelle, β R p {\displaystyle \beta \in \mathbb {R} ^{p}} le vecteur des paramètres, X {\displaystyle X} une variable aléatoire à valeurs dans R p {\displaystyle \mathbb {R} ^{p}} dont la première coordonnée vaut 1 {\displaystyle 1} (de sorte que β {\displaystyle \beta } comprend une ordonnée à l'origine) et ε {\displaystyle \varepsilon } est une variable aléatoire réelle d'espérance nulle.

Étant donné n {\displaystyle n} observations ( x i , y i ) i = 1 , . . . , n {\displaystyle (x_{i},y_{i})_{i=1,...,n}} , l'estimateur des moindres carrés de β {\displaystyle \beta } est donné par β ^ = ( i = 1 n x i x i T ) 1 i = 1 n y i x i {\displaystyle {\hat {\beta }}=(\sum _{i=1}^{n}x_{i}x_{i}^{T})^{-1}\sum _{i=1}^{n}y_{i}x_{i}} . La fonctionnelle associée à cet estimateur est

T m c ( F X , Y ) = E ( X , Y ) F X , Y ( X X T ) 1 E ( X , Y ) F X , Y ( Y X ) {\displaystyle T_{mc}(F_{X,Y})=\mathbb {E} _{(X,Y)\sim F_{X,Y}}(XX^{T})^{-1}\mathbb {E} _{(X,Y)\sim F_{X,Y}}(YX)}

F X , Y {\displaystyle F_{X,Y}} désigne la distribution jointe de X {\displaystyle X} et Y {\displaystyle Y} .

La fonction d'influence de cette fonctionnelle est:

F I ( T m c , F X , Y , ( x , y ) ) = E ( X X T ) 1 ( x t β y ) x {\displaystyle FI(T_{mc},F_{X,Y},(x,y))=\mathbb {E} (XX^{T})^{-1}(x^{t}\beta -y)x} .

Cette fonction d'influence n'est pas bornée. L'estimateur des moindres carrés n'est donc pas robuste contre des données aberrantes. La fonction d'influence est le produit d'une matrice E ( X X T ) {\displaystyle \mathbb {E} (XX^{T})} qui ne dépend pas de la contamination ( x , y ) {\displaystyle (x,y)} , du résidu de la contamination x T β y {\displaystyle x^{T}\beta -y} , et de la variable explicative de la contamination x {\displaystyle x} . Une donnée a donc un fort impact sur l'estimation si son résidu est élevé ou si sa variable explicative a une valeur extrême [5].

Interprétation en tant que dérivée

La fonction d'influence peut être vue comme une dérivée. Une fonctionnelle est une fonction de l'espace des distributions dans un espace vectoriel généralement réel de dimension fini. Il est souvent possible de développer une fonctionnelle autour d'une distribution donnée F 0 {\displaystyle F_{0}} en :

T ( F 0 + G ) T ( F 0 ) + F I ( T , F 0 , x ) d G ( x ) {\displaystyle T(F_{0}+G)\approx T(F_{0})+\int FI(T,F_{0},x)dG(x)} .

Le second terme de l'égalité étant linéaire en G {\displaystyle G} , ce développement approxime T ( F 0 + G ) {\displaystyle T(F_{0}+G)} par une fonction linéaire en G {\displaystyle G} de manière analogue à un développement limité d'ordre 1.

Plus formellement, lorsqu'une fonctionnelle T {\displaystyle T} est différentiable au sens de Fréchet, la dérivée fonctionnelle de T {\displaystyle T} est donnée par D T F 0 : G F I ( T , F 0 , x ) d G ( x ) {\displaystyle DT_{F_{0}}:G\mapsto \int FI(T,F_{0},x)dG(x)} .

La fonction d'influence donne aussi le développement de Von Mises d'ordre 1 de la statistique T {\displaystyle T} .

Fonction d'influence comme limite de la courbe de sensibilité

La fonction d'influence peut également être introduite comme la limite de la courbe de sensibilité, parfois appelée fonction de sensibilité ou fonction d'influence empirique[6]. Soit un échantillon aléatoire X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}} et T ( X 1 , . . . , X n ) {\displaystyle T(X_{1},...,X_{n})} une statistique. La courbe de sensibilité de la statistique T ( X ) {\displaystyle T(X)} en l'échantillon X {\displaystyle X} est définie par :

C S ( T , ( X 1 , . . . , X n ) , z ) = ( n + 1 ) × ( T ( x 1 , . . . , x n , z ) T ( x 1 , . . . , x n ) ) . {\displaystyle CS(T,(X_{1},...,X_{n}),z)=(n+1)\times \left(T(x_{1},...,x_{n},z)-T(x_{1},...,x_{n})\right).}

Cette courbe (lorsque les données sont unidimensionnelles) est généralement représentée en fonction de z {\displaystyle z} . Elle mesure l'effet d'une observation additionnelle ayant la valeur z {\displaystyle z} sur la statistique T {\displaystyle T} .

Le facteur n + 1 {\displaystyle n+1} permet d'éviter que la courbe ne tende vers 0 {\displaystyle 0} lorsque n {\displaystyle n} augmente. En effet, on s'attend à ce que l'effet d'une donnée additionnelle au n {\displaystyle n} existantes soit de l'ordre de 1 / ( n + 1 ) {\displaystyle 1/(n+1)} . On divise donc la différence par 1 / ( n + 1 ) {\displaystyle 1/(n+1)} ce qui revient à multiplier par n + 1 {\displaystyle n+1} .

Supposons les X i {\displaystyle X_{i}} indépendants et identiquement distribués selon une distribution F {\displaystyle F} . Si la courbe de sensibilité tend vers une limite simple, presque sûrement, alors cette limite est la fonction d'influence de T {\displaystyle T} en F {\displaystyle F}  :

z , C S ( T , ( X 1 , . . . , X n ) , z ) P F I ( T , F , z ) {\displaystyle \forall z,CS(T,(X_{1},...,X_{n}),z){\overset {P}{\to }}FI(T,F,z)}

Cependant, il existe des statistiques dont les courbes de sensibilité n'ont pas de limite. C'est le cas par exemple de la médiane. La fonction d'influence peut quand même exister (la fonction d'influence de la médiane est bien définie), mais elle ne correspond plus à la limite de la courbe de sensibilité.

Notions associées

Sensibilité aux erreurs aberrantes

La sensibilité aux erreurs aberrantes (gross error sensitivity en anglais) d'une statistique T {\displaystyle T} en une distribution F {\displaystyle F} est définie comme la borne supérieure (éventuellement infinie) de la norme de sa fonction d'influence. Dans le cas univarié, cette sensibilité s'écrit

γ ( T , F ) = sup z | F I ( T , F , z ) | {\displaystyle \gamma (T,F)=\sup _{z}|FI(T,F,z)|} .

Dans le cas multivarié, le choix de la norme utilisée à la place de la valeur absolue donne différentes définitions:

  • La sensibilité non standardisée, γ u ( T , F ) = sup z F I ( T , F , z ) 2 {\displaystyle \gamma _{u}(T,F)=\sup _{z}\lVert FI(T,F,z)\rVert _{2}} ,
  • La sensibilité auto-standardisée, γ s ( T , F ) = sup z { F I ( T , F , z ) T V T , F 1 F I ( T , F , z ) } 1 / 2 {\displaystyle \gamma _{s}(T,F)=\sup _{z}{\left\{FI(T,F,z)^{T}\cdot V_{T,F}^{-1}\cdot FI(T,F,z)\right\}}^{1/2}} V T , F {\displaystyle V_{T,F}} désigne la variance asymptotique de la statistique T {\displaystyle T} ,
  • La sensibilité standardisée par l'information de Fisher γ i ( T , F ) = sup z { F I ( T , F , z ) T J F I ( T , F , z ) } 1 / 2 {\displaystyle \gamma _{i}(T,F)=\sup _{z}{\left\{FI(T,F,z)^{T}\cdot J\cdot FI(T,F,z)\right\}}^{1/2}} J {\displaystyle J} désigne l'information de Fisher associée au paramètre T ( F ) {\displaystyle T(F)} , si celle-ci est disponible.

Il s'agit d'un indicateur de la robustesse d'une statistique T {\displaystyle T} : plus cette sensibilité est faible, plus la statistique est robuste.

B-robustesse

On dit qu'une statistique ou qu'un estimateur est B-robuste (B est l'initiale de bounded, signifiant borné en anglais) lorsque sa fonction d'influence est bornée, c'est-à-dire lorsque sa sensibilité aux erreurs aberrantes est finie. Intuitivement, cela signifie que cette statistique ne peut pas être "cassée" par une seule observation mal placée. Généralement, les estimateurs classiques ne sont pas B-robustes: moyennes, écart-type, estimateur des moindres carrés, la plupart des estimateurs par maximum de vraisemblance ou par méthode des moments. Plusieurs méthodes introduites par les statistiques robustes existent pour obtenir des estimateurs B-robustes.

Sensibilité aux variations locales

La sensibilité aux variations locales (local shift sensitivity en anglais) donne une indication des variations de la fonction d'influence :

λ = sup x y F I ( T , F , x ) F I ( T , F , y ) x y {\displaystyle \lambda =\sup _{x\neq y}{\frac {\lVert FI(T,F,x)-FI(T,F,y)\rVert }{\lVert x-y\rVert }}} >.

Une fonction d'influence peut être bornée mais avoir une sensibilité aux variations locales finie et vice-versa.

Point de rejet

Le point de rejet d'une statistique T {\displaystyle T} en F {\displaystyle F} est défini comme le rayon au delà duquel une observation n'a plus aucune influence sur la statistique, ρ ( T , F ) = inf r { r > 0 : x : | x | > r , F I ( T , F , x ) = 0 } . {\displaystyle \rho (T,F)=\inf _{r}\{r>0:\forall x:|x|>r,FI(T,F,x)=0\}.} Une point de rejet fini signifie que la statistique T {\displaystyle T} n'est plus du tout influencée par des observations trop extrêmes. Ce peut être une propriété recherchée de certains estimateurs si l'on suspecte par exemple que des données aberrantes sont issues d'un processus différent des autres et n'apportent aucune information.

Point de rupture

Le point de rupture (breakdown point en anglais) désigne la proportion de contamination suffisant à donner une valeur aberrante à un estimateur. Plus formellement, c'est la proportion minimale de contamination pouvant induire un biais asymptotique arbitrairement grand :

ρ ( T , F ) = inf { ε : sup z { T ( F ) T ( ( 1 ε ) F + ε Δ z ) = + } } {\displaystyle \rho (T,F)=\inf \left\{\varepsilon :\sup _{z}\left\{\lVert T(F)-T\left((1-\varepsilon )F+\varepsilon \Delta _{z}\right)\rVert =+\infty \right\}\right\}} .

Le point de rupture de la médiane est par exemple de 0.5 {\displaystyle 0.5} car il faut nécessairement changer la moitié des données pour pouvoir faire prendre à la médiane n'importe quelle valeur aberrante. Le point de rupture de la moyenne en revanche est de 0 {\displaystyle 0} car une seule donnée, placée suffisamment loin des autres, permet de donner à la moyenne n'importe quelle valeur.

Le point de rupture n'est pas défini à partir de la fonction d'influence mais il y est lié. En effet, un estimateur ayant un point de rupture non nul est nécessairement B-robuste. La réciproque n'est cependant pas vraie en général, il existe des estimateurs B-robustes ayant un point de rupture nul, même si ceux-ci sont rares.

Propriétés

Espérance de la fonction d'influence

La fonction d'influence est d'espérance nulle lorsque la contamination suit la même loi que les données :

E X F [ F I ( T , F , X ) ] = 0 {\displaystyle \mathbb {E} _{X\sim F}\left[FI(T,F,X)\right]=0} .

Cette propriété, combinée à l'utilisation de la fonction d'influence comme développement limité permet une approximation intéressante. Considérons un échantillon X 1 , . . . X n {\displaystyle X_{1},...X_{n}} de variables aléatoires indépendantes et identiquement distribuées suivant une distribution F {\displaystyle F} et notons F ^ n {\displaystyle {\hat {F}}_{n}} la fonction de répartition empirique de cet échantillon. Alors :

T ( X 1 , , X n ) = T ( F ^ n ) T ( F ) + F I ( T , F , x ) d ( F ^ n F ) ( x ) = T ( F ) + F I ( T , F , x ) d F ^ n ( x ) F I ( T , F , x ) d F ( x ) = T ( F ) + E X F ^ n F I ( T , F , X ) E X F F I ( T , F , X ) = T ( F ) + 1 n i = 1 n F I ( T , F , X i ) 0. {\displaystyle {\begin{array}{rcl}T(X_{1},\cdots ,X_{n})&=&T({\hat {F}}_{n})\\&\approx &T(F)+\int FI(T,F,x)d({\hat {F}}_{n}-F)(x)\\&=&T(F)+\int FI(T,F,x)d{\hat {F}}_{n}(x)-\int FI(T,F,x)dF(x)\\&=&T(F)+\mathbb {E} _{X\sim {\hat {F}}_{n}}FI(T,F,X)-\mathbb {E} _{X\sim F}FI(T,F,X)\\&=&T(F)+{\frac {1}{n}}\sum _{i=1}^{n}FI(T,F,X_{i})-0.\end{array}}}

Ce qui permet d'approximer T ( F ) {\displaystyle T(F)} par T ( X 1 , , X n ) 1 n i = 1 n F I ( T , F , X i ) {\displaystyle T(X_{1},\cdots ,X_{n})-{\frac {1}{n}}\sum _{i=1}^{n}FI(T,F,X_{i})} .

Cela peut être utile pour corriger un éventuel biais de T ( X 1 , . . . , X n ) {\displaystyle T(X_{1},...,X_{n})} dû à la taille finie de l'échantillon. Cette correction est très proche de celle réalisée par la méthode du jackknife. Pour rendre ce lien plus explicite, on peut remplacer dans l'expression précédente F I ( T , F , X i ) {\displaystyle FI(T,F,X_{i})} par n × ( T ( X 1 , . . . , X n ) T ( X 1 , , X i 1 , X i + 1 , , X n ) ) {\displaystyle n\times \left(T(X_{1},...,X_{n})-T(X_{1},\cdots ,X_{i-1},X_{i+1},\cdots ,X_{n})\right)} , ce qui revient à approximer la fonction d'influence par la courbe de sensibilité.

Variance asymptotique

La variance asymptotique d'une statistique T {\displaystyle T} est définie comme la limite de n v a r ( T ( X 1 , . . . , X n ) ) {\displaystyle n\cdot \mathrm {var} \left(T(X_{1},...,X_{n})\right)} lorsque n {\displaystyle n} tend vers l'infini. Elle peut être calculée à partir de la fonction d'influence.

Notons X = ( X 1 , . . . , X n ) {\displaystyle X=(X_{1},...,X_{n})} un échantillon aléatoire où les X i {\displaystyle X_{i}} sont indépendants et identiquement distribués selon une distribution F {\displaystyle F} . Alors, la variance asymptotique de T ( X ) {\displaystyle T(X)} correspond à la variance de sa fonction d'influence :

lim n + n v a r ( T ( X ) ) = E X F ( F I ( T , F , X ) F I ( T , F , X ) T ) . {\displaystyle \lim _{n\to +\infty }n\cdot \mathrm {var} (T(X))=\mathbb {E} _{X\sim F}\left(FI(T,F,X)\cdot FI(T,F,X)^{T}\right).}

Fonction d'influence des M-estimateurs

La fonction d'influence d'un M-estimateur se calcule facilement à partir de sa fonction de score. Soit θ ^ {\displaystyle {\hat {\theta }}} un M-estimateur d'un paramètre θ {\displaystyle \theta } . Notons ψ {\displaystyle \psi } sa fonction de score. Étant donné un échantillon, cet estimateur est donc solution de l'équation i = 1 n ψ ( x i , θ ) = 0 {\displaystyle \sum _{i=1}^{n}\psi (x_{i},\theta )=0} .

Alors, si θ {\displaystyle \theta } est consistent et vérifie quelques conditions de régularités, la fonction d'influence de θ ^ {\displaystyle {\hat {\theta }}} est donnée par :

F I ( θ ^ , F , x ) = M 1 ψ ( x , θ ) {\displaystyle FI({\hat {\theta }},F,x)=-M^{-1}\cdot \psi (x,\theta )}

M = E X F [ θ ψ ( X , θ ) ] {\displaystyle M=-\mathbb {E} _{X\sim F}\left[{\frac {\partial }{\partial \theta }}\psi (X,\theta )\right]} et où θ {\displaystyle \theta } est la vraie valeur du paramètre.

La fonction d'influence d'un estimateur est donc proportionnelle à sa fonction de score. Il s'ensuit qu'un M-estimateur est B-robuste si et seulement si sa fonction de score est bornée. Cela donne une grande importance aux M-estimateurs dans les statistiques robustes. En effet il est facile de construire des estimateur robustes par exemple en tronquant simplement la fonction de score d'estimateurs existants (et en corrigeant le biais induit).

Voir aussi

Références

  1. Frank R. Hampel, « The Influence Curve and its Role in Robust Estimation », Journal of the American Statistical Association, vol. 69, no 346,‎ , p. 383–393 (ISSN 0162-1459 et 1537-274X, DOI 10.1080/01621459.1974.10482962, lire en ligne)
  2. (en) Frank R. Hampel, Contributions to the theory of robust estimation : Ph.D. thesis.,
  3. (en) Frank R. Hampel, Elvezio M. Ronchetti, Peter J. Rousseuw et Werner A. Stahel, Robust Statistics: The Approach Based on Influence Functions, Wiley,
  4. Christophe Croux, « Limit behavior of the empirical influence function of the median », Statistics & Probability Letters, vol. 37, no 4,‎ , p. 331–340 (ISSN 0167-7152, DOI 10.1016/s0167-7152(97)00135-1, lire en ligne)
  5. Stephane Heritier, Eva Cantoni, Samuel Copt et Maria-Pia Victoria-Feser, Robust Methods in Biostatistics, Wiley Series in Probability and Statistics, (ISSN 1940-6347, DOI 10.1002/9780470740538, lire en ligne)
  6. (en) Ricardo A. Maronna, R. Douglas Martin et Victor J. Yohai, Robust statistics : Theory and Methods, Wiley,
  • icône décorative Portail des probabilités et de la statistique