Esperança matemàtica

L'esperança matemàtica (o senzillament esperança) o mitjana d'una variable aleatòria és, en teoria de la probabilitat, la mitjana dels valors que pot prendre la variable ponderats per la probabilitat d'aquests valors. Representa el valor mitjà que un "espera" de la variable després d'un nombre elevat de repeticions de l'experiment aleatori. Val a dir que el valor que pren l'esperança matemàtica en alguns casos pot no ser "esperat" en el sentit més general de la paraula - el valor de l'esperança pot no ser un dels valors possibles de la variable; per exemple, el valor esperat quan llencem un dau equilibrat de 6 cares és 3,5 però 3,5 no és un valor possible al rodar el dau. Una aplicació comú de l'esperança matemàtica és en les apostes o els jocs d'atzar.

Història

Al segle xvii Blaise Pascal va estudiar un famós problema entre dos jugadors a petició d'Antoine Gombaud. El problema era que els dos jugadors que volien acabar un joc en el que participaven i volien dividir els diners que han apostat fins aquell moment de forma justa, basant-se en la probabilitat que cadascú té de guanyar el joc des d'aquell moment. Com han de trobar aquesta "quantitat justa"? El 1654 va mantenir correspondència amb Pierre de Fermat sobre el tema dels jocs d'atzar, i és en el debat sobre aquest problema que es van bastir els fonaments de la teoria matemàtica de les probabilitats i la noció de valor esperat.

L'ús de la lletra "E" per indicar el valor esperat es remunta a William Allen Whitworth (1901) "Choice and chance". El símbol s'ha tornat popular, ja que per als escriptors anglesos significa "Expectation", per als alemanys "Erwartungswert", i per als francesos "espérance".

Exemple introductori

Ruleta amb dos resultats possibles
Figura 1. Ruleta amb dos resultats possibles

Suposem que juguem amb una ruleta que només pot donar dos resultats: blanc amb probabilitat 3/5 i verd amb probabilitat 2/5, i apostem que quan surti blanc guanyarem 10 euros i quan surti verd en perdrem 2. Vegeu la Figura 1. Considerem una variable aleatòria X {\displaystyle X} que descriu aquesta situació:

P ( X = 10 ) = 3 5 i P ( X = 2 ) = 2 5 . {\displaystyle P(X=10)={\frac {3}{5}}\quad {\text{i}}\quad P(X=-2)={\frac {2}{5}}.}

Així, la variable aleatòria X {\displaystyle X} només pren els valors 10 i -2, però amb probabilitat més alta 10 que -2; i si volem resumir la variable en un únic nombre, haurem de tenir-ho en compte, ja que no és raonable dir que la mitjana dels valors que pren la variable és (10-2)/2=4. D'acord amb la interpretació freqüentista de les probabilitats, si participem n {\displaystyle n}  vegades en aquest joc ( n {\displaystyle n} gran), aproximadament 3 5 × n {\displaystyle {\frac {3}{5}}\times n} vegades guanyarem 10 euros i 2 5 × n {\displaystyle {\frac {2}{5}}\times n} vegades perdrem 2 euros. La mitjana dels guanys entre totes les jugades serà, aproximadament,

10 3 5 n 2 2 5 n n = 10 3 5 2 2 5 = 5 , 2    euros . {\displaystyle {10\cdot {3 \over 5}n-2\cdot {2 \over 5}n \over n}=10\cdot {3 \over 5}-2\cdot {2 \over 5}=5{,}2\ {\text{ euros}}.}

Anomenarem esperança o mitjana de X {\displaystyle X} a

E ( X ) = 10 3 5 2 2 5 = 5 , 2 {\displaystyle E(X)=10\cdot {3 \over 5}-2\cdot {2 \over 5}=5{,}2}

Càlcul de l'esperança de variable aleatòries

Variables aleatòries discretes que prenen un nombre finit de valors

Sigui X {\displaystyle X} una variable aleatòria discreta que pren els valors x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} amb probabilitats p 1 , , p n {\displaystyle p_{1},\dots ,p_{n}} respectivament. L'esperança de X {\displaystyle X} es calcula per

E ( X ) = x 1 p 1 + + x n p n = i = 1 n x i p i . ( 1 ) {\displaystyle E(X)=x_{1}p_{1}+\cdots +x_{n}p_{n}=\sum _{i=1}^{n}x_{i}p_{i}.\quad (1)}
Exemples.

  1. Si tenim un dau ordinari amb probabilitats
    P ( X = 1 ) = = P ( X = 6 ) = 1 6 , {\displaystyle P(X=1)=\cdots =P(X=6)={\frac {1}{6}},}
    aleshores,
    E ( X ) = 1 1 6 + + 6 1 6 = 1 6 i = 1 6 i = 3 , 5. {\displaystyle E(X)=1\cdot {\frac {1}{6}}+\cdots +6\cdot {\frac {1}{6}}={\frac {1}{6}}\sum _{i=1}^{6}i=3,5.}
  2. Mes generalment, si tenim una variable aleatòria uniforme sobre els punts 1 , 2 , , n {\displaystyle 1,\,2,\dots ,n} , tots amb probabilitat 1 / n {\displaystyle 1/n} , aleshores,
    E ( X ) = i = 1 n i 1 n = 1 n i = 1 n i = 1 n n ( n + 1 ) 2 = n + 1 2 , {\displaystyle E(X)=\sum _{i=1}^{n}i\,{\frac {1}{n}}={\frac {1}{n}}\sum _{i=1}^{n}i={\frac {1}{n}}{\frac {n(n+1)}{2}}={\frac {n+1}{2}},}
    on hem utilitzat la fórmula de la suma d'una progressió aritmètica.
  3. Si X {\displaystyle X} és una variable aleatòria amb distribució binomial de paràmetres n {\displaystyle n} i p {\displaystyle p} , és a dir, que pot prendre els valors 0,1,...,n, amb probabilitats:
    P ( X = k ) = ( n k ) p k ( 1 p ) n k ,   k = 0 , , n , {\displaystyle P(X=k)={\binom {n}{k}}p^{k}(1-p)^{n-k},\ k=0,\dots ,n,}
    aleshores
    E ( X ) = k = 0 n k ( n k ) p k ( 1 p ) n k = n p k = 1 n ( n 1 k 1 ) p k 1 ( 1 p ) n k = n p j = 0 n 1 ( n 1 j ) p j ( 1 p ) n 1 j = n p , {\displaystyle E(X)=\sum _{k=0}^{n}k\,{\binom {n}{k}}p^{k}(1-p)^{n-k}=np\,\sum _{k=1}^{n}{\binom {n-1}{k-1}}p^{k-1}(1-p)^{n-k}=np\,\sum _{j=0}^{n-1}{\binom {n-1}{j}}p^{j}(1-p)^{n-1-j}=np,}
    on al darrer sumatori hem fet el canvi j = k 1 {\displaystyle j=k-1} , i després hem utilitzat que
    j = 0 n 1 ( n 1 j ) p j ( 1 p ) n 1 j = j = 0 n 1 P ( Y = j ) = 1 , {\displaystyle \sum _{j=0}^{n-1}{\binom {n-1}{j}}p^{j}(1-p)^{n-1-j}=\sum _{j=0}^{n-1}P(Y=j)=1,}
    on Y {\displaystyle Y} és una variable binomial de paràmetres n 1 {\displaystyle n-1} i p {\displaystyle p} .

Variables aleatòries discretes que prenen un nombre infinit numerable de valors

Considerem ara una variable aleatòria X {\displaystyle X} que pot prendre un nombre infinit numerable de valors x 1 , x 2 , , {\displaystyle x_{1},\,x_{2},\dots ,} amb probabilitats p 1 , p 2 , , {\displaystyle p_{1},\,p_{2},\dots ,} respectivament. Aleshores la suma que apareix a (1) esdevé una sèrie infinita i cal anar amb cura. Concretament, l'esperança de X {\displaystyle X} [1] és

E ( X ) = i = 1 x i p i , {\displaystyle E(X)=\sum _{i=1}^{\infty }x_{i}p_{i},}
sempre que la sèrie anterior convergeixi absolutament, és a dir, i = 1 | x i | p i < . {\displaystyle \sum _{i=1}^{\infty }\vert x_{i}\vert \,p_{i}<\infty .} Si i = 1 | x i | p i = {\displaystyle \sum _{i=1}^{\infty }\vert x_{i}\vert \,p_{i}=\infty } es diu que X {\displaystyle X} no té esperança (o que no té esperança finita) o que l'esperança de X {\displaystyle X} no existeix.

Exemples.

  1. Sigui X {\displaystyle X} una variable aleatòria discreta amb la següent funció de probabilitat:
    P ( X = ( 1 ) k k ) = 1 e 1 k ! ,   k 0. {\displaystyle P(X=(-1)^{k}k)={\frac {1}{e}}\,{\frac {1}{k!}},\ k\geq 0.}

Es tracta d'una distribució de Poisson de paràmetre 1 però que els valors de la variable alternen el signe. Comencem mirant si l'esperança de X {\displaystyle X} existeix:

k = 0 | ( 1 ) k k | 1 e 1 k ! = 1 e k = 1 1 ( k 1 ) ! = 1 e k = 0 1 k ! = 1 , {\displaystyle \sum _{k=0}^{\infty }{\big \vert }(-1)^{k}k{\big \vert }\,{\frac {1}{e}}{\frac {1}{k!}}={\frac {1}{e}}\sum _{k=1}^{\infty }{\frac {1}{(k-1)!}}={\frac {1}{e}}\sum _{k=0}^{\infty }{\frac {1}{k!}}=1,}
on hem utilitzat el desenvolupament en serie de la funció exponencial: per a qualsevol x R , {\displaystyle x\in \mathbb {R} ,} e x = k = 0 x k k ! . {\displaystyle e^{x}=\sum _{k=0}^{\infty }{\frac {x^{k}}{k!}}.} Aleshores podem calcular l'esperança de X {\displaystyle X} :
E ( X ) = k = 0 ( 1 ) k k 1 e 1 k ! = 1 e k = 1 ( 1 ) k ( k 1 ) ! = 1 e k = 0 ( 1 ) k k ! = 1 e 2 0 , 135 {\displaystyle E(X)=\sum _{k=0}^{\infty }(-1)^{k}k\,{\frac {1}{e}}\,{\frac {1}{k!}}={\frac {1}{e}}\sum _{k=1}^{\infty }{\frac {(-1)^{k}}{(k-1)!}}=-{\frac {1}{e}}\sum _{k=0}^{\infty }{\frac {(-1)^{k}}{k!}}=-{\frac {1}{e^{2}}}\approx -0,135}

2. Considerem ara una variable aleatòria discreta amb probabilitats

P ( X = ( 1 ) k k ) = 6 π 2 1 k 2 ,   k 1. {\displaystyle P(X=(-1)^{k}k)={\frac {6}{\pi ^{2}}}\,{\frac {1}{k^{2}}},\ k\geq 1.}
Aleshores
k = 1 | ( 1 ) k k | 6 π 2 1 k 2 = 6 π 2 k = 1 1 k = . {\displaystyle \sum _{k=1}^{\infty }{\big \vert }(-1)^{k}k{\big \vert }\,{6 \over \pi ^{2}}\,{1 \over k^{2}}={\frac {6}{\pi ^{2}}}\sum _{k=1}^{\infty }{1 \over k}=\infty .}
Per tant, l'esperança de X {\displaystyle X} no existeix.

Variables aleatòries absolutament contínues

Sigui X {\displaystyle X} una variable aleatòria amb funció de densitat f {\displaystyle f} . Aleshores l'esperança de X {\displaystyle X} es calcula per [2]

E ( X ) = x f ( x ) d x , {\displaystyle E(X)=\int _{-\infty }^{\infty }xf(x)dx,}

sempre que la integral anterior sigui absolutament convergent: | x | f ( x ) d x < . {\displaystyle \int _{-\infty }^{\infty }\vert x\vert f(x)dx<\infty .}

Exemples.

1. Variable normal estàndard. Sigui X {\displaystyle X} una variable aleatòria normal amb μ = 0 {\displaystyle \mu =0} i σ = 1 {\displaystyle \sigma =1} , amb funció de densitat

f ( x ) = 1 2 π e x 2 / 2 , x R . {\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}\,e^{-x^{2}/2},\quad x\in \mathbb {R} .}
Aleshores,
| x | e x 2 / 2 d x = 2 0 x e x 2 / 2 d x = 2. {\displaystyle \int _{-\infty }^{\infty }\vert x\vert \,e^{-x^{2}/2}dx=2\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=2.}

Llavors l'esperança de X {\displaystyle X} existeix i val:

E ( X ) = x e x 2 / 2 d x = 0 x e x 2 / 2 d x + 0 x e x 2 / 2 d x = 0 x e x 2 / 2 d x + 0 x e x 2 / 2 d x = 0. {\displaystyle E(X)=\int _{-\infty }^{\infty }x\,e^{-x^{2}/2}dx=\int _{-\infty }^{0}x\,e^{-x^{2}/2}dx+\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=-\int _{0}^{\infty }x\,e^{-x^{2}/2}dx+\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=0.}

2. Considerem una variable aleatòria X {\displaystyle X} amb distribució de Cauchy estàndard, amb funció de densitat

f ( x ) = 1 π 1 1 + x 2 ,   x R . {\displaystyle f(x)={1 \over \pi }{1 \over 1+x^{2}},\ x\in \mathbb {R} .}
Aleshores
1 π | x | 1 1 + x 2 d x = 2 π 0 x 1 + x 2 d x = . {\displaystyle {\frac {1}{\pi }}\int _{-\infty }^{\infty }\vert x\vert \,{1 \over 1+x^{2}}\,dx={\frac {2}{\pi }}\int _{0}^{\infty }{x \over 1+x^{2}}\,dx=\infty .}
Per tant, l'esperança de X {\displaystyle X} no existeix.

Esperança d'una funció d'una variable aleatòria

Sigui X {\displaystyle X} una variable aleatòria. Ens ocuparem ara de calcular l'esperança d'una funció d'aquesta variable: Y = g ( X ) {\displaystyle Y=g(X)} (vegeu mes avall, a la definició general d'esperança matemàtica, les condicions sobre la funció g {\displaystyle g} ). Si X {\displaystyle X} és discreta, també ho serà Y {\displaystyle Y} i, d'acord amb les fórmules anteriors, per calcular E ( Y ) {\displaystyle E(Y)} hauríem de buscar primer la funció de probabilitat de Y {\displaystyle Y} ; la següent fórmula ens permet calcular l'esperança directament: amb les notacions anteriors,

E ( g ( X ) ) = i = 1 g ( x i )   p i , {\displaystyle \operatorname {E} (g(X))=\sum _{i=1}^{\infty }g(x_{i})\ p_{i},}

sempre que i = 1 | g ( x i ) | p i < {\displaystyle \sum _{i=1}^{\infty }\,{\big \vert }g(x_{i}){\big \vert }\,p_{i}<\infty } . Si la variable pren només un nombre finit de valors, aleshores la suma és finita i sempre existeix l'esperança de g ( X ) {\displaystyle g(X)} .

Exemple. Considerem el cas del llançament del dau i la funció g ( x ) = x 2 . {\displaystyle g(x)=x^{2}.} Aleshores

E ( X 2 ) = 1 2 1 6 + + 6 2 1 6 = 15 , 17. {\displaystyle E(X^{2})=1^{2}\,{\frac {1}{6}}+\cdots +6^{2}\,{\frac {1}{6}}=15,17.}
Ara podem calcular la variància de X {\displaystyle X} :
Variància ( X ) = E ( X 2 ) ( E ( X ) ) 2 = 15 , 17 3.5 2 = 2 , 67. {\displaystyle {\text{Variància}}(X)=E(X^{2})-{\big (}E(X){\big )}^{2}=15,17-3.5^{2}=2,67.}

Anàlogament, en el cas absolutament continu, per calcular E ( g ( X ) ) {\displaystyle E{\big (}g(X){\big )}} hauríem de buscar primer la densitat de Y = g ( X ) {\displaystyle Y=g(X)} , però ens ho podem estalviar gràcies a la següent fórmula:

E ( g ( X ) ) = g ( x ) f ( x ) d x , {\displaystyle \operatorname {E} (g(X))=\int _{-\infty }^{\infty }g(x)f(x)\,\operatorname {d} x,}
sempre que | g ( x ) | f ( x ) d x < . {\displaystyle \int _{-\infty }^{\infty }{\big \vert }g(x){\big \vert }\,f(x)\,\operatorname {d} x<\infty .}

Exemple. Sigui X {\displaystyle X} una variable normal estàndard, i considerem com abans la funció g ( x ) = x 2 . {\displaystyle g(x)=x^{2}.} Aleshores, integrant per parts,

E ( X 2 ) = x 2 f ( x ) d x = 1 2 π x 2 e x 2 / 2 d x = 1. {\displaystyle E(X^{2})=\int _{-\infty }^{\infty }x^{2}\,f(x)\,dx={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }x^{2}\,e^{-x^{2}/2}\,dx=1.}
Com que | x 2 | = x 2 {\displaystyle {\big \vert }x^{2}{\big \vert }=x^{2}} , la mateixa integral serveix per comprovar que l'esperança de X 2 {\displaystyle X^{2}} existeix i per al càlcul d'aquesta esperança. A partir d'aquí, la variància de X {\displaystyle X} és
Variància ( X ) = E ( X 2 ) ( E ( X ) ) 2 = 1 0 = 1. {\displaystyle {\text{Variància}}(X)=E(X^{2})-{\big (}E(X){\big )}^{2}=1-0=1.}

Jocs justos i esperança matemàtica

Si X {\displaystyle X} representa el benefici d'un jugador que aposta en un joc d'atzar, es diu que el joc és just si E ( X ) = 0 {\displaystyle E(X)=0} , és a dir, després d'estar jugant moltes partides, no ha guanyat ni perdut res: només ha passat l'estona. Tots els jocs d'atzar dels casinos, les loteries, etc, són jocs injustos (ningú posa un casino per filantropia): un jugador pot tenir sort en algunes jugades i guanyar, però si insisteix i va jugant, a la llarga, com que s'aplica la llei dels grans nombres i el teorema central del límit, el jugador acaba perdent.

Per exemple, la ruleta americana té 38 caselles equiprobables, numerades de l'1 al 36, una casella amb el 0 i una altra amb el doble 0. Si la bola va a parar a les caselles del 0 o del doble 0, el jugador perd tota l'aposta. El guany per encertar una aposta a un sol número (de l'1 al 36) paga de 35 a 1 (és a dir, cobrem 35 vegades el que hem apostat i recuperem l'aposta, de manera que rebem 36 vegades el que hem apostat). Per tant, considerant els 38 possibles resultats, l'esperança matemàtica del benefici per apostar a un sol número és:

( 1 × 37 38 ) + ( 35 × 1 38 ) 0 , 0526. {\displaystyle \left(-1\times {\frac {37}{38}}\right)+\left(35\times {\frac {1}{38}}\right)\approx -0,0526.}

Per tant un espera, en mitjana, perdre uns 5 cèntims per cada euro que aposta; d'una altra manera, el valor esperat per apostar 1 euro són 0,9474 euros.

Esperança i independència

Si X {\displaystyle X} i Y {\displaystyle Y} són dues variables aleatòries independents (ambdues amb esperança), aleshores,[3]

E ( X Y ) = E ( X ) E ( Y ) . {\displaystyle E(X\,Y)=E(X)\,E(Y).}
Llavors, la variància de la suma o la resta de X {\displaystyle X} i Y {\displaystyle Y} es simplifica:[4]
Var ( X + Y ) = Var ( X Y ) = Var ( X ) + Var ( Y ) . {\displaystyle {\text{Var}}(X+Y)={\text{Var}}(X-Y)={\text{Var}}(X)+{\text{Var}}(Y).}
Mes generalment, si X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} són variables aleatòries independents (totes amb esperança), aleshores [5]
E ( X 1 X n ) = E ( X 1 ) E ( X n ) . {\displaystyle E(X_{1}\cdots X_{n})=E(X_{1})\cdots E(X_{n}).}
La fórmula de la variància de la suma de les variables també es simplifica:
Var ( i = 1 n X i ) = i = 1 n Var ( X i ) . {\displaystyle {\text{Var}}{\Big (}\sum _{i=1}^{n}X_{i}{\Big )}=\sum _{i=1}^{n}{\text{Var}}(X_{i}).}

Esperança condicionada

Esperança condicionada per variables aleatòries discretes

Comencem estudiant un exemple:

Exemple. Traiem una paraula a l'atzar de la frase:

ÉS MASSA BO PER SER CERT

Considerem les següents variables aleatòries:

  • X {\displaystyle X} és el nombre de lletres que té la paraula que traiem.
  • Y {\displaystyle Y} és el nombre de vegades que la paraula té la lletra E .

La funció de probabilitat del vector ( X , Y ) {\displaystyle (X,Y)} ve donada a la taula següent (recordeu que l'expressió treure a l'atzar vol dir que s'utilitza una probabilitat uniforme, en aquest cas, que totes les paraules tenen probabilitat 1/6):

X 2 3 4 5 0 1 / 6 0 0 1 / 6 Y 1 1 / 6 1 / 3 1 / 6 0 {\displaystyle {\begin{array}{cc|cccc}&&&{\boldsymbol {X}}\\&&2&3&4&5\\\hline &0&1/6&0&0&1/6\\{\boldsymbol {Y}}\\&1&1/6&1/3&1/6&0\\\hline \end{array}}}

A partir d'aquesta taula, sumant per files o columnes, o be directament calculant les probabilitats, es dedueixen les funcions de probabilitat de les variables X {\displaystyle X} i Y {\displaystyle Y} :

i 2 3 4 5 P ( X = i ) 1 / 3 1 / 3 1 / 6 1 / 6 j 0 1 P ( Y = j ) 1 / 3 2 / 3 {\displaystyle {\begin{array}{c|ccccc}\hline i&2&3&4&5\\\hline P(X=i)&1/3&1/3&1/6&1/6\\\hline \end{array}}\qquad \qquad {\begin{array}{c|ccc}\hline j&0&1\\\hline P(Y=j)&1/3&2/3\\\hline \end{array}}}

Les probabilitats condicionades es calculen per la fórmula

P ( X = i | Y = j ) = P ( X = i , Y = j ) P ( Y = j ) . {\displaystyle P(X=i|Y=j)={\frac {P(X=i,Y=j)}{P(Y=j)}}.}

Llavors tenim les següents taules:

i 2 3 4 5 P ( X = i | Y = 0 ) 1 / 2 0 0 1 / 2 i 2 3 4 5 P ( X = i | Y = 1 ) 1 / 4 1 / 2 1 / 4 0 {\displaystyle {\begin{array}{c|ccccc}\hline i&2&3&4&5\\\hline P(X=i|Y=0)&1/2&0&0&1/2\\\hline \end{array}}\qquad \qquad {\begin{array}{c|ccccc}\hline i&2&3&4&5\\\hline P(X=i|Y=1)&1/4&1/2&1/4&0\\\hline \end{array}}}

Ara podem calcular l'esperança de X {\displaystyle X} condicionada per Y {\displaystyle Y} , on cal distingir dos casos, segons els valors de Y {\displaystyle Y} :

E ( X | Y = 0 ) = 2 1 2 + 3 0 + 4 0 + 5 1 2 = 3 , 5. {\displaystyle E(X|Y=0)=2\,{\frac {1}{2}}+3\cdot 0+4\cdot 0+5\,{\frac {1}{2}}=3,5.}

Aquesta és la mitjana de les paraules que no tenen cap E.

Anàlogament és calcula E ( X | Y = 1 ) = 3 , {\displaystyle E(X|Y=1)=3,} que és la mitjana de les paraules que tenen una E. Aquestes dues expressions les podem resumir en

E ( X | Y ) = { 3 , 5 , quan    Y = 0 , 3 , quan    Y = 1. {\displaystyle E(X|Y)={\begin{cases}3,5,&{\text{quan }}\ Y=0,\\3,&{\text{quan }}\ Y=1.\end{cases}}}

Veiem així que E ( X | Y ) {\displaystyle E(X|Y)} és una nova variable aleatòria que és funció de la variable Y {\displaystyle Y} .

Cas discret general

Donades dues variables aleatòries discretes, X {\displaystyle X} que pot prendre els valors x 1 , x 2 , , {\displaystyle x_{1},x_{2},\dots ,} i que té esperança, i Y {\displaystyle Y} que pot prendre els valors y 1 , y 2 , {\displaystyle y_{1},y_{2},\dots } (suposem que P ( Y = y j ) > 0 , j = 1 , 2 , {\displaystyle P(Y=y_{j})>0,j=1,2,\dots } ) definim l'esperança de X {\displaystyle X} condicionada [6] per Y = y j {\displaystyle Y=y_{j}}

E ( X | Y = y j ) = i x i P ( X = x i | Y = y j ) . {\displaystyle \operatorname {E} (X|Y=y_{j})=\sum \limits _{i}x_{i}\cdot \operatorname {P} (X=x_{i}|Y=y_{j}).}

on P ( X = x i | Y = y j ) . {\displaystyle \operatorname {P} (X=x_{i}|Y=y_{j}).} és la probabilitat de l'esdeveniment X = x i {\displaystyle X=x_{i}} condicionada a Y = y j {\displaystyle Y=y_{j}} : P ( X = x i | Y = y j ) = P ( X = x i , Y = y j ) P ( Y = y j ) . {\displaystyle P(X=x_{i}|Y=y_{j})={\frac {P(X=x_{i},Y=y_{j})}{P(Y=y_{j})}}.}

Podem resumir tots els casos de les esperances condicionades als diferents y j {\displaystyle y_{j}} en una nova variable aleatòria designada per E ( X | Y ) {\displaystyle E(X|Y)} i anomenada esperança de X {\displaystyle X} condicionada per Y {\displaystyle Y} :

E ( X | Y ) ( ω ) = { E ( X | Y = y 1 ) si   Y ( ω ) = y 1 , E ( X | Y = y 2 ) si   Y ( ω ) = y 2 , {\displaystyle E(X|Y)(\omega )={\begin{cases}E(X|Y=y_{1})&{\text{si}}\ Y(\omega )=y_{1},\\E(X|Y=y_{2})&{\text{si}}\ Y(\omega )=y_{2},\\\qquad \vdots \end{cases}}}

Tenim que

j E ( X | Y = y j ) P ( Y = y j ) {\displaystyle \sum \limits _{j}\operatorname {E} (X|Y=y_{j})\cdot \operatorname {P} (Y=y_{j})\,} = j ( i x i P ( X = x i | Y = y j ) ) P ( Y = y j ) {\displaystyle =\sum \limits _{j}\left(\sum \limits _{i}x_{i}\cdot \operatorname {P} (X=x_{i}|Y=y_{j})\right)\cdot \operatorname {P} (Y=y_{j})\,} = j i x i P ( X = x i | Y = y j ) P ( Y = y j ) {\displaystyle =\sum \limits _{j}\sum \limits _{i}x_{i}\cdot \operatorname {P} (X=x_{i}|Y=y_{j})\cdot \operatorname {P} (Y=y_{j})\,} = j i x i P ( Y = y j | X = x i ) P ( X = x i ) {\displaystyle =\sum \limits _{j}\sum \limits _{i}x_{i}\cdot \operatorname {P} (Y=y_{j}|X=x_{i})\cdot \operatorname {P} (X=x_{i})\,}
= i x i P ( X = x i ) ( j P ( Y = y j | X = x i ) ) {\displaystyle =\sum \limits _{i}x_{i}\cdot \operatorname {P} (X=x_{i})\cdot \left(\sum \limits _{j}\operatorname {P} (Y=y_{j}|X=x_{i})\right)\,} = i x i P ( X = x i ) {\displaystyle =\sum \limits _{i}x_{i}\cdot \operatorname {P} (X=x_{i})\,} = E ( X ) , {\displaystyle =\operatorname {E} (X),}

on hem utilitzat que del fet que X {\displaystyle X} té esperança es dedueix que la sèrie doble que apareix és absolutament convergent i, per tant, es poden commutar els sumatoris,[7] i que

j P ( Y = y j | X = x i ) = P ( Y R | X = x i ) = 1. {\displaystyle \sum _{j}P(Y=y_{j}|X=x_{i})=P(Y\in \mathbb {R} |X=x_{i})=1.}

Així, tenim

E ( X ) = j E ( X | Y = y j ) P ( Y = y j ) , {\displaystyle \operatorname {E} (X)=\sum \limits _{j}\operatorname {E} (X|Y=y_{j})\cdot \operatorname {P} (Y=y_{j}),}
que s'anomena fórmula de l'esperança total.[6]

Equivalentment podem escriure

E ( X ) = E ( E ( X | Y ) ) . {\displaystyle \operatorname {E} (X)=\operatorname {E} \left(\operatorname {E} (X|Y)\right).}
La part dreta de l'equació s'anomena esperança iterada.

Comentari. L'esperança condicionada ens dona el valor de l'esperança de X {\displaystyle X} segons els valors de Y {\displaystyle Y} . En Estadística, l'esperança condicionada correspon a la idea de calcular la mitjana d'una població per estrats; per exemple, si estem analitzant les alçades d'una població que tenim dividida en homes i dones (els estrats), podem calcular la mitjana per als homes i per a les dones. Si calculem la mitjana de les mitjanes, ponderades segons la importància dels estrats, obtindrem la mitjana de tota la població, que és el que diu la fórmula de l'esperança total.

Esperança condicionada per a variables absolutament contínues

Sigui ( X , Y ) {\displaystyle (X,Y)} un vector aleatori absolutament continu, amb funció de densitat conjunta f ( X , Y ) ( x , y ) {\displaystyle f_{(X,Y)}(x,y)} , i Y {\displaystyle Y} amb funció de densitat f Y ( y ) {\displaystyle f_{Y}(y)} (densitat marginal). Per a y {\displaystyle y} tal que f Y ( y ) > 0 {\displaystyle f_{Y}(y)>0} es defineix la funció de densitat de X {\displaystyle X} condicionada per Y = y {\displaystyle Y=y}

f X | Y ( x | y ) = f ( X , Y ) ( x , y ) f Y ( y ) . {\displaystyle f_{X|Y}(x|y)={f_{(X,Y)}(x,y) \over f_{Y}(y)}.}

Quan y {\displaystyle y} és tal que f Y ( y ) = 0 {\displaystyle f_{Y}(y)=0} , aleshores es pot prendre com a f X | Y ( x | y ) {\displaystyle f_{X|Y}(x|y)} qualsevol funció de densitat, ja que no té transcendència en cap càlcul; a la pràctica, normalment no es concreta aquesta densitat.

Si suposem que la variable X {\displaystyle X} té esperança, aleshores l'esperança de X {\displaystyle X} condicionada per Y = y {\displaystyle Y=y} és [6]

E ( X | Y = y ) = x f X | Y ( x | y ) d x . {\displaystyle E(X|Y=y)=\int _{-\infty }^{\infty }xf_{X|Y}(x|y)\,dx.}

Com que hem integrat respecte x {\displaystyle x} , l'expressió E ( X | Y = y ) {\displaystyle E(X|Y=y)} queda una funció de y {\displaystyle y} : posem

E ( X | Y = y ) = h ( y ) , {\displaystyle E(X|Y=y)=h(y),}

i, tal com fèiem en el cas discret, podem definir una nova variable aleatòria

E ( X | Y ) ( ω ) = h ( Y ( ω ) ) . {\displaystyle E(X|Y)(\omega )=h(Y(\omega )).}


La variable E ( X | Y ) {\displaystyle E(X|Y)} s'anomena esperança de X {\displaystyle X} condicionada per Y {\displaystyle Y} .

La funció de densitat conjunta val 2 sobre el triangle T i zero fora.
Figura 2. La funció de densitat conjunta val 2 sobre el triangle T i zero fora.

Exemple. Sigui ( X , Y ) {\displaystyle (X,Y)} un vector aleatori bidimensional amb distribució uniforme en el triangle T {\displaystyle {\mathcal {T}}} de vèrtexs els punts (0,0), (1,0) i (1,1). La funció de densitat conjunta (vegeu la Figura 2) és

f ( X , Y ) ( x , y ) = { 2 , si   ( x , y ) T , 0 , en cas contrari. {\displaystyle f_{(X,Y)}(x,y)={\begin{cases}2,&{\text{si}}\ (x,y)\in {\mathcal {T}},\\0,&{\text{en cas contrari.}}\end{cases}}}

La funció de densitat de Y {\displaystyle Y} es calcula per la fórmula:

f Y ( y ) = f ( X , Y ) ( x , y )   d x {\displaystyle f_{Y}(y)=\int _{-\infty }^{\infty }f_{(X,Y)}(x,y)\ dx}

Ara cal distingir dos casos:

1. Fixada y ( 0 , 1 ) {\displaystyle y\notin (0,1)} , aleshores f ( X , Y ) ( x , y ) = 0 ,   x {\displaystyle f_{(X,Y)}(x,y)=0,\ \forall x} . És evident que f Y ( y ) = 0. {\displaystyle f_{Y}(y)=0.}

2. Fixada y ( 0 , 1 ) {\displaystyle y\in (0,1)} ,

f ( X , Y ) ( x , y ) = { 2 , si   x ( y , 1 ) , 0 , en cas contrari. {\displaystyle f_{(X,Y)}(x,y)={\begin{cases}2,&{\text{si}}\ x\in (y,1),\\0,&{\text{en cas contrari.}}\end{cases}}}

Llavors

f Y ( y ) = f ( X , Y ) ( x , y ) d x = y 1 2 d x = 2 ( 1 y ) . {\displaystyle f_{Y}(y)=\int _{-\infty }^{\infty }f_{(X,Y})(x,y)\,dx=\int _{y}^{1}2\,dx=2(1-y).}

Ajuntant ambdós casos tenim

f Y ( y ) = { 2 ( 1 y ) , si   y ( 0 , 1 ) , 0 , en cas contrari. {\displaystyle f_{Y}(y)={\begin{cases}2(1-y),&{\text{si}}\ y\in (0,1),\\0,&{\text{en cas contrari.}}\end{cases}}}

Ara ja podem calcular la densitat condicionada f X | Y ( x | y ) {\displaystyle f_{X|Y}(x|y)} . Tal com hem comentat, només la calcularem per a y ( 0 , 1 ) {\displaystyle y\in (0,1)}

f X | Y ( x | y ) = f ( X , Y ) ( x , y ) f Y ( y ) = { 1 1 y , quan   x ( y , 1 ) , 0 , en cas contrari . {\displaystyle f_{X|Y}(x|y)={\frac {f_{(X,Y)}(x,y)}{f_{Y}(y)}}={\begin{cases}{\dfrac {1}{1-y}},&{\text{quan}}\ x\in (y,1),\\0,&{\text{en cas contrari}}.\end{cases}}}

Funció de densitat condicionada
Figura 3. Funció de densitat condicionada

Vegeu la Figura 3. Noteu que els papers de x {\displaystyle x} i de y {\displaystyle y} són completament diferents. Fixada la y ( 0 , 1 ) {\displaystyle y\in (0,1)} tenim una funció de densitat en x {\displaystyle x} . De fet, en aquest cas, es tracta de la densitat d'una distribució uniforme en l'interval ( y , 1 ) . {\displaystyle (y,1).}

Ara ja podem calcular l'esperança condicionada de X {\displaystyle X} condicionada per Y = y {\displaystyle Y=y} , que només es calcula per y ( 0 , 1 ) {\displaystyle y\in (0,1)} , que són els valors de Y {\displaystyle Y} que poden sortir:

E ( X | Y = y ) = x f X | Y ( x | y ) d x = y 1 x 1 1 y d x = 1 2 ( 1 + y ) . {\displaystyle E(X|Y=y)=\int _{-\infty }^{\infty }xf_{X|Y}(x|y)\,dx=\int _{y}^{1}x\,{\frac {1}{1-y}}\,dx={\frac {1}{2}}(1+y).}
Tal com comentàvem, aquesta és una funció de y {\displaystyle y} : E ( X | Y = y ) = 1 2 ( 1 + y ) = h ( y ) . {\displaystyle E(X|Y=y)={\frac {1}{2}}(1+y)=h(y).} Llavors,
E ( X | Y ) = 1 2 ( 1 + Y ) . {\displaystyle E(X|Y)={\frac {1}{2}}(1+Y).}


Formula de l'esperança total en el cas absolutament continu. [6]

E ( X ) = E [ X | Y = y ] f Y ( y ) d y . {\displaystyle E(X)=\int _{-\infty }^{\infty }E[X|Y=y]\,f_{Y}(y)\,dy.}

Definició general d'esperança

En general, si X {\displaystyle X\,} és una variable aleatòria definida en un espai de probabilitat ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)\,} i integrable respecte a la mesura de probabilitat P, aleshores l'esperança matemàtica de X {\displaystyle X\,} (denotada E ( X ) {\displaystyle \operatorname {E} (X)\,} o de vegades X {\displaystyle \langle X\rangle } o E ( X ) {\displaystyle \mathbb {E} (X)} ) es defineix com a[8]

E ( X ) = Ω X d P {\displaystyle \operatorname {E} (X)=\int _{\Omega }X\,\operatorname {d} P}

on la integral és una integral de Lebesgue respecte a la mesura de probabilitat P. La condició que l'esperança de X {\displaystyle X} existeixi és que E ( | X | ) ) < {\displaystyle E(\vert X\vert ))<\infty } .

Designem per P X {\displaystyle P_{X}} la llei o distribució de la variable aleatòria X {\displaystyle X} , és a dir, la probabilitat, sobre l'espai mesurable ( R , B ) {\displaystyle (\mathbb {R} ,{\mathcal {B}})} , on B {\displaystyle {\mathcal {B}}} és la σ {\displaystyle \sigma } -àlgebra de Borel sobre el conjunt dels nombre reals, definida de la següent manera: per qualsevol B B {\displaystyle B\in {\mathcal {B}}} ,

P X ( B ) = P ( X B ) . {\displaystyle P_{X}(B)=P(X\in B).}

Aleshores,[9]

E ( X ) = Ω X d P = R x d P X ( x ) = x d F X ( x ) ( 2 ) {\displaystyle \operatorname {E} (X)=\int _{\Omega }X\,\operatorname {d} P=\int _{\mathbb {R} }x\,\operatorname {d} P_{X}(x)=\int _{-\infty }^{\infty }x\,\operatorname {d} F_{X}(x)\qquad (2)}

on, a la darrera integral és una integral de Lebesgue-Stieltjes [10] respecte la funció de distribució de X {\displaystyle X} :

F ( x ) = P ( X x ) = P X ( ( , x ] ) . {\displaystyle F(x)=P(X\leq x)=P_{X}{\big (}(-\infty ,x]{\big )}.}

Les fórmules que hem vist a la secció del càlcul de l'esperança s'obtenen d'aplicar la igualtat (2) als casos discret i absolutament continus.

Si g : R R {\displaystyle g:\mathbb {R} \to \mathbb {R} } és una funció mesurable respecte la σ {\displaystyle \sigma } -àlgebra de Borel, tal que g ( X ) {\displaystyle g(X)} té esperança, és a dir, E ( | g ( X ) | ) < {\displaystyle E{\Big (}{\big \vert }g(X){\big \vert }{\Big )}<\infty } , aleshores

E ( g ( X ) ) = Ω g ( X ) d P = R g ( x ) d P X ( x ) = g ( x ) d F X ( x ) , {\displaystyle \operatorname {E} (g(X))=\int _{\Omega }g(X)\,dP=\int _{\mathbb {R} }g(x)\,dP_{X}(x)=\int _{-\infty }^{\infty }g(x)\,dF_{X}(x),}

d'on surten les fórmules del cas discret i absolutament continu que hem vist més amunt.

Observacions:

  1. La funció g {\displaystyle g} no cal que estigui definida a tot R {\displaystyle \mathbb {R} } , sinó només al conjunt on pren valors la variable X {\displaystyle X} . Per exemple, si X {\displaystyle X} és discreta, g {\displaystyle g} ha d'estar definida en el conjunt { x 1 , x 2 , } {\displaystyle \{x_{1},x_{2},\dots \}} dels punts tals que P ( X = x i ) > 0 {\displaystyle P(X=x_{i})>0} . O si X {\displaystyle X} és una variable no negativa, aleshores g {\displaystyle g} n'hi ha prou que estigui definida a [ 0 , ) {\displaystyle [0,\infty )} .
  2. Tota funció contínua és Borel mesurable.[11]

Propietats

Constants

El valor esperat d'una constant és igual a la mateixa constant, és a dir, si c és una constant, E(c) = c

Monotonia

Si X i Y són variables aleatòries amb esperança, tals que X Y {\displaystyle X\leq Y} q.s., aleshores E ( X ) E ( Y ) {\displaystyle \operatorname {E} (X)\leq \operatorname {E} (Y)} .

D'aquí es dedueix, tenint en compte que X | X | {\displaystyle X\leq |X|} i que X | X | {\displaystyle -X\leq |X|} , que

| E ( X ) | E ( | X | ) {\displaystyle |\operatorname {E} (X)|\leq \operatorname {E} (|X|)}

Linealitat

L'esperança matemàtica E {\displaystyle \operatorname {E} } és un operador lineal:

E ( X + c ) = E ( X ) + c {\displaystyle \operatorname {E} (X+c)=\operatorname {E} (X)+c\,}
E ( X + Y ) = E ( X ) + E ( Y ) {\displaystyle \operatorname {E} (X+Y)=\operatorname {E} (X)+\operatorname {E} (Y)\,}
E ( a X ) = a E ( X ) {\displaystyle \operatorname {E} (aX)=a\operatorname {E} (X)\,}

Combinant els resultats de les tres equacions prèvies, veiem que:

E ( a X + b ) = a E ( X ) + b {\displaystyle \operatorname {E} (aX+b)=a\operatorname {E} (X)+b\,}
E ( a X + b Y ) = a E ( X ) + b E ( Y ) {\displaystyle \operatorname {E} (aX+bY)=a\operatorname {E} (X)+b\operatorname {E} (Y)\,}

per dues variables aleatòries X {\displaystyle X} i Y {\displaystyle Y} qualsevol amb esperança finita i nombres reals a {\displaystyle a} i b {\displaystyle b} qualssevol.

Referències

  1. Lai Chung, Kai.. Teoría elemental de la probabilidad y de los procesos estocásticos. Barcelona: Reverté, 1983. ISBN 8429150498. 
  2. DeGroot, Morris H., 1931-. Probabilidad y estadística. 2a. ed. Wilmington, Delawere, E.U.A.: Addison-Wesley Iberoamericaca, 1988. ISBN 0201644053. 
  3. Lai Chung, Kai.. Teoría elemental de la probabilidad y de los procesos estocásticos. Barcelona: Reverté, 1983, p. 193. ISBN 8429150498. 
  4. Lai Chung, Kai.. Teoría elemental de la probabilidad y de los procesos estocásticos. Barcelona: Reverté, 1983, p. 197. ISBN 8429150498. 
  5. Lai Chung, Kai.. Teoría elemental de la probabilidad y de los procesos estocásticos. Barcelona: Reverté, 1983, p. 194. ISBN 8429150498. 
  6. 6,0 6,1 6,2 6,3 Ash, Robert B.. Basic probability theory. Dover ed. Mineola, N.Y.: Dover Publications, 2008. ISBN 9780486466286. 
  7. Apostol, Tom M.. Análisis matemático. Editorial Reverté, S. A., 1960, p. 356. 
  8. Loeve, Michel.. Teoría de la probabilidad. Madrid: Tecnos, D.L. 1976, p. 166. ISBN 8430906630. 
  9. Loeve, Michel.. Teoría de la probabilidad. Madrid: Tecnos, D.L. 1976, pp. 167. ISBN 8430906630. 
  10. Loeve, Michel.. Teoría de la probabilidad. Madrid: Tecnos, D.L. 1976, p.129. ISBN 8430906630. 
  11. Ash, Robert B.. Probability and measure theory. 2a edició. San Diego: Harcourt/Academic Press, 2000, p. 36. ISBN 0120652021.