Distribución exponencial

Distribución exponencial

Función de densidad de probabilidad

Función de distribución de probabilidad
Parámetros λ > 0 {\displaystyle \lambda >0\,}
Dominio [ 0 , ) {\displaystyle [0,\infty )\!}
Función de densidad (pdf) λ e λ x {\displaystyle \lambda e^{-\lambda x}}
Función de distribución (cdf) 1 e λ x {\displaystyle 1-e^{-\lambda x}}
Media 1 / λ {\displaystyle 1/\lambda \,}
Mediana ln ( 2 ) / λ {\displaystyle \ln(2)/\lambda \,}
Moda 0 {\displaystyle 0\,}
Varianza 1 / λ 2 {\displaystyle 1/\lambda ^{2}\,}
Coeficiente de simetría 2 {\displaystyle 2\,}
Curtosis 9 {\displaystyle 9\,}
Entropía 1 ln ( λ ) {\displaystyle 1-\ln(\lambda )\,}
Función generadora de momentos (mgf) ( 1 t λ ) 1 {\displaystyle \left(1-{\frac {t}{\lambda }}\right)^{-1}\,}
Función característica ( 1 i t λ ) 1 {\displaystyle \left(1-{\frac {it}{\lambda }}\right)^{-1}\,}
[editar datos en Wikidata]

En Teoría de Probabilidad y Estadística, la distribución exponencial es una distribución continua que se utiliza para modelar tiempos de espera para la ocurrencia de un cierto evento. Esta distribución al igual que la distribución geométrica tiene la propiedad de pérdida de memoria. La distribución exponencial es un caso particular de la distribución gamma.

Definición

Función de Densidad

Se dice que una variable aleatoria continua X {\displaystyle X} tiene una distribución exponencial con parámetro λ > 0 {\displaystyle \lambda >0} y escribimos X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} si su función de densidad es

f X ( x ) = λ e λ x {\displaystyle f_{X}(x)=\lambda e^{-\lambda x}}

para x 0 {\displaystyle x\geq 0} .

Función de Distribución

Su función de distribución acumulada está dada por

F X ( x ) = 1 e λ x {\displaystyle F_{X}(x)=1-e^{-\lambda x}}

para x 0 {\displaystyle x\geq 0} .

Parametrización Alternativa

La distribución exponencial en ocasiones se parametriza en términos del parámetro de escala β = 1 / λ {\displaystyle \beta =1/\lambda } en cuya caso, la función de densidad será

f X ( x ) = 1 β e x β {\displaystyle f_{X}(x)={\frac {1}{\beta }}\;e^{-{\frac {x}{\beta }}}}

para x 0 {\displaystyle x\geq 0} .

Función de Supervivencia

De forma adicional esta distribución presenta una función adicional que es función Supervivencia (S), que representa el complemento de la Función de distribución.

S ( x ) = P [ X > x ] = { 1 para  x < 0 e λ x para  x 0 {\displaystyle S(x)=\operatorname {P} [X>x]=\left\{{\begin{matrix}1&{\text{para }}x<0\\e^{-\lambda x}&{\text{para }}x\geq 0\end{matrix}}\right.}

Propiedades

Si X {\displaystyle X} es una variable aleatoria tal que X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} entonces

La media de la variable aleatoria X {\displaystyle X} es

E [ X ] = 1 λ {\displaystyle \operatorname {E} [X]={\frac {1}{\lambda }}}

La varianza de la variable aleatoria X {\displaystyle X} es

Var [ X ] = 1 λ 2 {\displaystyle \operatorname {Var} [X]={\frac {1}{\lambda ^{2}}}}

El n {\displaystyle n} -ésimo momento de la variable aleatoria X {\displaystyle X} es

E [ X n ] = n ! λ n {\displaystyle \operatorname {E} [X^{n}]={\frac {n!}{\lambda ^{n}}}}

La función generadora de momentos de X {\displaystyle X} para λ > t {\displaystyle \lambda >t} está dada por

M X ( t ) = ( 1 t λ ) 1 = λ λ t {\displaystyle M_{X}(t)=\left(1-{\frac {t}{\lambda }}\right)^{-1}={\frac {\lambda }{\lambda -t}}}

Escala

Si X {\displaystyle X} es una variable aleatoria tal que X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} y c > 0 {\displaystyle c>0} una constante entonces

c X Exp ( λ c ) {\displaystyle cX\sim \operatorname {Exp} \left({\frac {\lambda }{c}}\right)}

Pérdida de Memoria

Sea X {\displaystyle X} una variable aleatoria tal que X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} entonces para cualesquiera x , y 0 {\displaystyle x,y\geq 0}

P [ X > x + y | X > y ] = P [ X > x ] {\displaystyle \operatorname {P} [X>x+y|X>y]=\operatorname {P} [X>x]}

Esto puede demostrarse fácilmente pues

P [ X > x + y | X > y ] = P [ X > x + y X > y ] P [ X > y ] = P [ X > x + y ] P [ X > y ] = e λ ( x + y ) e λ y = e λ x = P [ X > x ] {\displaystyle {\begin{aligned}\operatorname {P} [X>x+y|X>y]&={\frac {\operatorname {P} [X>x+y\cap X>y]}{\operatorname {P} [X>y]}}\\&={\frac {\operatorname {P} [X>x+y]}{\operatorname {P} [X>y]}}\\&={\frac {e^{-\lambda (x+y)}}{e^{-\lambda y}}}\\&=e^{-\lambda x}\\&=\operatorname {P} [X>x]\end{aligned}}}

Cuantiles

La función cuantil (inversa de la función de distribución acumulada) para una variable aleatoria X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} está dada por

F 1 ( p ) = ln ( 1 p ) λ 0 p < 1 {\displaystyle F^{-1}(p)={\frac {-\ln(1-p)}{\lambda }}\qquad 0\leq p<1}

por lo que los cuantiles son:

El primer cuartil es

F 1 ( 1 4 ) = ln ( 3 4 ) λ = 1 λ ln ( 4 3 ) {\displaystyle F^{-1}\left({\frac {1}{4}}\right)=-{\frac {\ln \left({\frac {3}{4}}\right)}{\lambda }}={\frac {1}{\lambda }}\ln \left({\frac {4}{3}}\right)}

La mediana es

F 1 ( 1 2 ) = ln ( 1 2 ) λ = ln ( 2 ) λ {\displaystyle F^{-1}\left({\frac {1}{2}}\right)=-{\frac {\ln \left({\frac {1}{2}}\right)}{\lambda }}={\frac {\ln(2)}{\lambda }}}

Y el tercer cuartil está dado por

F 1 ( 3 4 ) = ln ( 1 4 ) λ = ln ( 4 ) λ {\displaystyle F^{-1}\left({\frac {3}{4}}\right)=-{\frac {\ln \left({\frac {1}{4}}\right)}{\lambda }}={\frac {\ln(4)}{\lambda }}}

Valor en riesgo condicional (pérdida esperada)

El valor condicional en riesgo (CVaR) también conocido como déficit esperado o supercuantil para Exp(λ) se obtiene de la siguiente manera:[1]

q ¯ α ( X ) = 1 1 α α 1 q p ( X ) d p = 1 ( 1 α ) α 1 ln ( 1 p ) λ d p = 1 λ ( 1 α ) 1 α 0 ln ( y ) d y = 1 λ ( 1 α ) 0 1 α ln ( y ) d y = 1 λ ( 1 α ) [ ( 1 α ) ln ( 1 α ) ( 1 α ) ] = ln ( 1 α ) + 1 λ {\displaystyle {\begin{aligned}{\bar {q}}_{\alpha }(X)&={\frac {1}{1-\alpha }}\int _{\alpha }^{1}q_{p}(X)dp\\&={\frac {1}{(1-\alpha )}}\int _{\alpha }^{1}{\frac {-\ln(1-p)}{\lambda }}dp\\&={\frac {-1}{\lambda (1-\alpha )}}\int _{1-\alpha }^{0}-\ln(y)dy\\&={\frac {-1}{\lambda (1-\alpha )}}\int _{0}^{1-\alpha }\ln(y)dy\\&={\frac {-1}{\lambda (1-\alpha )}}[(1-\alpha )\ln(1-\alpha )-(1-\alpha )]\\&={\frac {-\ln(1-\alpha )+1}{\lambda }}\\\end{aligned}}}

Probabilidad de superación amortiguada (bPOE)

La probabilidad amortiguada de superación es uno menos el nivel de probabilidad en el que el CVaR es igual al umbral x {\displaystyle x} . Se obtiene de la siguiente manera:[1]

p ¯ x ( X ) = { 1 α | q ¯ α ( X ) = x } = { 1 α | ln ( 1 α ) + 1 λ = x } = { 1 α | ln ( 1 α ) = 1 λ x } = { 1 α | e ln ( 1 α ) = e 1 λ x } = { 1 α | 1 α = e 1 λ x } = e 1 λ x {\displaystyle {\begin{aligned}{\bar {p}}_{x}(X)&=\{1-\alpha |{\bar {q}}_{\alpha }(X)=x\}\\&=\{1-\alpha |{\frac {-\ln(1-\alpha )+1}{\lambda }}=x\}\\&=\{1-\alpha |\ln(1-\alpha )=1-\lambda x\}\\&=\{1-\alpha |e^{\ln(1-\alpha )}=e^{1-\lambda x}\}=\{1-\alpha |1-\alpha =e^{1-\lambda x}\}=e^{1-\lambda x}\end{aligned}}}

Divergencia de Kullback-Leibler

La divergencia de Kullback-Leibler dirigida en nats de e λ {\displaystyle e^{\lambda }} (distribution de aproximación) de e λ 0 {\displaystyle e^{\lambda _{0}}} (distribución "verdadera") viene dada por

Δ ( λ 0 λ ) = E λ 0 ( log p λ 0 ( x ) p λ ( x ) ) = E λ 0 ( log λ 0 e λ 0 x λ e λ x ) = log ( λ 0 ) log ( λ ) ( λ 0 λ ) E λ 0 ( x ) = log ( λ 0 ) log ( λ ) + λ λ 0 1. {\displaystyle {\begin{aligned}\Delta (\lambda _{0}\parallel \lambda )&=\mathbb {E} _{\lambda _{0}}\left(\log {\frac {p_{\lambda _{0}}(x)}{p_{\lambda }(x)}}\right)\\&=\mathbb {E} _{\lambda _{0}}\left(\log {\frac {\lambda _{0}e^{\lambda _{0}x}}{\lambda e^{\lambda x}}}\right)\\&=\log(\lambda _{0})-\log(\lambda )-(\lambda _{0}-\lambda )E_{\lambda _{0}}(x)\\&=\log(\lambda _{0})-\log(\lambda )+{\frac {\lambda }{\lambda _{0}}}-1.\end{aligned}}}

Distribución de máxima entropía

Entre todas las distribuciones de probabilidad continuas con soporte cerrada-abierta 0, ∞ y media μ, la distribución exponencial con λ = 1/μ tiene la mayor entropía diferencial. En otras palabras, es la distribución de probabilidad de máxima entropía para una variante aleatoria X que es mayor o igual que cero y para la que E[X] es fija.[2]

Distribución del mínimo de variables aleatorias exponenciales

Sean X1, ..., Xn variables aleatorias exponencialmente distribuidas con parámetros de tasa λ1, ..., λn. Entonces

min { X 1 , , X n } {\displaystyle \min \left\{X_{1},\dotsc ,X_{n}\right\}}
también se distribuye exponencialmente, con el parámetro
λ = λ 1 + + λ n . {\displaystyle \lambda =\lambda _{1}+\dotsb +\lambda _{n}.}

Esto puede verse considerando la función de distribución acumulativa complementaria:

Pr ( min { X 1 , , X n } > x ) = Pr ( X 1 > x , , X n > x ) = i = 1 n Pr ( X i > x ) = i = 1 n exp ( x λ i ) = exp ( x i = 1 n λ i ) . {\displaystyle {\begin{aligned}&\Pr \left(\min\{X_{1},\dotsc ,X_{n}\}>x\right)\\={}&\Pr \left(X_{1}>x,\dotsc ,X_{n}>x\right)\\={}&\prod _{i=1}^{n}\Pr \left(X_{i}>x\right)\\={}&\prod _{i=1}^{n}\exp \left(-x\lambda _{i}\right)=\exp \left(-x\sum _{i=1}^{n}\lambda _{i}\right).\end{aligned}}}

El índice de la variable que alcanza el mínimo se distribuye según la distribución categórica

Pr ( X k = min { X 1 , , X n } ) = λ k λ 1 + + λ n . {\displaystyle \Pr \left(X_{k}=\min\{X_{1},\dotsc ,X_{n}\}\right)={\frac {\lambda _{k}}{\lambda _{1}+\dotsb +\lambda _{n}}}.}

Puede verse una prueba dejando que I = argmin i { 1 , , n } { X 1 , , X n } {\displaystyle I=\operatorname {argmin} _{i\in \{1,\dotsb ,n\}}\{X_{1},\dotsc ,X_{n}\}} . Entonces,

Pr ( I = k ) = 0 Pr ( X k = x ) Pr ( i k X i > x ) d x = 0 λ k e λ k x ( i = 1 , i k n e λ i x ) d x = λ k 0 e ( λ 1 + + λ n ) x d x = λ k λ 1 + + λ n . {\displaystyle {\begin{aligned}\Pr(I=k)&=\int _{0}^{\infty }\Pr(X_{k}=x)\Pr(\forall _{i\neq k}X_{i}>x)\,dx\\&=\int _{0}^{\infty }\lambda _{k}e^{-\lambda _{k}x}\left(\prod _{i=1,i\neq k}^{n}e^{-\lambda _{i}x}\right)dx\\&=\lambda _{k}\int _{0}^{\infty }e^{-\left(\lambda _{1}+\dotsb +\lambda _{n}\right)x}dx\\&={\frac {\lambda _{k}}{\lambda _{1}+\dotsb +\lambda _{n}}}.\end{aligned}}}

Nótese que

max { X 1 , , X n } {\displaystyle \max\{X_{1},\dotsc ,X_{n}\}}

max { X 1 , , X n } {\displaystyle \max\{X_{1},\dotsc ,X_{n}\}}
no es una distribución exponencial, si X1, …, Xn no todos tienen parámetro 0.[3]

Momentos conjuntos de estadísticos de orden exponencial i.i.d

Sean X 1 , , X n {\displaystyle X_{1},\dotsc ,X_{n}} n {\displaystyle n} independent and identically distributed variables aleatorias exponenciales con parámetro de tasa λ. Sean X ( 1 ) , , X ( n ) {\displaystyle X_{(1)},\dotsc ,X_{(n)}} los correspondientes estadísticos de orden. Para i < j {\displaystyle i<j} , el momento conjunto E [ X ( i ) X ( j ) ] {\displaystyle \operatorname {E} \left[X_{(i)}X_{(j)}\right]} de los estadísticos de orden X ( i ) {\displaystyle X_{(i)}} y X ( j ) {\displaystyle X_{(j)}} viene dado por

E [ X ( i ) X ( j ) ] = k = 0 j 1 1 ( n k ) λ E [ X ( i ) ] + E [ X ( i ) 2 ] = k = 0 j 1 1 ( n k ) λ k = 0 i 1 1 ( n k ) λ + k = 0 i 1 1 ( ( n k ) λ ) 2 + ( k = 0 i 1 1 ( n k ) λ ) 2 . {\displaystyle {\begin{aligned}\operatorname {E} \left[X_{(i)}X_{(j)}\right]&=\sum _{k=0}^{j-1}{\frac {1}{(n-k)\lambda }}\operatorname {E} \left[X_{(i)}\right]+\operatorname {E} \left[X_{(i)}^{2}\right]\\&=\sum _{k=0}^{j-1}{\frac {1}{(n-k)\lambda }}\sum _{k=0}^{i-1}{\frac {1}{(n-k)\lambda }}+\sum _{k=0}^{i-1}{\frac {1}{((n-k)\lambda )^{2}}}+\left(\sum _{k=0}^{i-1}{\frac {1}{(n-k)\lambda }}\right)^{2}.\end{aligned}}}
Esto puede verse invocando la ley de la expectativa total y la propiedad sin memoria:
E [ X ( i ) X ( j ) ] = 0 E [ X ( i ) X ( j ) X ( i ) = x ] f X ( i ) ( x ) d x = x = 0 x E [ X ( j ) X ( j ) x ] f X ( i ) ( x ) d x ( since   X ( i ) = x X ( j ) x ) = x = 0 x [ E [ X ( j ) ] + x ] f X ( i ) ( x ) d x ( by the memoryless property ) = k = 0 j 1 1 ( n k ) λ E [ X ( i ) ] + E [ X ( i ) 2 ] . {\displaystyle {\begin{aligned}\operatorname {E} \left[X_{(i)}X_{(j)}\right]&=\int _{0}^{\infty }\operatorname {E} \left[X_{(i)}X_{(j)}\mid X_{(i)}=x\right]f_{X_{(i)}}(x)\,dx\\&=\int _{x=0}^{\infty }x\operatorname {E} \left[X_{(j)}\mid X_{(j)}\geq x\right]f_{X_{(i)}}(x)\,dx&&\left({\textrm {since}}~X_{(i)}=x\implies X_{(j)}\geq x\right)\\&=\int _{x=0}^{\infty }x\left[\operatorname {E} \left[X_{(j)}\right]+x\right]f_{X_{(i)}}(x)\,dx&&\left({\text{by the memoryless property}}\right)\\&=\sum _{k=0}^{j-1}{\frac {1}{(n-k)\lambda }}\operatorname {E} \left[X_{(i)}\right]+\operatorname {E} \left[X_{(i)}^{2}\right].\end{aligned}}}

La primera ecuación se sigue de la ley de la expectativa total. La segunda ecuación explota el hecho de que una vez que condicionamos en X ( i ) = x {\displaystyle X_{(i)}=x} , debe seguirse que X ( j ) x {\displaystyle X_{(j)}\geq x} . La tercera ecuación se basa en la propiedad sin memoria para reemplazar o p e r a t o r n a m e E [ X ( j ) X ( j ) x ] {\displaystyle operatornameE\left[X_{(j)}\mid X_{(j)}\geq x\right]} con E [ X ( j ) ] + x {\displaystyle \operatorname {E} \left[X_{(j)}\right]+x} .

Ejemplo

Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos de una variable continua que transcurren entre dos sucesos, que se distribuyen según la distribución de Poisson.

  • El tiempo transcurrido en un centro de llamadas hasta recibir la primera llamada del día se podría modelar como una exponencial.
  • El intervalo de tiempo entre terremotos (de una determinada magnitud) sigue una distribución exponencial.
  • Supongamos una máquina que produce hilo de alambre, la cantidad de metros de alambre hasta encontrar una falla en el alambre se podría modelar como una exponencial.
  • En fiabilidad de sistemas, un dispositivo con tasa de fallo constante sigue una distribución exponencial.

Distribuciones Relacionadas

  • Si X Laplace ( μ , β 1 ) {\displaystyle X\sim \operatorname {Laplace} (\mu ,\beta ^{-1})} entonces | X μ | Exp ( β ) {\displaystyle |X-\mu |\sim \operatorname {Exp} (\beta )} .
  • Si X Pareto ( 1 , λ ) {\displaystyle X\sim \operatorname {Pareto} (1,\lambda )} entonces ln ( X ) Exp ( λ ) {\displaystyle \ln(X)\sim \operatorname {Exp} (\lambda )} .
  • Si X Γ ( 1 , λ ) {\displaystyle X\sim \Gamma (1,\lambda )} entonces X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} .
  • Si X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} son variables aleatorias independientes tales que X i Exp ( λ ) {\displaystyle X_{i}\sim \operatorname {Exp} (\lambda )} entonces i = 1 n X i Γ ( n , λ ) {\displaystyle \sum \limits _{i=1}^{n}X_{i}\sim \Gamma \left(n,\lambda \right)} , donde Γ ( n , λ ) {\displaystyle \Gamma \left(n,\lambda \right)} es la distribución de Erlang con parámetros n N {\displaystyle n\in \mathbb {N} } y λ {\displaystyle \lambda } , esto es i = 1 n X i Erlang ( n , λ ) {\displaystyle \sum \limits _{i=1}^{n}X_{i}\sim \operatorname {Erlang} \left(n,\lambda \right)} . Es decir, la suma de n {\displaystyle n} variables aleatorias independientes con distribución exponencial con parámetro λ {\displaystyle \lambda } es una variable aleatoria con distribución de Erlang.
Distribución cumulativa ajustada a máximos anuales de lluvias diarias[4]

Inferencia Estadística

Suponga que X {\displaystyle X} es una variable aleatoria tal que X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} y x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} es una muestra proveniente de X {\displaystyle X} .

Estimación de Parámetros

El estimador por máxima verosimilitud de λ {\displaystyle \lambda } se construye como sigue:

La función de verosimilitud está dada por

L ( λ ) = i = 1 n λ e λ x i = λ n exp ( λ i = 1 n x i ) = λ n exp ( λ n x ¯ ) {\displaystyle {\begin{aligned}{\mathcal {L}}(\lambda )&=\prod _{i=1}^{n}\lambda e^{-\lambda x_{i}}\\&=\lambda ^{n}\operatorname {exp} \left(-\lambda \sum _{i=1}^{n}x_{i}\right)\\&=\lambda ^{n}\operatorname {exp} (-\lambda n{\bar {x}})\end{aligned}}}

donde

x ¯ = 1 n i = 1 n x i {\displaystyle {\bar {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}

es la media muestral.

Tomando logaritmos a la función de verosimilitud

ln L ( λ ) = ln ( λ n exp ( λ n x ¯ ) ) = n ln λ λ n x ¯ {\displaystyle {\begin{aligned}\ln {\mathcal {L}}(\lambda )&=\ln \left(\lambda ^{n}\operatorname {exp} (-\lambda n{\bar {x}})\right)\\&=n\ln \lambda -\lambda n{\bar {x}}\end{aligned}}}

derivando respecto a λ {\displaystyle \lambda } obtenemos

d ln L d λ = d d λ ( n ln λ λ n x ¯ ) = n λ n x ¯ {\displaystyle {\begin{aligned}{\frac {d\ln {\mathcal {L}}}{d\lambda }}&={\frac {d}{d\lambda }}(n\ln \lambda -\lambda n{\bar {x}})\\&={\frac {n}{\lambda }}-n{\bar {x}}\end{aligned}}}

Si igualamos a 0 {\displaystyle 0} obtenemos el estimador λ ^ {\displaystyle {\hat {\lambda }}} dado por

λ ^ = 1 x ¯ {\displaystyle {\hat {\lambda }}={\frac {1}{\bar {x}}}}

El estimador λ ^ {\displaystyle {\hat {\lambda }}} es un estimador NO insesgado pues

E [ λ ^ ] λ {\displaystyle \operatorname {E} [{\hat {\lambda }}]\neq \lambda }

Aplicación

En la hidrología, la distribución exponencial se emplea para analizar variables aleatorias extremos de variables como máximos mensuales y anuales de la precipitación diaria.[5]

Métodos computacionales

Generador de números pseudoaleatorios

Para obtener números pseudoaleatorios la variable aleatoria X {\displaystyle X} con distribución exponencial y parámetro λ {\displaystyle \lambda } , se utiliza un algoritmo basado en el método de la transformada inversa.

Para generar un valor de X Exp ( λ ) {\displaystyle X\sim \operatorname {Exp} (\lambda )} a partir de una variable aleatoria U U ( 0 , 1 ) {\displaystyle U\sim \operatorname {U} (0,1)} se utiliza el siguiente algoritmo

X = 1 λ ln ( 1 U ) {\displaystyle X=-{\frac {1}{\lambda }}\ln(1-U)}

utilizando el hecho de que si U U ( 0 , 1 ) {\displaystyle U\sim \operatorname {U} (0,1)} entonces 1 U U ( 0 , 1 ) {\displaystyle 1-U\sim \operatorname {U} (0,1)} por lo que una versión más eficiente del algoritmo es

X = 1 λ ln ( U ) {\displaystyle X=-{\frac {1}{\lambda }}\ln(U)}

Véase también

Software

Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad, incluyendo la exponencial, a una serie de datos:

  • Easy fit Archivado el 23 de febrero de 2018 en Wayback Machine., "data analysis & simulation"
  • MathWorks Benelux (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
  • ModelRisk, "risk modelling software"
  • Ricci distributions, fitting distrubutions with R , Vito Ricci, 2005
  • Risksolver, automatically fit distributions and parameters to samples
  • StatSoft distribution fitting Archivado el 30 de agosto de 2012 en Wayback Machine.
  • CumFreq [2] , libre sin costo, incluye intervalos de confianza a base de la distribución binomial

Referencias

  1. a b Norton, Matthew; Khokhlov, Valentyn; Uryasev, Stan (2019). «Calculating CVaR and bPOE for common probability distributions with application to portfolio optimization and density estimation». Annals of Operations Research (Springer) 299 (1- 2): 1281-1315. doi:10.1007/s10479-019-03373-1. Archivado desde el original el 31 de marzo de 2023. Consultado el 27 de febrero de 2023. 
  2. Park, Sung Y.; Bera, Anil K. (2009). «Modelo de heteroscedasticidad condicional autorregresiva de entropía máxima». Journal of Econometrics (Elsevier) 150 (2): 219-230. Archivado desde el original el 7 de marzo de 2016. Consultado el 2 de junio de 2011. 
  3. Michael, Lugo. «The expectation of the maximum of exponentials». Archivado desde el original el 20 de diciembre de 2016. Consultado el 13 de diciembre de 2016. 
  4. Cumfreq, a free computer program for cumulative frequency analysis and probability distribution fitting. [1]
  5. Ritzema (ed.), H.P. (1994). Frequency and Regression Analysis. Chapter 6 in: Drainage Principles and Applications, Publication 16, International Institute for Land Reclamation and Improvement (ILRI), Wageningen, The Netherlands. pp. 175-224. ISBN 90-70754-33-9. 

Enlaces externos

  • Calculadora Distribución exponencial
  • [http://cajael.com/mestadisticos/T7DContinuas/node20.php (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).] Calcular la probabilidad de una distribución exponencial con R (lenguaje de programación)


Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q237193
  • Commonscat Multimedia: Exponential distribution / Q237193

  • Identificadores
  • GND: 4016019-1
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q237193
  • Commonscat Multimedia: Exponential distribution / Q237193