Variable aleatoria

una variable aleatoria es una función matemática que asigna un valor, usualmente numérico, a los resultados de un experimento aleatorio.

En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p. ej., la temperatura máxima medida a lo largo del día en una ciudad concreta).

Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento aún no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p. ej., como resultado de una medición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribución de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. En términos formales una variable aleatoria es una función definida sobre un espacio de probabilidad.

Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lógicos, funciones o cualquier tipo de elementos (de un espacio medible). El término elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocástico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).

Definición

Concepto intuitivo

Una variable aleatoria puede concebirse como un valor numérico que está afectado por el azar. Dada una variable aleatoria no es posible conocer con certeza el valor que tomará esta al ser medida o determinada, aunque sí se conoce que existe una distribución de probabilidad asociada al conjunto de valores posibles. Por ejemplo, en una epidemia de cólera, se sabe que una persona cualquiera puede enfermar o no (suceso), pero no se sabe cuál de los dos sucesos va a ocurrir. Solamente se puede decir que existe una probabilidad de que la persona enferme.

Para trabajar de manera sólida con variables aleatorias en general es necesario considerar un gran número de experimentos aleatorios, para su tratamiento estadístico, cuantificar los resultados de modo que se asigne un número real a cada uno de los resultados posibles del experimento. De este modo se establece una relación funcional entre elementos del espacio muestral asociado al experimento y números reales.

Definición formal

Una variable aleatoria (v.a.) X {\displaystyle X} es una función real definida en espacio de probabilidad ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} , asociado a un experimento aleatorio.[1][2]

X : Ω R {\displaystyle X:\Omega \to \mathbb {R} }

La definición formal anterior involucra conceptos matemáticos sofisticados procedentes de la teoría de la medida, concretamente la noción σ-álgebra o la de medida de probabilidad.[3][4]​ Dado un espacio de probabilidad ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} y un espacio medible ( S , Σ ) {\displaystyle (S,\Sigma )} , una aplicación X : ( Ω , A , P ) ( S , Σ ) {\displaystyle X:(\Omega ,{\mathcal {A}},P)\to (S,\Sigma )} es una variable aleatoria si es una aplicación A , Σ {\displaystyle {\mathcal {A}},\Sigma } -medible. En el uso ordinario, los puntos de ω Ω {\displaystyle \omega \in \Omega } no son directamente observables, sólo el valor de la variable en el punto X ( ω ) {\displaystyle X(\omega )} por lo que el elemento probabilístico reside en el desconocimiento que se tiene del punto concreto ω {\displaystyle \omega } .

En la mayoría de usos prácticos se tiene que el espacio medible de llegada es ( S , Σ ) = ( R , B ( R ) ) {\displaystyle (S,\Sigma )=(\mathbb {R} ,{\mathcal {B}}(\mathbb {R} ))} , quedando pues la definición de esta manera:

Variable aleatoria

Una variable aleatoria sobre un espacio de probabilidad ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} es una función X : ( Ω , A , P ) ( R , B ( R ) ) {\displaystyle X:(\Omega ,{\mathcal {A}},P)\to (\mathbb {R} ,{\mathcal {B}}(\mathbb {R} ))} medible, esto es:

X 1 ( B ) A , B B ( R ) {\displaystyle X^{-1}(B)\in {\mathcal {A}},\quad \forall B\in {\mathcal {B}}(\mathbb {R} )} ,

donde B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} denota la σ {\displaystyle \sigma } -álgebra de Borel en R {\displaystyle \mathbb {R} } .

Rango de una variable aleatoria

Se llama rango de una variable aleatoria X {\displaystyle X} y lo denotaremos R X {\displaystyle R_{X}} , a la imagen o rango de la función X {\displaystyle X} , es decir, al conjunto de los valores reales que ésta puede tomar, según la aplicación X {\displaystyle X} . Dicho de otro modo, el rango de una v.a. es el recorrido de la función por la que esta queda definida

R X = { x R |   ω Ω : X ( ω ) = x } {\displaystyle R_{X}=\{x\in \mathbb {R} |\ \exists \,\omega \in \Omega :X(\omega )=x\}}

Ejemplos

Ejemplo 1

Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de resultados elementales posibles asociado al experimento, es:

Ω = { cc,cx,xc,xx } {\displaystyle \Omega =\left\{{\textrm {cc,cx,xc,xx}}\right\}}

donde (c representa "sale cara" y x, "sale cruz"). Podemos asignar entonces a cada suceso elemental del experimento el número de caras obtenidas. De este modo se definiría la variable aleatoria X {\displaystyle X} como la función

X : Ω R {\displaystyle X:\Omega \to \mathbb {R} }

dada por

cc 2 {\displaystyle {\textrm {cc}}\to 2}
cx , xc 1 {\displaystyle {\textrm {cx}},{\textrm {xc}}\to 1}
xx 0 {\displaystyle {\textrm {xx}}\to 0}

El recorrido o rango de esta función, RX, es el conjunto

R X = { 0 , 1 , 2 } {\displaystyle R_{X}=\left\{0,1,2\right\}}
Ejemplo 2

El nivel X {\displaystyle X} de precipitación registrado un día concreto del año, en una ciudad por una estación meteorológica concreta. El espacio muestral que incluye todos los posibles resultados puede representarse por el intervalo R X ( Ω ) = [ 0 , ) {\displaystyle R_{X}(\Omega )=[0,\infty )} . En este caso el espacio muestral es más complicado porque incluiría especificar el estado de la atmósfera completo (una aproximación sería describir el conjunto de posiciones y velocidades de todas las moléculas de la atmósfera, que sería una cantidad de información monumental o usar un modelo más o menos complejo en términos de variables macroscópicas, como los modelos meteorológicos usados actualmente).

Podemos revisar la serie histórica de precipitaciones y aproximar la distribución de probabilidad F X ( x ) {\displaystyle F_{X}(x)} de X y construir una aproximación F ¯ X ( x ) {\displaystyle {\bar {F}}_{X}(x)} . Nótese que en este caso la distribución de probabilidad no es conocida, sólo se conoce la distribución muestral (la serie histórica) y se conjetura que la distribución real no se aleja mucho de esta aproximación F X ( x ) F ¯ X ( x ) {\displaystyle F_{X}(x)\approx {\bar {F}}_{X}(x)} . Si la serie histórica es suficientemente larga y representa un clima que no difiere significativamente del actual estas dos últimas funciones diferirán muy poco.

Caracterización de variables aleatorias

Tipos de variables aleatorias

Para comprender de una manera más amplia y rigurosa los tipos de variables, es necesario conocer la definición de conjunto discreto. Un conjunto es discreto si está formado por un número finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y así sucesivamente[5]​ (es decir, un conjunto infinito numerable sin puntos de acumulación). Para variables con valores en R {\displaystyle \mathbb {R} } las variables aleatorias se clasifican usualmente en:

  • Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en la función de cuantía. (Véanse las distribuciones de variable discreta).
  • Variable aleatoria continua: una v.a. es continua si su recorrido es un conjunto no numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de números reales. Por ejemplo, la variable que asigna la estatura a una persona extraída de una determinada población es una variable continua ya que, teóricamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.[6]​ (Véanse las distribuciones de variable continua).

Las definiciones anteriores pueden generalizarse fácilmente a variables aleatorias con valores sobre R n {\displaystyle \mathbb {R} ^{n}} o C n {\displaystyle \mathbb {C} ^{n}} . Esto no agota el tipo de variables aleatorias ya que el valor de una variable aleatoria puede ser también una partición, como sucede en el proceso estocástico del restaurante chino o el conjunto de valores de una variable aleatoria puede ser un conjunto de funciones como el proceso estocástico de Dirichlet.

Función de distribución

Artículo principal: Distribución de probabilidad

Sea ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\operatorname {P} )} un espacio de probabilidad y X : Ω R {\displaystyle X:\Omega \to \mathbb {R} } una variable aleatoria, la función de distribución de X {\displaystyle X} , denotada por F X ( x ) {\displaystyle F_{X}(x)} o simplemente por F ( x ) {\displaystyle F(x)} , es la función F X : R [ 0 , 1 ] {\displaystyle F_{X}:\mathbb {R} \to [0,1]} definida por

F X ( x ) = P [ { ω Ω : X ( ω ) x } ] = P [ X x ] {\displaystyle F_{X}(x)=\operatorname {P} [\{\omega \in \Omega :X(\omega )\leq x\}]=\operatorname {P} [X\leq x]}

que satisface las siguientes tres condiciones:

  1. lim x F ( x ) = 0 {\displaystyle \lim _{x\to -\infty }F(x)=0} y lim x F ( x ) = 1 {\displaystyle \lim _{x\to \infty }F(x)=1}
  2. Es continua por la derecha.
  3. Es monótona no decreciente.

La distribución de probabilidad de una v.a. describe teóricamente la forma en que varían los resultados de un experimento aleatorio. Intuitivamente se trataría de una lista de los resultados posibles de un experimento con las probabilidades que se esperarían ver asociadas con cada resultado.

Función de densidad

Sea ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\operatorname {P} )} un espacio de probabilidad y X : Ω R {\displaystyle X:\Omega \to \mathbb {R} } una variable aleatoria, la función de densidad de X {\displaystyle X} denotada típicamente por f X ( x ) {\displaystyle f_{X}(x)} o simplemente por f ( x ) {\displaystyle f(x)} , se utiliza con el propósito de conocer cómo se distribuyen las probabilidades de un suceso o evento, en relación con el resultado del suceso.

La función de densidad es la derivada (ordinaria o en el sentido de las distribuciones) de la función de distribución de probabilidad F X ( x ) {\displaystyle F_{X}(x)} , o de manera inversa, la función de distribución es la integral de la función de densidad:

F ( x ) = x f ( t ) d t {\displaystyle F(x)=\int _{-\infty }^{x}f(t)\,dt}

La función de densidad de una v.a. determina la concentración de probabilidad alrededor de los valores de una variable aleatoria continua.

Funciones de variables aleatorias

Sean una variable aleatoria X {\displaystyle X} definida sobre ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} y g : R R {\displaystyle g:\mathbb {R} \rightarrow \mathbb {R} } una función medible de Borel, entonces Y = g ( X ) {\displaystyle Y=g(X)} será también una variable aleatoria sobre ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} dado que la composición de funciones medibles también es medible (sin embargo, esto no es cierto si g {\displaystyle g} es una función medible de Lebesgue). El mismo procedimiento que permite ir de un espacio de probabilidad ( Ω , P ) {\displaystyle (\Omega ,P)} a ( R , d F X ) {\displaystyle (\mathbb {R} ,dF_{X})} puede ser utilizado para obtener la distribución de Y {\displaystyle Y} . La función de distribución acumulada de Y {\displaystyle Y} es

F Y ( y ) = P [ g ( X ) y ] . {\displaystyle F_{Y}(y)=\operatorname {P} [g(X)\leq y].}

Si la función g {\displaystyle g} es invertible, es decir g 1 {\displaystyle g^{-1}} existe, y es monótona creciente entonces la anterior relación puede ser extendida para obtener

F Y ( y ) = P [ g ( X ) y ] = P [ X g 1 ( y ) ] = F X ( g 1 ( y ) ) {\displaystyle F_{Y}(y)=\operatorname {P} [g(X)\leq y]=\operatorname {P} [X\leq g^{-1}(y)]=F_{X}(g^{-1}(y))}

y, trabajando de nuevo bajo las mismas hipótesis de invertibilidad de g y asumiendo además diferenciabilidad, podemos hallar la relación entre las funciones de densidad de probabilidad al diferenciar ambos términos respecto de y, obteniendo

f Y ( y ) = f X ( g 1 ( y ) ) | d g 1 ( y ) d y | {\displaystyle f_{Y}(y)=f_{X}(g^{-1}(y))\left|{\frac {dg^{-1}(y)}{dy}}\right|} .

Si g {\displaystyle g} es no invertible pero cada y {\displaystyle y} tiene un número finito de raíces, entonces la relación previa con la función de densidad de probabilidad puede generalizarse como

f Y ( y ) = i f X ( g i 1 ( y ) ) | d g i 1 ( y ) d y | {\displaystyle f_{Y}(y)=\sum _{i}f_{X}(g_{i}^{-1}(y))\left|{\frac {dg_{i}^{-1}(y)}{dy}}\right|}

donde x i = g i 1 ( y ) {\displaystyle x_{i}=g_{i}^{-1}(y)} . Las fórmulas de densidad no requieren que g {\displaystyle g} sea creciente.

Ejemplo 1

Sean X {\displaystyle X} una variable aleatoria continua y Y = X 2 {\displaystyle Y=X^{2}} entonces

F Y ( y ) = P [ Y y ] = P [ X 2 y ] {\displaystyle F_{Y}(y)=\operatorname {P} [Y\leq y]=\operatorname {P} [X^{2}\leq y]}

Si y < 0 {\displaystyle y<0} entonces P [ X 2 = y ] = 0 {\displaystyle \operatorname {P} [X^{2}=y]=0} por lo que

F Y ( y ) = 0 si y < 0 {\displaystyle F_{Y}(y)=0\quad {\hbox{si}}\quad y<0}

Si y 0 {\displaystyle y\geq 0} entonces

P [ X 2 y ] = P [ | X | y ] = P [ y X y ] {\displaystyle \operatorname {P} [X^{2}\leq y]=\operatorname {P} [|X|\leq {\sqrt {y}}]=\operatorname {P} [-{\sqrt {y}}\leq X\leq {\sqrt {y}}]}

por lo tanto

F Y ( y ) = F X ( y ) F X ( y ) si y 0 {\displaystyle F_{Y}(y)=F_{X}({\sqrt {y}})-F_{X}(-{\sqrt {y}})\quad {\hbox{si}}\quad y\geq 0}

Ejemplo 2

Sea X {\displaystyle X} una variable aleatoria con función de distribución acumulada

F X ( x ) = P [ X x ] = 1 ( 1 + e x ) θ {\displaystyle F_{X}(x)=\operatorname {P} [X\leq x]={\frac {1}{(1+e^{-x})^{\theta }}}}

donde θ > 0 {\displaystyle \theta >0} es un parámetro. Considere la variable aleatoria Y = ln ( 1 + e X ) {\displaystyle Y=\ln(1+e^{-X})} entonces

F Y ( y ) = P [ Y y ] = P [ ln ( 1 + e X ) y ] = P [ X ln ( e y 1 ) ] {\displaystyle F_{Y}(y)=\operatorname {P} [Y\leq y]=\operatorname {P} [\ln(1+e^{-X})\leq y]=\operatorname {P} [X\geq -\ln(e^{y}-1)]}

La expresión anterior puede ser calculada en términos de la función de distribución acumulada de X {\displaystyle X} como

F Y ( y ) = P [ X ln ( e y 1 ) ] = 1 P [ X < ln ( e y 1 ) ] = 1 F X ( ln ( e y 1 ) ) = 1 1 ( 1 + e ln ( e y 1 ) ) θ = 1 e θ y {\displaystyle {\begin{aligned}F_{Y}(y)&=\operatorname {P} [X\geq -\ln(e^{y}-1)]\\&=1-\operatorname {P} [X<-\ln(e^{y}-1)]\\&=1-F_{X}(-\ln(e^{y}-1))\\&=1-{\frac {1}{(1+e^{\ln(e^{y}-1)})^{\theta }}}\\&=1-e^{-\theta y}\end{aligned}}}

que corresponde a la función de distribución acumulada de la distribución exponencial.

Ejemplo 3

Supóngase que X {\displaystyle X} es una variable aleatoria con X N ( 0 , 1 ) {\displaystyle X\sim N(0,1)} por lo que su función de densidad está dada por

f X ( x ) = 1 2 π e x 2 / 2 {\displaystyle f_{X}(x)={\frac {1}{\sqrt {2\pi }}}e^{-x^{2}/2}}

Considere la variable aleatoria Y = X 2 {\displaystyle Y=X^{2}} , podemos la función de densidad de Y {\displaystyle Y} utilizando la fórmula para el cambio de variable:

f Y ( y ) = i f X ( g i 1 ( y ) ) | d g i 1 ( y ) d y | {\displaystyle f_{Y}(y)=\sum _{i}f_{X}(g_{i}^{-1}(y))\left|{\frac {dg_{i}^{-1}(y)}{dy}}\right|}

En este caso el cambio no es monótico pues cada valor de Y {\displaystyle Y} tiene asociado dos posibles valores de X {\displaystyle X} (uno positivo y otro negativo), sin embargo, por simetría, ambos valores se transformarán de forma idéntica, esto es

f Y ( y ) = 2 f X ( g 1 ( y ) ) | d g 1 ( y ) d y | {\displaystyle f_{Y}(y)=2f_{X}(g^{-1}(y))\left|{\frac {dg^{-1}(y)}{dy}}\right|}

La transformación inversa es

x = g 1 ( y ) = y {\displaystyle x=g^{-1}(y)={\sqrt {y}}}

su derivada es

d g 1 ( y ) d y = 1 2 y {\displaystyle {\frac {dg^{-1}(y)}{dy}}={\frac {1}{2{\sqrt {y}}}}}

entonces

f Y ( y ) = 2 1 2 π e y / 2 1 2 y = 1 2 π y e y / 2 {\displaystyle {\begin{aligned}f_{Y}(y)&=2{\frac {1}{\sqrt {2\pi }}}\;e^{y/2}\;{\frac {1}{2{\sqrt {y}}}}\\&={\frac {1}{\sqrt {2\pi y}}}e^{-y/2}\end{aligned}}}

que corresponde a la función de densidad de la distribución distribución χ² con un grado de libertad.

Parámetros relacionados con una variable aleatoria

Artículo principal: Parámetro estadístico

La función de densidad o la distribución de probabilidad de una variable aleatoria (v.a.) contiene exhaustivamente toda la información sobre la variable. Sin embargo, resulta conveniente resumir sus características principales con unos cuantos valores numéricos. Entre estos están la esperanza y la varianza (aunque para caracterizar completamente la distribución de probabilidad se necesitan parámetros estadísticos adicionales).

Esperanza

Artículo principal: Esperanza matemática

La esperanza matemática (o simplemente esperanza) o valor esperado de una variable aleatoria es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Si todos los sucesos son de igual probabilidad entonces la esperanza es la media aritmética. Para una variable aleatoria discreta con soporte x 1 , x 2 x n {\displaystyle x_{1},x_{2}\ldots x_{n}\,\!} y si sus probabilidades representadas por la función de probabilidad p ( x i ) {\displaystyle p(x_{i})} la esperanza se calcula como:

E [ X ] = i = 1 n x i p ( x i ) {\displaystyle \operatorname {E} [X]=\sum _{i=1}^{n}x_{i}p(x_{i})\,\!}

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función de densidad f ( x ) {\displaystyle f(x)\,\!} :

E [ X ] = x f ( x ) d x {\displaystyle \operatorname {E} [X]=\int _{-\infty }^{\infty }xf(x)dx}

o

E [ X ] = Ω X d P {\displaystyle \operatorname {E} [X]=\int _{\Omega }X\,{\text{d}}P\,\!}

La esperanza también se suele simbolizar con μ = E [ X ] {\displaystyle \mu =\operatorname {E} [X]}

El concepto de esperanza se asocia comúnmente en los juegos de azar al de beneficio medio o beneficio esperado a largo plazo.

Varianza

Artículo principal: Varianza

La varianza es una medida de dispersión de una variable aleatoria X {\displaystyle X\,\!} respecto a su esperanza E [ X ] {\displaystyle \operatorname {E} [X]} . Se define como la esperanza de la transformación ( X E [ X ] ) 2 {\displaystyle \left(X-\mathbb {E} [X]\right)^{2}\,\!} :

σ = Var ( X ) {\displaystyle \sigma ={\sqrt {{\text{Var}}(X)}}\,\!}

o bien

σ 2 = Var ( X ) {\displaystyle \sigma ^{2}={\text{Var}}(X)\,\!}

Momentos de orden superior

Dada una distribución de probabilidad continua el conjunto de sus momentos caracteriza completamente la distribución. Dos de estos momentos ya han aparecido, el valor esperado coincide con el momento de primer orden, mientras que la varianza puede expresarse como una combinación del momento de segundo orden y el cuadrado del momento de primer orden. En general, el momento de orden n de una variable aleatoria real con densidad de probabilidad definida casi en todas partes se calcula como:

M X ( n ) = E [ X n ] = R x n f X ( x ) d x {\displaystyle M_{X}^{(n)}=\operatorname {E} [X^{n}]=\int _{\mathbb {R} }x^{n}f_{X}(x)dx}

Estos momentos pueden obtenerse a partir de las derivadas n-ésimas de la función característica φ X ( x ) {\displaystyle \varphi _{X}(x)} asociada a la variable X:

d φ X ( n ) ( 0 ) d x n = i n E [ X n ] {\displaystyle {\frac {d\varphi _{X}^{(n)}(0)}{dx^{n}}}=i^{n}\operatorname {E} [X^{n}]}

o análogamente la función generadora de momentos:

M X ( n ) ( 0 ) = d n M X ( 0 ) d x {\displaystyle M_{X}^{(n)}(0)={\frac {d^{n}M_{X}(0)}{dx}}}

Véase también

Referencias

  1. http://www.hrc.es/bioest/estadis_21.html Definición de variable aleatoria. Esta definición no es en absoluto rigurosa, ya que no define una variable aleatoria, sino cualquier función real. Es de remarcar que en la referencia no se dice en ningún momento que eso sea una definición. Sin embargo, en la mayoría de las aplicaciones prácticas, es suficiente.
  2. La definición rigurosa de variable aleatoria exige dotar a R {\displaystyle \mathbb {R} } de estructura de espacio medible e imponer a X la condición de ser función medible (véase la definición formal de variable aleatoria, en este mismo artículo).
  3. https://web.archive.org/web/20100228233046/http://planetmath.org/encyclopedia/DiscreteRandomVariable.html
  4. http://mathworld.wolfram.com/RandomVariable.html
  5. Véase conjunto finito para una definición más rigurosa.
  6. En experimentos reales la continuidad de una variable es rarísima, ya que la escasa precisión de los instrumentos de medida obliga a un conjunto discreto de valores posibles.

Bibliografía

  • Peña Sánchez de Rivera, Daniel (2008). Fundamentos de Estadística (1ª edición). Alianza Editorial. p. 688. ISBN 9788420683805. 
  • Ropero Moriones, Eva (2009). Manual de estadística empresarial (1ª edición). Delta Publicaciones. p. 200. ISBN 9788492453214. 

Enlaces externos

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q176623
  • Commonscat Multimedia: Random variable / Q176623

  • Identificadores
  • BNF: 121355344 (data)
  • GND: 4129514-6
  • LCCN: sh85111355
  • NLI: 987007563129305171
  • Diccionarios y enciclopedias
  • Britannica: url
  • Ontologías
  • Número IEV: 103-08-03
  • Wd Datos: Q176623
  • Commonscat Multimedia: Random variable / Q176623