Variables Aleatorias Continuas
Una variable aleatoria X es continua si su función de distribución es una función continua.
En la práctica, se corresponden con variables asociadas con experimentos en los cuales la variable medida puede tomar cualquier valor en un intervalo: mediciones biométricas, intervalos de tiempo, áreas, etc.
Ejemplos
- Resultado de un generador de números aleatorios entre 0 y 1. Es el ejemplo más sencillo que podemos considerar, es un caso particular de una familia de variables aleatorias que tienen una distribución uniforme en un intervalo [a, b]. Se corresponde con la elección al azar de cualquier valor entre a y b.
- Estatura de una persona elegida al azar en una población. El valor que se obtenga será una medición en cualquier unidad de longitud (m, cm, etc.) dentro de unos límites condicionados por la naturaleza de la variable. El resultado es impredecible con antelación, pero existen intervalos de valores más probables que otros debido a la distribución de alturas en la población. Más adelante veremos que, generalmente, variables biométricas como la altura se adaptan un modelo de distribución denominado distribución Normal y representado por una campana de Gauss.
Dentro de las variables aleatorias continuas tenemos las variables aleatorias absolutamente continuas.
Diremos que una variable aleatoria X continua tiene una distribución absolutamente continua si existe una función real f, positiva e integrable en el conjunto de números reales, tal que la función de distribución F de X se puede expresar como
Distribución normal o de Gauss
La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor importancia en el campo de la estadística.
Una variable es normal cuando se ajusta a la ley de los grandes números, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal.
Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss.
Su función de densidad es la siguiente:
Los parámetros de la distribución son la media y la desviación típica, μ y σ, respectivamente. Como consecuencia, en una variable normal, media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal.
La curva normal cumple las siguientes propiedades:
1) El máximo de la curva coincide con la media.
2) Es perfectamente simétrica respecto a la media (g1 = 0).
3) La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas.
4) Sus colas son asintóticas al eje X.
Para calcular probabilidades en intervalos de valores de la variable, habría que integrar la función de densidad entre los extremos del intervalo. por desgracia (o por suerte), la función de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad enorme.
Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores con los de otra variable con distribución normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuación:
La función de distribución de la variable normal tipificada está tabulada y, simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese.
De forma análoga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra normal.
Histograma de una normal idealizada
|
Histograma de una muestra de una variable normal
|
Distribución Gamma (Γ)
La distribución gamma se define a partir de la función gamma, cuya ecuación es:
La función de densidad de la distribución gamma es:
α y β son los parámetros de la distribución.
La media y la varianza de la variable gamma son:
Distribución exponencial
Es un caso particular de la distribución gamma cuando α = 1. Su función de densidad es:
Su parámetro es β.
La media y la varianza de la distribución exponencial son:
Distribución Chi-cuadrado (c2)
Es otro caso particular de la distribución gamma para el caso β = 2 y α = n / 2, siendo n un número natural.
Su función de densidad es:
El parámetro de la distribución c2 es n y su media y su varianza son, respectivamente:
Otra forma de definir la distribución c2 es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes, X1,..., Xn, con media μi y varianza
tiene distribución c2 con n grados de libertad y se le denomina c2n.
Distribución T de Student
Supongamos dos variables aleatorias independientes, una normal tipificada, Z , y otra con distribución c2 con n grados de libertad, la variable definida según la ecuación:
tiene distribución t con n grados de libertad.
La función de densidad de la distribución t es:
El parámetro de la distribución t es n, su número de grados de libertad.
Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y, por tanto, más aplanada.
Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden considerar prácticamente iguales para valores de n mayores o iguales que 30..
Distribución F de Snedecor
Sean U y V dos variables aleatorias independientes con distribución c2 con n1 y n2 grados de libertad, respectivamente. La variable definida según la ecuación:
tiene distribución F con n1, n2 grados de libertad.
La función de densidad de la distribución F es:
Los parámetros de la variable F son sus grados de libertad n1 y n2.
Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la siguiente:
Llamemos fa,n1,n2 al valor de una distribución F con n1 y n2 grados de libertad que cumple la condición, P(F > fa,n1,n2) = α; llamemos f1-a,n1,n2 al valor de una distribución F con n1 yn2 grados de libertad que cumple la condición, P(F > f1-a,n1,n2) = 1- α. Ambos valores están relacionados de modo que uno es el inverso del otro.
|
No hay comentarios:
Publicar un comentario