Convergencias y Teorema del Límite Central
Denominamos sucesión de variables aleatorias, ,a la sucesión de funciones . Entenderemos convergencias de estas en los siguientes términos:
Convergencia en probabilidad: si
Convergencia en media de orden r:
Convergencia en ley o en distribución:
cuando esto ocurre diremos que se distribuye asintóticamente como X,
Ejemplo1: Sea la sucesión de variables aleatorias , donde sigue una distribución de Bernoulli de parámetro . Comprobar que converge en probabilidad, en media de orden r y en ley hacia 0 (variable aleatoria 0).
Ley débil de los grandes números (Teorema de Khinchin): Sea una sucesión de variables aleatorias independientes y con la misma distribución, entonces
Un caso particular en la Ley de regularidad estadística, que afirma que la frecuencia relativa de un suceso A, fr(A), tiende hacia la probabilidad del mismo, p(A)
Basta definir como 1 si ocurre A y 0 en otro caso.
Otro caso particular que se desprende es el que afirma que la función de distribución empírica tiende hacia la teórica
Quizá el resultado más significativo que se deduce es que los momentos muestrales convergen en probabilidad hacia los poblacionales, en concreto, y para los estadísticos habituales:
Teorema del límite central (de Levy-Lindeberg)
Sea una sucesión de variables aleatorias independientes y con la misma distribución, entonces
de donde deducimos la distribución asintótica de la media y de la suma, esto es,
Fue Moivre, en 1733, quien primero proporcionó una versión del teorema sólo para variables de Bernoulli con equiprobabilidad. Laplace lo generalizó para cualquier probabilidad. Lyapunoff, en 1901, da la primera demostración rigurosa del resultado.
Para variables independientes e igualmente distribuidas, Levy y Lindeberg lo prueban 20 años después. Finalmente, Lyapunov probó una versión para variables independientes que cumplan cierta condición.
Observemos que en el caso que la variable tenga una distribución normal, coincide la distribución exacta y la asintótica.
En concreto, y para alguna de las variables habituales
Puede comprobarse la convergencia en la siguiente hoja de cálculo
Sea la sucesión de variables aleatorias , donde sigue una distribución de Bernoulli de parámetro . Comprobar que converge en probabilidad, en media de orden r y en ley hacia 0 (variable aleatoria 0).
La variable es
- para comprobar que debemos comprobar que .
El suceso coincide con , cuya probabilidad es y al tomar límite es nulo.
- para comprobar que comprobamos que
En este caso , y el límite es de nuevo 0.
- para comprobar que , calculamos en primer lugar la función de distribución de y de .
Después, comprobaremos que el límite funcional de la primera es la segunda. En efecto, la función de distribución de es:
y la de es
Es inmediato que el límite cuando n tiende a infinito de la primera es la segunda, por tanto, se tiene la convergencia en ley o en distribución.
La función de distribución empírica
El objetivo de la función de distribución empírica es construir una distribución de frecuencias acumuladas para una cierta realización muestral.
Así, disponemos de una m.a.s. de una variable aleatoria X y disponemos de su realización muestral .
A continuación, ordenamos dicha realización que será un resultado de la muestra ordenada .
La construcción de esta función de distribución es:
Es decir, utilizando la muestra ordenada
o también puede expresarse como , donde expresa la función indicador, esto es, la función de distribución empírica coincide con la frecuencia de los valores .
El aspecto de esta función es el de una distribución escalonada (discreta).
Si hay empates, esto es, caso que varias variables de la muestra ordenada coincidieran, entonces el valor de la función de distribución empírica se incrementaría proporcionalmente al número de empates. (Ver ejemplo)
Fijar la atención sobre el caracter aleatorio de esta función. Se trata, en definitiva, de una variable aleatoria discreta que para cada número real x toma los valores . En concreto se tiene que el número de variables de la muestra que son menores o iguales que x es una distribución binomial, así
Si repetimos sucesivamente el experimento la función de distribución empírica se aproxima (converge en probabilidad) a la función de distribución teórica. Es decir,
Este resultado será utilizado posteriormente para evaluar lo acertado de la muestra o de si está "demasiado" alejada de la población, estudiándolo a través del estadístico , que evaluará su diferencia.
Ejemplo 2.- Sea una variable aleatoria con distribución uniforme en el intervalo (4,5), es decir, con función de densidad,
Planteamos extraer una m.a.s. de tamaño 8 de ella, dibujar la distribución empírica y compararla con la teórica. En segundo lugar, repetir la experiencia con varias muestras más del mismo tamaño y observar su "aspecto". Por último, observar que si extraemos una muestra de mayor tamaño, 1000, la distribución empírica se aproxima más a la teórica. Todo ello en una hoja de cálculo.