Cuando se realizan estimaciones, el estimador depende de la muestra y, por tanto, de su tamaño. Las propiedades que hemos estudiado hasta ahora no resaltaban este hecho, porque comparaban la calidad de los distintos estimadores para un tamaño muestral, n, fijo. Sin embargo, hay estimadores que "mejoran" (en cierto sentido que ahora precisaremos) cuando el tamaño muestral crece, por lo que pueden ser preferibles a otros cuando no hay restricciones de tiempo o de gasto en la estimación.
Dos reflexiones nos ayudarán a ver la importancia de pensar en el tamaño de la muestra en relación con las estimaciones:
La consistencia maneja ideas parecidas:
Sea Diremos que la sucesión esto es, si el error cuadrático medio tiende hacia cero. Diremos que la sucesión es consistente en probabilidad (o simplemente consistente) si cumple esto es, si para cualquier número positivo, e . |
Nótese que la consistencia en media cuadrática no es sino
la convergencia en media cuadrática de la sucesión hacia
el parámetro
q, o dicho de otra forma, la convergencia
a cero del error cuadrático medio del estimador. Recogiendo el comentario anterior,
podríamos decir que
la media
muestral
es
siempre un
estimador consistente en media cuadrática de la media poblacional.
Por otro lado, como la convergencia en media cuadrática implica la convergencia en probabilidad, se cumple el resultado siguiente:
Si la sucesión |
La consistencia en media cuadrática se estudia con relativa facilidad, porque es una propiedad de los momentos de primer y segundo orden. Como el error cuadrático medio es la suma de la varianza y del cuadrado del sesgo,
y ambos sumandos son no negativos, es inmediato el siguiente resultado:
La sucesión
|
Si el estimador es insesgado, la consistencia
en media cuadrática equivale a (ya
que el sesgo es igual a cero).
En cuanto a la consistencia en probabilidad
(consistencia) se suele comprobar utilizando el resultado anterior, es decir,
viendo si sesgo y varianza tienden hacia cero (con lo cual hay consistencia
en media cuadrática) y utilizando el hecho de que la convergencia en
media cuadrática implica la
convergencia
en
probabilidad.
Cuando no hay convergencia en media cuadrática (o los dos primeros momentos
son difíciles de calcular) todavía puede calcularse la probabilidad para
cualquier e y estudiar si tiende a cero al
tender n a infinito.
Cuando el estimador es insesgado, puede
probarse directamente que basta para la consistencia que la varianza tienda
hacia cero a través
de la desigualdad de Chebychef. Como ,
la desigualdad indica que
Tomando límites, si la varianza tiende hacia cero,
de donde
Pueden verse dos ejemplos de estimadores consistentes en la continuación del Ejemplo1 y en la continuación del Ejemplo2 . El el libro CONSISTEN.XLS se ilustra la utilidad de los estimadores consistentes cuando es posible obtener muestras de gran tamaño.