Estimadores consistentes

Cuando se realizan estimaciones, el estimador depende de la muestra y, por tanto, de su tamaño. Las propiedades que hemos estudiado hasta ahora no resaltaban este hecho, porque comparaban la calidad de los distintos estimadores para un tamaño muestral, n, fijo. Sin embargo, hay estimadores que "mejoran" (en cierto sentido que ahora precisaremos) cuando el tamaño muestral crece, por lo que pueden ser preferibles a otros cuando no hay restricciones de tiempo o de gasto en la estimación.

Dos reflexiones nos ayudarán a ver la importancia de pensar en el tamaño de la muestra en relación con las estimaciones:

La consistencia maneja ideas parecidas:

Sea una población. Sea una sucesión de estimadores, para una muestra aleatoria simple de tamaño n, , de X.

Diremos que la sucesión es consistente en media cuadrática si cumple

esto es, si el error cuadrático medio tiende hacia cero. Diremos que la sucesión es consistente en probabilidad (o simplemente consistente) si cumple

esto es, si

para cualquier número positivo, e .

Nótese que la consistencia en media cuadrática no es sino la convergencia en media cuadrática de la sucesión hacia el parámetro q, o dicho de otra forma, la convergencia a cero del error cuadrático medio del estimador. Recogiendo el comentario anterior, podríamos decir que la media muestral es siempre un estimador consistente en media cuadrática de la media poblacional.

Por otro lado, como la convergencia en media cuadrática implica la convergencia en probabilidad, se cumple el resultado siguiente:

Si la sucesión es un estimador consistente en media cuadrática de q, es consistente en probabilidad (o simplemente consistente).

La consistencia en media cuadrática se estudia con relativa facilidad, porque es una propiedad de los momentos de primer y segundo orden. Como el error cuadrático medio es la suma de la varianza y del cuadrado del sesgo,

y ambos sumandos son no negativos, es inmediato el siguiente resultado:

La sucesión de estimadores de un parámetro, q, es consistente en media cuadrática, si y sólo si se cumplen las dos condiciones siguientes:

  1. Es asintóticamente insesgado, esto es,

Si el estimador es insesgado, la consistencia en media cuadrática equivale a (ya que el sesgo es igual a cero).

En cuanto a la consistencia en probabilidad (consistencia) se suele comprobar utilizando el resultado anterior, es decir, viendo si sesgo y varianza tienden hacia cero (con lo cual hay consistencia en media cuadrática) y utilizando el hecho de que la convergencia en media cuadrática implica la convergencia en probabilidad. Cuando no hay convergencia en media cuadrática (o los dos primeros momentos son difíciles de calcular) todavía puede calcularse la probabilidad para cualquier e y estudiar si tiende a cero al tender n a infinito.

Cuando el estimador es insesgado, puede probarse directamente que basta para la consistencia que la varianza tienda hacia cero a través de la desigualdad de Chebychef. Como , la desigualdad indica que

Tomando límites, si la varianza tiende hacia cero,

de donde

Pueden verse dos ejemplos de estimadores consistentes en la continuación del Ejemplo1 y en la continuación del Ejemplo2 . El el libro CONSISTEN.XLS se ilustra la utilidad de los estimadores consistentes cuando es posible obtener muestras de gran tamaño.