Introducción

En este tema estudiamos la estimación paramétrica, esto es, la estimación de parámetros implicados en la distribución de probabilidades de la población. Más formalmente, nuestro problema incluye los siguientes elementos:

Dicho de una forma más compacta, los elementos son:

una m.a.s. de X , una realización de

Observa el siguiente ejemplo nº 1

Estimación y estimador

Decimos que hemos realizado una estimación cuando hemos asignado un valor, , al parámetro de la distribución. Como puede verse, resulta práctico designar la estimación del parámetro con su mismo símbolo, acompañado de una marca (una tilde, un acento circunflejo, un asterisco, etc.) para distinguir ambos entre sí.

Aunque existen diferentes métodos para realizar una de estas asignaciones, suele ser conveniente utilizar la información proporcionada por la realización de la muestra. Una estimación sería entonces una aplicación que envía cada realización de la muestra en un valor del parámetro, .

Nótese que utilizamos la misma notación, , para designar dos objetos diferentes, por un lado, la aplicación,

tal que

y, por otro, el resultado de esa aplicación para una realización concreta de la muestra, . De hecho, este símbolo se utiliza para designar otro objeto más, que se denomina estimador, o más en concreto, un estimador de q. El estimador es la versión genérica de una estimación, esto es, la estimación que se obtendría para la propia muestra aleatoria simple. Un estimador no es, por tanto, un número, sino una función de una variable aleatoria n-dimensional, , y por tanto, una variable aleatoria. En general, esta notación no resulta confusa, porque el contexto nos permite decidir si estamos hablando del estimador, de la estimación o de la propia función. Formalicemos los resultados:

Sea una población, y sea una m.a.s. de X. Una función de la m.a.s. decimos que es un estimador de q si es un estadístico que cumple:

  1. es una función de la m.a.s., pero no del parámetro.
  2. Su distribución depende del parámetro.
  3. Sus valores son valores posibles del parámetro, esto es,

Para cada realización, , de la muestra , el estimador proporciona un número, que denominamos estimación de q .

Este recuadro resume las anteriores ideas. Cuando se quiere asignar un valor a un parámetro desconocido (estimar un parámetro desconocido, como diremos desde ahora) se utiliza una herramienta que llamaremos estimador. Esta herramienta es una función de la muestra, . ¿Qué se exige a dicha herramienta? Sencillamente, que sea útil. Así, en primer lugar, que no dependa del parámetro, de manera que las estimaciones sean números conocidos.

En segundo lugar, que su distribución dependa del parámetro, condición que garantiza que es sensible a sus valores, esto es, que no es igualmente probable una estimación sea cual sea el valor del parámetro.

Finalmente, se exige que las estimaciones sean valores posibles del parámetro, esto es, que sea cual sea la realización de la muestra, no obtendremos un valor imposible del parámetro.

Observa la continuación del Ejemplo1

El Ejemplo2 también te ayudará a comprender el concepto de estimación.

Si el alumno ha seguido el ejemplo 1, tendrá claro que no es posible decidir cuál entre varias estimaciones es preferible, sino que la comparación se realiza entre estimadores, entre herramientas.

Pero no hay estimadores "óptimos" en el sentido general de la palabra, sino estimadores óptimos de acuerdo con cierto criterio. A continuación vamos a estudiar criterios de optimalidad de estimadores o, dicho de forma más sencilla, propiedades de los estimadores que resultan deseables. Pero debe tenerse en cuenta que, ni éstas son las únicas propiedades de interés para un estimador, ni suele haber un estimador que las posea todas.