Método de máxima verosimilitud

Como el ejemplo anterior ilustra, una posibilidad prudente, cuando se desea una estimación puntual de un parámetro, consiste en elegir como estimación el valor del parámetro que maximiza la función de verosimilitud (dicho valor del parámetro será una función de porque la función de verosimilitud depende de la realización de la muestra). Si esta maximización la obtenemos para una realización cualquiera, dispondremos de la expresión del estimador, que se denomina máximo-verosímil. Formalicemos el resultado.

Sea una población, y la función de verosimilitud para una muestra aleatoria simple de X. El valor, , tal que

recibe el nombre de estimación máximo-verosímil de q. La función de la muestra se denomina entonces estimador máximo-verosímil de q.

Con frecuencia, esta práctica proporciona el máximo o, al menos, indicaciones acerca de cómo obtenerlo. La primera de estas dos condiciones (anulación de la primera derivada) recibe el nombre de ecuación de verosimilitud.

Los siguientes ejemplos muestran cómo se desarrollan los cálculos analíticamente.

Anteriormente estudiábamos la función de verosimilitud para una población de Bernoulli en el Ejemplo3. En la continuación del Ejemplo 3 veremos la estimación máximo verosímil del parámetro. Pueden verse otros ejemplos en la continuación del Ejemplo 1 o en la continuación del Ejemplo 2

El libro VEROSI.XLS muestra la dinámica de la máxima verosimilitud.

 

Máxima verosimilitud para varios parámetros

El método de máxima verosimilitud se aplica de la misma manera si hay más de un parámetro a estimar, si bien con una mayor complejidad en el cálculo del máximo. La idea es totalmente similar:

Sea una población cuya función de densidad o de probabilidad depende de un vector de k parámetros. Sea su función de verosimilitud para una muestra aleatoria simple de X. El vector, , tal que

recibe el nombre de estimación máximo-verosímil de . La función de la muestra se denomina entonces estimador máximo-verosímil de .

Ilustraremos el procedimiento con la estimación de los dos parámetros, m y (nótese que consideramos , y no s como parámetro, por lo que las funciones se escriben en función de y con respecto al mismo se toman las derivadas) de una población normal. La verosimilitud resulta

y su neperiano

La ecuación de verosimilitud es ahora un sistema de dos ecuaciones con dos incógnitas,

De la primera se obtiene , que sustituida en la segunda proporciona , esto es,.

La matriz hessiana, sustituidos los parámetros por las soluciones de la ecuación de verosimilitud, resulta

que claramente es definida negativa. En definitiva, los estimadores máximo verosímiles son y .

Máxima verosimilitud e información parcial. Principio de máxima verosimilitud.

La idea que subyace al principio de la estimación máximo-verosímil (maximizar la probabilidad o la densidad de la realización de la muestra) se aplica también cuando no se conoce completamente la realización de la muestra, sino sólamente se dispone de información parcial sobre la misma. Esa información es un suceso, cuya probabilidad dependerá del parámetro; su maximización me proporcionará la estimación máximo verosímil. Resumimos esta idea en un enunciado:

Principio de máxima verosimilitud

Sea una población, supongamos que se dispone de una muestra aleatoria simple de X, y que ha ocurrido un suceso, S, relacionado con la muestra. Llamemos p [ S , q ] a su probabilidad. El principio de máxima verosimilitud consiste en tomar como estimación máximo verosímil de q el valor tal que

Si el suceso S incluye realizaciones concretas de una variable continua, se sustituirán adecuadamente las probabilidades por densidades.

Puede verse una ilustración de esta idea en el Ejemplo 4 o en la continuación del Ejemplo1.

Propiedades de los estimadores máximo-verosímiles

La popularidad del uso de los estimadores máximo-verosímiles se basa en que es un buen estimador del parámetro. Enunciaremos, sin demostrar, sus principales propiedades. En todas ellas supondremos que se dispone de una población, , y que es una muestra aleatoria simple de X

Invariancia

Sea el estimador máximo verosímil de q, sea una transformación inyectiva. Entonces el estimador máximo-verosímil de h es

Como puede verse, la propiedad de invariancia permite realizar la estimación máximo-verosímil en el terreno en que nos sea más cómodo. Veamos la siguiente ilustración en la continuación del Ejemplo1.

 

Aunque sea función de T, esto no quiere decir que sea suficiente, porque la función que los relaciona no tiene por qué ser biyectiva. No obstante, habitualmente lo es, lo que implica que muchas veces el estimador máximo verosímil es efectivamente un estimador suficiente.

Eficiencia

Supongamos que se cumplen las condiciones de regularidad de Cramér-Rao y que el estimador máximo verosímil se obtiene como solución de la ecuación de verosimilitud. Entonces, si existe un estimador eficiente, coincide con el estimador máximo verosímil.

La anterior propiedad garantiza que, si hay un estimador eficiente (que de existir es único, como sabemos), el máximo verosímil es eficiente. Para ello se exige, claro está, que se cumplan las condiciones de regularidad de Cramér-Rao, porque de no ser así no podríamos hablar de estimadores eficientes; pero se exige también que el estimador máximo verosímil se obtenga por técnicas de derivación.

Comportamiento asintótico

Supongamos que se cumplen las condiciones de regularidad de Cramér-Rao y que el estimador máximo verosímil se obtiene como solución de la ecuación de verosimilitud. Supongamos también que se cumplan ciertas condiciones de regularidad adicionales sobre la función de densidad o de probabilidad de la población (que no enunciaremos y que se cumplen en los casos de interés práctico). Entonces se cumple:

  1. El estimador máximo-verosímil es consistente, esto es,
  2. Se verifica la convergencia
    donde es la cantidad de información de la muestra.

Obsérvese, en primer lugar, que las condiciones que se exigen son las mismas que las que garantizan la eficiencia del estimador, cuando existe. Además, se exigen ciertas condiciones de regularidad funcional que se cumplen en los casos que nosotros estudiamos, por lo que no las detallamos.

En cuanto a las conclusiones, obsérvese que, por la primera, se garantiza la consistencia del estimador.

Por la segunda, se obtiene la normalidad como distribución aproximada del estimador máximo-verosímil, lo que permitirá su uso para construir intervalos de confianza aproximados para q. Pero, además, nótese que tiene aproximadamente esperanza nula y varianza unidad, por lo que

o, dicho de otra forma, la esperanza del estimador es aproximadamente igual al parámetro, y además,

o equivalentemente , esto es, la varianza del estimador es aproximadamente la cota de Cramér-Rao. En definitiva, estos resultados se describen diciendo que, en las condiciones del resultado anterior, el estimador máximo verosímil es asintóticamente insesgado y asintóticamente eficiente.