A esta distribución se la conoce como de los sucesos raros (en referencia al tamaño de p) o ley de los números pequeños, según Bortkiewicz, quien estudio, en 1898, el número de soldados del ejército prusiano muertos al año por coces de mulo. Aquí, n, los soldados expuestos, es grande, y p, puede aceptarse que es pequeña.
Viene a decir que, realizadas m tiradas sin obtener un éxito, la probabilidad de que transcurran otras n tiradas antes de que esto ocurra es la misma que si olvidamos las m primeras y consideramos que la primera tirada es la m+1, es decir, que transcurran otras n tiradas sin obtener éxito.
Esta propiedad permite que asignemos distribuciones de este tipo a los experimentos aleatorios basados en su observación repetida, si siempre que puede aceptarse que la historia de las observaciones no condiciona su devenir futuro, al menos si hasta entonces el resultado que se espera no se ha presentado.
Esta distribución aparece en un estudio de Montmort sobre los juegos de azar en 1714.
Es usada también como alternativa a la Poisson, así Gosset (Student) la usa para estudiar el número de plaquetas en un hematocitómetro,
DISTRIBUCIONES UNIDIMENSIONALES DISCRETAS
Uniforme discreta |
Bernoulli |
Binomial |
Poisson |
Geométrica |
Binomial Negativa |
Hipergeométrica |
La distribución rectangular, también llamada uniforme discreta, es la de una variable aleatoria, X, que tome la misma probabilidad para N valores igualmente espaciados entre dos valores, a y b (a<b). Su función de probabilidad vale
![]() |
para ,
siendo h el espacio entre dos valores consecutivos,
.
Haciendo
el cambio
se obtiene la forma
estándar, que toma los valores 1,2,...,N con
la misma probabilidad.
X |
Forma estándar |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Obviamente, todos los valores son modas. En cuanto a la Mediana
![]() |
Los coeficientes de simetría (skewness) y aplastamiento (kurtosis) se obtienen a partir de los anteriores momentos,
![]() |
![]() |
Ejemplo 1: El clásico del lanzamiento de un dado de seis caras equiprobable, esto es, cada lado tiene la misma probabilidad de salir que cualquier otro.
Cuando el interés reside no en saber cuál es el resultado de un experimento concreto sino si éste ha ocurrido o no. A eso se conoce como experimento de Bernoulli.
En un experimento de Bernoulli se denomina
éxito al suceso en estudio, A, y fracaso a su contrario, .
A este suceso le asociamos la variable aleatoria, X, definida como el número
de éxitos al realizar
el experimento.
Es decir,
Llamamos p=p(A), a la probabilidad de éxito
y q=1-p=p() a
la probabilidad de fracaso.
Se denota como y su función de probabilidad
es
![]() |
y su función de distribución
Finalmente:
E(X)=p |
Var(X)=pq |
Ejemplo 2: Sea el experimento de Bernoulli consistente en lanzar un tiro libre a una canasta de baloncesto por parte de un jugador. El éxito es encestar y el fracaso no encestar. Del historial deportivo del jugador se sabe que encesta el 80% de las veces, entonces, asociamos al experimento la variable de Bernoulli, número de aciertos al realizar un tiro libre, cuya distribución es
Es decir, la variable X tiene una distribución b(0.8).
La distribución binomial fue presentada y obtenida por J. Bernoulli en 1713, simbólicamente se representa por B(n,p), y se define como el número de éxitos en n tiradas de Bernoulli independientes, siendo p la probabilidad de éxito en cada tirada.
Para n=1 la distribución se denomina de Bernoulli, abreviadamente b(p). De hecho, la binomial es una suma de variables independientes de Bernoulli.
Su función de probabilidad, para ,
es
![]() |
Su esperanza vale E[X]=n·p, y su varianza, Var(X)=n·p·(1-p).
La moda es
donde [m] expresa la parte entera de m.
El coeficiente de asimetría es y
el de curtosis
.
Un resultado de interés es también:
Sea X una B(n,p) y sea Y una B(n,1-p) , entonces p[X=k]=p[Y=n-k] |
Cuando n>20, su función de distribución puede aproximarse por la de una normal, de media np y varianza npq.
Ejemplo 3: El jugador de baloncesto lanza una serie de 5 tiros libres. Calcular la probabilidad de que enceste dos. ¿Y de que enceste al menos 3?
En este caso la variable X es el número de encestes, de 5 intentos, sigue una distribución B(5,0.8). Con lo cual, la probabilidad de sólo dos encestes de 5 intentos es:
Por su parte, la probabilidad de al menos 3 encestes es
Esta probabilidad puede calcularse directamente, o bien buscando en tablas tabuladas, o bien puedes buscar en la hoja de cálculo
, introducir los valores de los parámetros, n=5, p=0.8 y el valor de k=3. La hoja devolverá el valor tabulado.
Históricamente, la distribución de Poisson aparece como límite de la distribución binomial cuando el número de experimentos tiende a infinito y la probabilidad de éxito tiende hacia cero.
Simbólicamente se describe como P(l), aparece como aproximación a la distribución binomial, B(n,p), cuando n es grande y p pequeño, siendo E(X)=l=Var(X).
Su función de probabilidad es
![]() |
Admite una única moda cuando l no es entero (la moda es la parte entera de l, [l]) y dos cuando es entero (l-1y l).
Su
coeficiente de asimetría vale ,
y el de curtosis
.
Si
l>20
su función
de distribución se
aproxima a una normal de la misma media y varianza.
Ejemplo 4: El jugador de baloncesto tiene una media de 1 enceste por temporada desde una distancia de 10 metros. Admitiendo que el número de enceste desde esa distancia sigue una distribución de Poisson, ¿cuál es la probabilidad de que consiga dos encestes?, y ¿la probabilidad de más de 3 encestes?
En este caso X, número de canastas desde una distancia de 10 metros, sigue una P(1) (ya que 1=E(X)), entonces se pide
La segunda probabilidad es p[X>3], que resulta
.
Como en el ejemplo anterior, la probabilidad podría calcularse directamente, o bien buscando en tablas tabuladas, o bien puedes con ayuda de la hoja de cálculo
, introducir los valores del parámetro, l=1 y el valor de k=3. La hoja devolverá el valor tabulado.
La distribución geométrica, simbólicamente descrita como G(p), describe las probabilidades de obtener k fracasos antes del primer éxito, al realizar sucesivas tiradas de Bernoulli independientes, con probabilidad p de éxito.
Su función de probabilidad es
![]() |
Su función de distribución
vale , para
k=0,1,... lo que facilita el cálculo de cuantiles.
Su
esperanza vale ,
y su varianza
.
La moda vale siempre 0.
El
coeficiente de simetría
resulta y el
de curtosis
.
Posee una importante propiedad llamada "del olvido", o de la falta de memoria.
Si X sigue una distribución G(p), entonces |
Ejemplo 5: Para el jugador de baloncesto al lanzar tiros libres, ¿cuál es el número medio de fallos antes del primer acierto?
La variable de estudio es ahora, X, número de tiros libres fallados antes del primer enceste. Es decir, se trata de una geométrica de parámetro 0.8, G(0.8), con lo cual el número medio de fallos antes del primer acierto es la esperanza de la misma, es decir,
Distribución
binomial negativa:
La distribución binomial negativa, simbólicamente
descrita como BN(r,p), describe las probabilidades de obtener k fracasos
antes del r-ésimo éxito,
al realizar sucesivas tiradas de Bernoulli independientes, con probabilidad p de éxito.
Su función de probabilidad es
![]() |
Su
esperanza vale ,
y su varianza
.
Para r=1 coincide con la distribución geométrica.
El
coeficiente de simetría vale ,
y el de curtosis,
.
La Binomial negativa es una suma de variables geométricas de parámetro p, independientes
Ejemplo 6: Para el jugador de baloncesto, ¿cuál es la probabilidad de que falle 5 tiros libres antes de conseguir 7 puntos?En este caso la variable X es número de canastas falladas antes del 7º acierto, es decir, se trata de una BN(7,0.8), con lo cual, la probabilidad pedida es:
La distribución hipergeométrica proporciona probabilidades de extraer k bolas blancas de una urna en la que hay N1 blancas y N2 negras (N=N1+N2), en n extracciones sin reposición.
Cuando hay reposición se obtiene la distribución binomial B(n,p), con p=N1/N. De hecho, si N>50 y n/N<=0.1, se acepta que coinciden.
La función de probabilidad es
![]() |
para máx(0,n-N2)<=k<=mín(n,N1).
Su
esperanza coincide con la de la binomial, E[X]=n·p,
pero la varianza es menor,
.
Ejemplo 7: En el equipo hay 8 jugadores que lo hacen en el puesto de alero, dos de los cuales son extranjeros. El entrenador selecciona a dos de ellos para el 5 inicial, ¿cuál es la probabilidad de que uno de ellos sea extranjero?Ahora la variable X es el número de jugadores extranjeros elegidos. Dicha variable sigue una H(8,2,0.25), con lo que la probabilidad de que uno sea extranjero es del 42.8%:
Volver