Una variable aleatoria sigue una distribución Bernoulli cuando solo puede tomar dos valores: 1 (éxito) con probabilidad p, y 0 (fracaso) con probabilidad 1-p. Esta distribución modela experimentos con resultados binarios como trabajar/no trabajar, comprar/no comprar, o aprobar/suspender un examen.
La función de masa de probabilidad de una Bernoulli(p) es:
donde y es el resultado observado (0 o 1) y p es el parámetro de probabilidad de éxito.
Los momentos de la distribución Bernoulli son:
Un aspecto fundamental es que la varianza depende del parámetro p, alcanzando su máximo cuando p = 0.5. Esta característica implica heterocedasticidad inherente cuando p varía entre individuos, lo que viola los supuestos del modelo lineal clásico.
La distribución Binomial surge cuando realizamos n experimentos Bernoulli independientes, cada uno con la misma probabilidad de éxito p. La variable aleatoria X cuenta el número total de éxitos en los n ensayos.
La función de masa de probabilidad de una Binomial(n, p) es:
donde k es el número de éxitos observados, n es el número de ensayos, y \(\binom{n}{k} = \frac{n!}{k!(n-k)!}\) es el coeficiente binomial.
Los momentos de la distribución Binomial son:
Estas distribuciones son fundamentales para entender por qué el modelo lineal de probabilidad (MCO aplicado a variables binarias) es problemático. La heterocedasticidad inherente de la Bernoulli hace que los errores estándar de MCO sean incorrectos, y las predicciones pueden salir del intervalo [0,1]. Los modelos Probit y Logit resuelven estos problemas utilizando funciones de distribución acumulada que garantizan predicciones válidas como probabilidades.