DEV Community

GoyesDev
GoyesDev

Posted on • Edited on

[Notas] Distribuciones de Probabilidad e Inferencia

Distribuciones de probailidad:

  • Variables Discretas

    • Binomial B(n,p)
      • n número de elementos de la muestra y p probabilidad de éxito.
      • P(x=k)=(nk)pk(1p)(nk)=n!(nk)!k!pk(1p)(nk)P( x = k) = \binom{n}{k} p^{k} (1-p)^{(n-k)} = \frac{n!}{(n-k)!k!} p^k (1-p)^{(n-k)}
      • Valor esperado E[x]=npE[x] = n * p
      • Varianza V[x]=np(1p)V[x] = n * p * (1 - p)
    • Poisson:
      • Se usa cuando un evento se mide de forma discreta, pero a lo largo del tiempo. e.g. Números de accidentes que ocurren en tres horas en una ciudad, números de llamadas que entran en un callcenter por tres horas.
      • P(X=k)=λkeλk!P( X = k ) = \frac{\lambda ^ k * e ^ {- \lambda}}{ k! }
      • Valor esperado E[x]=λ=μE[x] = \lambda = \mu
      • Varianza V[x]=λ=μV[x] = \lambda = \mu
  • Variables Continuas

Ejemplos

Binomial

El jefe de recursos humanos de una empresa realiza un test de diez items a los aspirantes de un puesto, teniendo en cada item cuatro posibles respuestas, de las que solo una es correcta. Suponiendo que los aspirantes teniendo la misma probabilidad de responder. Se pide hallar las probabilidades para el aspirante:

  • Probabilidad de acertar respuesta: P(A)=14P( A ) = \frac{1}{4}
  • Probabilidad de fallar respuesta: P(A)=34P( \overline{A} ) = \frac{3}{4}
  1. Conteste todos los items mal ( n=10n = 10 , p=3/4p = 3/4 )
P(k=10)=(1010)(34)10(14)(1010) P(k = 10) = \binom{10}{10} \left(\frac{3}{4}\right)^{10} \left(\frac{1}{4}\right)^{(10-10)}
P(k=10)=10!(0)!10!(34)10(14)(0) P(k = 10) = \frac{10!}{(0)!10!} \left(\frac{3}{4}\right)^{10} \left(\frac{1}{4}\right)^{(0)}
P(k=10)=(34)10=0.056 P(k = 10) = \left(\frac{3}{4}\right)^{10} = 0.056
  1. Conteste al menos cuatro items bien (sumatoria de probabilidad binomial con p(A)=1/4p(A) = 1/4 , p(A)=3/4p(\overline{A}) = 3/4 y n=[4,10]n = [4, 10] )
P(X4)=1P(X3)=1k=03(10k)(14)k(34)10k P(X \ge 4) = 1 - P(X \le 3) = 1 - \sum_{k=0}^{3} \binom{10}{k} \left(\frac{1}{4}\right)^k \left(\frac{3}{4}\right)^{10-k}
P(X4)=1[(100)(14)0(34)10+(101)(14)1(34)9+(102)(14)2(34)8+(103)(14)3(34)7] P(X \ge 4) = 1 - \Bigg[ \binom{10}{0} \left(\frac{1}{4}\right)^0 \left(\frac{3}{4}\right)^{10} + \binom{10}{1} \left(\frac{1}{4}\right)^1 \left(\frac{3}{4}\right)^{9} + \binom{10}{2} \left(\frac{1}{4}\right)^2 \left(\frac{3}{4}\right)^{8} + \binom{10}{3} \left(\frac{1}{4}\right)^3 \left(\frac{3}{4}\right)^{7} \Bigg]
P(X4)=1[(34)10+10(14)(34)9+45(14)2(34)8+120(14)3(34)7] P(X \ge 4) = 1 - \Bigg[ \left(\frac{3}{4}\right)^{10} + 10\left(\frac{1}{4}\right)\left(\frac{3}{4}\right)^{9} + 45\left(\frac{1}{4}\right)^2\left(\frac{3}{4}\right)^{8} + 120\left(\frac{1}{4}\right)^3\left(\frac{3}{4}\right)^{7} \Bigg]
P(X4)=11410(310+1039+4538+12037) P(X \ge 4) = 1 - \frac{1}{4^{10}} \left( 3^{10} + 10 \cdot 3^{9} + 45 \cdot 3^{8} + 120 \cdot 3^{7} \right)
P(X4)0.224 P(X \ge 4) \approx 0.224
  1. Conteste entre cuatro y seis items bien
P(6X4)=P(X=6)+P(X=5)+P(X=4) P(6 \ge X \ge 4) = P(X = 6) + P(X = 5) + P(X = 4)
  1. Conteste todos los items bien
P(X=10) P(X = 10)
  1. Conteste menos de tres items bien
P(X2)=P(X=2)+P(X=1)+P(X=0) P(X \le 2) = P(X = 2) + P(X = 1) + P(X = 0)

Poisson

En un servicio de urgencias de un determinado hospital, se sabe que por término medio llegan diez pacientes durante una hora. Calcula la probabilidad de que:

Sean X el número de pacientes y E[x]=λ=μ=10E[x] = \lambda = \mu = 10

a) Lleguen exactamente cinco pacientes en una hora

P(X=k)=λkeλk! P( X = k ) = \frac{\lambda ^ k * e ^ {- \lambda}}{ k! }
P(X=5)=105e105! P( X = 5 ) = \frac{10 ^ 5 * e ^ {- 10}}{ 5! }
P(X=5)0.037 P( X = 5 ) \approx 0.037

b) Lleguen menos de cinco pacientes en una hora

P(X<5)=P(X=0)+P(X=1)+P(X=2)+P(X=3)+P(X=4) P( X < 5 ) = P( X = 0 ) + P( X = 1 ) + P( X = 2 ) + P( X = 3 ) + P( X = 4 )
P(X<5)=100e100!+101e101!+102e102!+103e103!+104e104! P( X < 5 ) = \frac{10 ^ 0 * e ^ {- 10}}{ 0! } + \frac{10 ^ 1 * e ^ {- 10}}{ 1! } + \frac{10 ^ 2 * e ^ {- 10}}{ 2! } + \frac{10 ^ 3 * e ^ {- 10}}{ 3! } + \frac{10 ^ 4 * e ^ {- 10}}{ 4! }
P(X<5)0.02925 P( X < 5 ) \approx 0.02925

c) Lleguen más de cuatro y menos de ocho pacientes en una hora

P(4<X<8)=P(X=5)+P(X=6)+P(X=7) P( 4 < X < 8 ) = P( X = 5 ) + P( X = 6 ) + P( X = 7 )
P(4<X<8)=105e105!+106e106!+107e107! P( 4 < X < 8 ) = \frac{10 ^ 5 * e ^ {- 10}}{ 5! } + \frac{10 ^ 6 * e ^ {- 10}}{ 6! } + \frac{10 ^ 7 * e ^ {- 10}}{ 7! }
P(X<5)0.191 P( X < 5 ) \approx 0.191

Aproximaciones entre distribuciones discretas

Se puede aproximar una distribución con otra, si se dan ciertas condiciones en el problema.

En la distribución de Binomial se tiene que:

  • Valor esperado E[x]=npE[x] = n * p
  • Varianza V[x]=np(1p)V[x] = n * p * (1 - p)

En la distribución Poisson se tiene que:

  • Valor esperado E[x]=λ=μE[x] = \lambda = \mu
  • Varianza V[x]=λ=μV[x] = \lambda = \mu

Se puede aproximar Binomial a Poisson cuando n20n \ge 20 y p<0.05p < 0.05 , y se usa λ=np10\lambda = n \cdot p \le 10

Es más fácil calcular con Poisson (con exponencial) en lugar de combinatorias.

Ejemplos

Una compañía de seguros garantiza pólizas de seguros individuales contra retrasos aéreos de más de doce horas. Una encuesta ha permitido estimar a lo largo de un año que cada persona tiene una probabilidad de cada mil de ser víctima de un retraso aéreo que esté cubierto por este tipo de póliza y que la compañía aseguradora podrá vender una media de cuatro mil pólizas al año. Se pide hallar las siguientes probabilidades:

a) Que el número de retrasos cubiertos por la póliza no pase de cuatro por año

Sea X número de retrasos, p(X)=1/1000p(X) = 1/1000 , n=4000n = 4000 , y np=4<10n \cdot p = 4 < 10 .

Por esto se puede calcular la probabilidad con Poisson usando λ=np=4\lambda = n \cdot p = 4

P(X4)=P(X=0)+P(X=1)+P(X=2)+P(X=3)+P(X=4) P( X \le 4 ) = P( X = 0 ) + P( X = 1 ) + P( X = 2 ) + P( X = 3 ) + P( X = 4 )
P(X4)=40e40!+41e41!+42e42!+43e43!+44e44! P( X \le 4 ) = \frac{4 ^ 0 * e ^ {- 4}}{ 0! } + \frac{4 ^ 1 * e ^ {- 4}}{ 1! } + \frac{4 ^ 2 * e ^ {- 4}}{ 2! } + \frac{4 ^ 3 * e ^ {- 4}}{ 3! } + \frac{4 ^ 4 * e ^ {- 4}}{ 4! }
P(X4)=0.6288 P( X \le 4 ) = 0.6288

b) Número de retrasos esperados por año

E[X]=np=λ=4 E[ X ] = n \cdot p = \lambda = 4

c) Que el número de retrasos sea superior a dos por año

P(X>2)=1P(X2)=1P(X=2)P(X=1)P(X=0) P( X > 2 ) = 1 - P( X \le 2 ) = 1 - P( X = 2 ) - P( X = 1 ) - P( X = 0 )

Variables aleatorias continuas

Distribución normal

  • Media poblacional μ\mu .
  • Desviación estándar σ\sigma .
XN(μ,σ) X \sim \mathcal{N}(\mu, \sigma)

Distribución normal estándar

  • Z=XμσZ = \frac{X - \mu}{\sigma} .
ZN(0,1) Z \sim \mathcal{N}(0, 1)

Tabla de probabilidad de la normal estándar

Ejemplo

Dado:

XN(μ=60,σ=10) X \sim \mathcal{N}(\mu = 60, \sigma = 10)

Calcular:

P(X70)P(X \ge 70) , P(X80)P(X \le 80) , P(39X80)P(39 \le X \le 80) .

Podemos tener

Z=Xμσ=X6010 Z = \frac{X - \mu}{\sigma} = \frac{X - 60}{10}

Luego, lo que piden es equivalente a:

P(Z1)P(Z \ge 1) , P(Z2)P(Z \le 2) , P(2,1X2)P(-2,1 \le X \le 2) .

P(Z1)=1P(Z<1)=10.8413=0.1587 P(Z \ge 1) = 1 - P(Z < 1) = 1 - 0.8413 = 0.1587
P(Z2)=0.9772 P(Z \le 2) = 0.9772
P(2,1X2)=P(X<2)P(X<2.1)=P(X<2)P(X>2.1)=P(X<2)1+P(X<2.1)=0.97721+0.9821=0.9593 P(-2,1 \le X \le 2) = P( X < 2 ) - P( X < -2.1 ) = P( X < 2 ) - P( X > 2.1 ) = P( X < 2 ) - 1 + P( X < 2.1 ) = 0.9772 - 1 + 0.9821 = 0.9593

Aproximación de variable discreta a continua

  • Se puede aproximar una distribución Binomial o Poisson a continua Normal.

Binomial:

  • Valor esperado E[x]=npE[x] = n * p
  • Varianza V[x]=np(1p)V[x] = n * p * (1 - p)

Poisson:

  • Valor esperado E[x]=λ=μE[x] = \lambda = \mu
  • Varianza V[x]=λ=μV[x] = \lambda = \mu

Normal:

  • Valor esperado E[x]=μE[x] = \mu
  • Varianza V[x]=σ2V[x] = \sigma^2

  • Se puede aproximar Binomial a Normal si np>5n \cdot p > 5

  • Se puede aproximar Poisson a Normal si λ>10\lambda > 10

Aproximación por continuidad o Regla de Yales

P(x=k)=P(k0.5Xk+0.5) P( x = k ) = P(k - 0.5 \le X \le k + 0.5)
P(xk)=P(Xk+0.5) P( x \le k ) = P(X \le k + 0.5)

NOTA: Se puede aplicar para el caso de lanzamiento de un dado mil veces.

Introducción a la Inferencia Estadística

  • Inferencia estadística: Son las afirmaciones válidas acerca de la población o proceso basadas en la información contenida en la muestra.
  • Estadístico: Función de los datos muestras que no contiene parámetros desconocidos (medidas de tendencia central: media, medidas de dispersión: varianza, desviación estándar)
  • Distribución de probabilidad de X: Relaciona el conjunto de valores de X con la probabilidad asociada con cada uno de estos valores.
  • Estimador puntual: Estadístico que estima un valor específico de un parámetro (media poblacional, μ^\hat{\mu} ).

Ejemplo

La media poblacional es un estimador de la media muestral μ^=X\hat{\mu} = \overline{X}

Se pueden proponer tantos estimadores para los parámetros como se quiera. (Se puede calcular el valor esperado)

En lo que sigue se denotará como parámetro θ\theta y estimador del parámetro θ^\hat{\theta}

  • En la Población tenemos parámetros, media ( μ\mu ), varianza ( σ2\sigma^2 ), desviación estándar ( σ\sigma ) y proporción ( pp ).

  • En la muestra tenemos estadísticos, media muestral ( X\overline{X} ), varianza muestral ( s2s^2 ), desviación estándar ( ss ) y proporción ( p^\hat{p} ).

  • Un ESTIMADOR de los PARÁMETROS de la población son los ESTADISTICOS de una muestra. Se dice que el valor esperado del estadístico muestral ( E[θ^]E[\hat{\theta}] ) es el parámetro poblacional ( θ\theta ). Es decir: E[X]=μE[\overline{X}] = \mu , E[s2]=σ2E[s^2] = \sigma^2

Lo anterior implica lo siguiente:

E[X±Y]=E[X]+E[Y] E[X \pm Y] = E[X] + E[Y]

E[XY]=E[X]E[Y] E[X \cdot Y] = E[X] \cdot E[Y]

E[kX]=kE[X] E[k \cdot X] = k \cdot E[X]

Para la varianza, el mejor estimador es la cuasivarianza. Así como se encuentran valores esperados, se puede encontrar la varianza. El que tenga una variable pequeña es el mejor estimador.

V[X±Y]=V[X]+V[Y] V[X \pm Y] = V[X] + V[Y]

V[kX]=k2V[X] V[k \cdot X] = k^2 \cdot V[X]

La varianza es la diferencia (qué tan cerca) o variabilidad de las muestras alrededor de la media.

V[k]=0 V[k] = 0

Propiedades de los estimadores

  • Un estimador es insesgado, si se verifica que E[θ^]=θE[\hat{\theta}] = \theta .
  • En caso de no ser insesgado, es sesgado y este está dado por E[θ^]θE[\hat{\theta}] - \theta .
  • Eficiencia es el estimador con menos varianza: Sean θ1^\hat{\theta_1} y θ2^\hat{\theta_2} dos estimadores insesgados de θ\theta . Diremos que θ1^\hat{\theta_1} es más eficiente que θ2^\hat{\theta_2} si se verifica que V(θ1^)<V(θ2^)V( \hat{\theta_1} ) < V( \hat{\theta_2} )
  • Error cuadrático medio: ECM(θ^)=V(θ^)+sesgo(θ^)2ECM( \hat{\theta} ) = V( \hat{\theta} ) + sesgo(\hat{\theta})^2

Ejemplo

Verificar si los siguientes estimadores son insesgados. Si tiene por media poblacional μ\mu y desviación típica σ\sigma . ¿Cuál es más eficiente?

θ1^=0.5x1+0.15x2+0.25x3+0.1x4 \hat{\theta_1} = 0.5 \cdot x_1 + 0.15 \cdot x_2 + 0.25 \cdot x_3 + 0.1 \cdot x_4

E[θ1^]=E[0.5x1+0.15x2+0.25x3+0.1x4]=0.5E[x1]+0.15E[x2]+0.25E[x3]+0.1E[x4]=0.5μ+0.15μ+0.25μ+0.1μ=(0.5+0.15+0.25+0.1)μ=μE[\hat{\theta_1}] = E[ 0.5 \cdot x_1 + 0.15 \cdot x_2 + 0.25 \cdot x_3 + 0.1 \cdot x_4 ] = 0.5 \cdot E[ x_1 ] + 0.15 \cdot E[ x_2 ] + 0.25 \cdot E [ x_3 ] + 0.1 \cdot E [ x_4 ] = 0.5 \cdot \mu + 0.15 \cdot \mu + 0.25 \cdot \mu + 0.1 \cdot \mu = (0.5 + 0.15 + 0.25 + 0.1) \cdot \mu = \mu

V[θ1^]=V[0.5x1+0.15x2+0.25x3+0.1x4]=0.52V[x1]+0.152V[x2]+0.252V[x3]+0.12V[x4]=0.52σ+0.152σ+0.252σ+0.12σ=(0.52+0.152+0.252+0.12)σ=0.345σV[\hat{\theta_1}] = V[ 0.5 \cdot x_1 + 0.15 \cdot x_2 + 0.25 \cdot x_3 + 0.1 \cdot x_4 ] = 0.5^2 \cdot V[ x_1 ] + 0.15^2 \cdot V[ x_2 ] + 0.25^2 \cdot V[ x_3 ] + 0.1^2 \cdot V[ x_4 ] = 0.5^2 \cdot \sigma + 0.15^2 \cdot \sigma + 0.25^2 \cdot \sigma + 0.1^2 \cdot \sigma = (0.5^2 + 0.15^2 + 0.25^2 + 0.1^2) \cdot \sigma = 0.345 \cdot \sigma

θ2^=x1+2x2+3x36 \hat{\theta_2} = \frac{x_1 + 2 \cdot x_2 + 3 \cdot x_3}{6}

E[θ2^]=16E[x1+2x2+3x3]=16(E[x1]+2E[x2]+3E[x3])=16(μ+2μ+3μ)=66μ=μE[\hat{\theta_2}] = \frac{1}{6} \cdot E[x_1 + 2 \cdot x_2 + 3 \cdot x_3] = \frac{1}{6} \cdot (E[x_1] + 2 \cdot E[x_2] + 3 \cdot E[x_3]) = \frac{1}{6} \cdot (\mu + 2 \cdot \mu + 3 \cdot \mu) = \frac{6}{6} \cdot \mu = \mu

V[θ2^]=162V[x1+2x2+3x3]=136(V[x1]+4V[x2]+9V[x3])=136(1+4+9)σ=1436σ=0.3889σV[\hat{\theta_2}] = \frac{1}{6^2} \cdot V[x_1 + 2 \cdot x_2 + 3 \cdot x_3] = \frac{1}{36} \cdot (V[x_1] + 4 \cdot V[x_2] + 9 \cdot V[x_3]) = \frac{1}{36} \cdot (1 + 4 + 9) \cdot \sigma = \frac{14}{36} \cdot \cdot \sigma = 0.3889 \cdot \sigma

θ3^=x34x23=4x2x33 \hat{\theta_3} = \frac{x_3 - 4 \cdot x_2}{-3} = \frac{4 \cdot x_2 - x_3}{3}

E[θ2^]=13E[4x2x3]=13(4E[x2]E[x3])=13(3μ)=μE[\hat{\theta_2}] = \frac{1}{3} \cdot E[4 \cdot x_2 - x_3] = \frac{1}{3} \cdot (4 \cdot E[x_2] - E[x_3]) = \frac{1}{3} \cdot (3 \mu) = \mu

V[θ2^]=132V[4x2x3]=19(16V[x2]+V[x3])=179σ=1.8889σV[\hat{\theta_2}] = \frac{1}{3^2} \cdot V[4 \cdot x_2 - x_3] = \frac{1}{9} \cdot (16 \cdot V[x_2] + V[x_3]) = \frac{17}{9} \cdot \sigma = 1.8889 \cdot \sigma

El estimador más eficiente es

θ1^=0.5x1+0.15x2+0.25x3+0.1x4 \hat{\theta_1} = 0.5 \cdot x_1 + 0.15 \cdot x_2 + 0.25 \cdot x_3 + 0.1 \cdot x_4

E[θ1^]=μE[\hat{\theta_1}] = \mu

V[θ1^]=0.345σV[\hat{\theta_1}] = 0.345 \cdot \sigma

Estimación por intervalo de confianza

Estimación intervalo de confianza para la varianza

Para dicha estimación debe ser conocido el valor de la varianza o desviación estándar o típica (el estadístico); es decir s2s^2 donde:

σ2((n1)s2χα/2,n12,  (n1)s2χ1α/2,n12) \sigma^2 \in \left( \frac{(n-1)s^2}{\chi^2_{\alpha/2,\, n-1}}, \; \frac{(n-1)s^2}{\chi^2_{1-\alpha/2,\, n-1}} \right)
χα/2,n12(Chi cuadrado) \chi^2_{\alpha/2,\, n-1} \quad (\text{Chi cuadrado})

Estimación Intervalo de confianza para la varianza de dos poblaciones

Para dicha estimación debge ser conocido el valor de las varianza o desviaciones estándar o típica (el estadístico); es decir: s12s_1^2 , s22s_2^2 donde

Tamaño de la muestra

Se considera el error como

Contrastes de hipótesis

  • Hipótesis estadística Es una afirmación sobre los valores de los parámetros de una població o proceso, que puede probarse a partir de la información contenida en una muestra.
  • Hipótesis nula: H0H_0 Es considerada como la que hace referencia al valor del parámetro que se quiere probar como verdadero.
  • Hipótesis alternativa: H1H_1 Corresponde a la falsedad o estableciendo que el parámetro puede ser mayor, menor o igual, de acuerdo con la propuesta hecha en la hipótesis nula.
  • Estadístico de prueba o contraste Número calculado a partir de los datos y de H0H_0 , cuya magnitud permite discernir si se rechaza o no la hipótesis nula.
  • Región de rechazo Es el conjunto de posibles valores del estadístico de prueba que llevan a rechazar la hipótesis nula.
  • Nivel de significación α\alpha es el recíproco de la confianza, el cual debe ser fijado antes de escoger la muestra.
  • Observación Los tests de hipótesis pueden ser unilaterales o bilaterales.

Para una sola variable, si la varianza poblacional es conocida, entonces el estadístico de prueba o contraste:

Región de rechazo:


Para dos poblaciones, si las varianzas poblacionales son conocidas, entonces el estadístico de prueba o constraste:

La región de rechazo es

Aquí se usa distribución normal.


Para dos muestras, si las varianzas poblacionales son desconocidas, entonces el estadístico de prueba o constraste:

La región de rechazo es


Si las varianzas poblacionales NO son conocidas, entonces el estadístico de prueba o contraste es

Y la región de rechazo será

Aquí se usa t-student.


Bibliografía

  • Curso "Herramientas de Estadística", Master Universitario en Inteligencia Artificial.

Top comments (0)