Distribuciones de probabilidad




Alumno(a): alma Karina Sánchez Domínguez



Estadística
Distribuciones de probabilidad



Distribución de Bernoulli

Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no,
siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso). En realidad
no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos
modalidades, es por ello que el hecho de llamar éxito o fracaso a los posibles resultados de las
pruebas obedece más una tradición literaria o histórica, en el estudio de las va, que a la situación
real que pueda derivarse del resultado. Podríamos por tanto definir este experimento mediante
una v.a. discreta X que toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que
se denota




µx= (0) (1-p)+ (1) (p)

=p


o     =(0-p) (1-p)+(1-p)(p)


=p(1-p)




µx= p                                        =p(1-p)
Binomial

En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el
número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una
probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos
resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro,
fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se
repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado
número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p,
se escribe:
Distribución Poisson

la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una
frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos
durante cierto periodo de tiempo.



La función de masa de la distribución de Poisson es




donde

        k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de
        que el evento suceda precisamente k veces).
        λ es un parámetro positivo que representa el número de veces que se espera que ocurra
        el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en
        promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k
        veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de
        Poisson con λ = 10×4 = 40.
        e es la base de los logaritmos naturales (e = 2,71828 ...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son
iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes
tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de
Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de
particiones de tamaño n.

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el
mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando
λ es un entero positivo, las modas son λ y λ − 1.

La función generadora de momentos de la distribución de Poisson con valor esperado λ es
Distribución normal




Se le llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las
distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada
en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un
determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de de una
función gaussiana.




Ejemplo de alguna grafica seria:
La Distribución T de Student

En la generalidad de los casos, no disponemos de la desviación standard de la población, sino de
una estimación calculada a partir de una muestra extraída de la misma y por lo tanto no podemos
calcular Z.
En estos casos calculamos el estadístico T:

Distribuciones de probabilidad

  • 1.
    Distribuciones de probabilidad Alumno(a):alma Karina Sánchez Domínguez Estadística
  • 2.
    Distribuciones de probabilidad Distribuciónde Bernoulli Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos modalidades, es por ello que el hecho de llamar éxito o fracaso a los posibles resultados de las pruebas obedece más una tradición literaria o histórica, en el estudio de las va, que a la situación real que pueda derivarse del resultado. Podríamos por tanto definir este experimento mediante una v.a. discreta X que toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se denota µx= (0) (1-p)+ (1) (p) =p o =(0-p) (1-p)+(1-p)(p) =p(1-p) µx= p =p(1-p)
  • 3.
    Binomial En estadística, ladistribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli. Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:
  • 4.
    Distribución Poisson la distribuciónde Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo. La función de masa de la distribución de Poisson es donde k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40. e es la base de los logaritmos naturales (e = 2,71828 ...) Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamaño n. La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1. La función generadora de momentos de la distribución de Poisson con valor esperado λ es
  • 5.
    Distribución normal Se lellama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de de una función gaussiana. Ejemplo de alguna grafica seria:
  • 6.
    La Distribución Tde Student En la generalidad de los casos, no disponemos de la desviación standard de la población, sino de una estimación calculada a partir de una muestra extraída de la misma y por lo tanto no podemos calcular Z. En estos casos calculamos el estadístico T: