Transcript Descarga

UNIVERSIDAD NACIONAL EXPERIMENTAL DEL TACHIRA
DEPARTAMENTO DE MATEMATICA Y FISICA
ESTADISTICA I
Integrantes:
Buitrago Anyeli
CI 18565723
Gallardo Ruth
CI 17677976
García Alisson
CI 18588748
Hernandez Leonardo
CI 18991061
Martinez Maria de los A. CI 19359425
Rivera Luis
CI 17812015
Profesor:
Enrique Darghan
San Cristóbal – Estado Tachira
Se denomina distribución discreta a aquella cuya
función de probabilidad sólo toma valores positivos
en un conjunto de valores de X finito o infinito
numerable
Entre las mas importantes tenemos:
Es una distribución de probabilidad que mide el número de
éxitos en una secuencia de n ensayos independientes con una
probabilidad fija p de ocurrencia de éxito y una probabilidad de
fracaso, con una probabilidad q = 1 – p, entre los ensayos. Las
probabilidades de ambas posibilidades han de ser constantes en
todos los experimentos
Se designa por X a la variable que mide el número de éxitos que
se han producido en los n experimentos, la cual sigue una
distribución binomial de parámetros n y p, se escribe:
Y su función de probabilidad es:
Donde:
Siendo
las combinaciones de n en x
La Distribución Binomial posee como propiedades características:
Esperanza:
Demostración: 𝑃 𝑋 =
𝑛 π‘₯
𝑃 1βˆ’π‘
π‘₯
π‘›βˆ’π‘₯
=
𝑛
π‘₯=0 π‘₯𝑃
𝑋
Relaciones con otras variables aleatorias:
Si n tiende a infinito y p es tal que producto entre ambos
parámetros tiende a Ξ», entonces la distribución binomial
tiende a una distribución de Poisson.
se cumple que cuando n es muy grande nβ‰₯ 30, la distribución
binomial puede aproximarse mediante la distribución normal
Aplicaciones:
Algunas situaciones en las cuales se utiliza la distribución
binomial se plantean a
continuación:
♦ Se desarrolla una nueva variedad de maíz en una estación
agrícola experimental.
♦ También se usan en lanzamiento de monedas(ver cuantas
veces puede caer la cara de una moneda),
♦ Determinar el sexo en los nacimientos
♦ En la industria probabilidad de que se dañe una maquina
probabilidad de que un producto sea bueno o malo
Esta distribución, toma valor 1 para la probabilidad de éxito (p)
y valor 0 para la probabilidad de fracaso (q = 1 βˆ’ p).
Si X es una variable aleatoria que mide "número de éxitos", y
se realiza un único experimento con dos posibles resultados
(éxito o fracaso), se dice que la variable aleatoria X se
distribuye como una Bernoulli de parámetro p.
La Distribución de Bernoulli posee las siguientes propiedades:
♦ Esperanza: E(X) = p
Demostración: E(X) = 1.p + 0. (1-p)= p
♦ Varianza: Var(X) = p.q
Demostración: Var(X) = E [(X – E(X))2 ]
= (0 - p)2 q + (1-p)2 p
= 𝑝2 q + π‘ž 2 p
= pq(p + q) =pq.
Aplicaciones:
♦ Esta distribución mide el comportamiento de funcionalidad
de cada uno de los sistemas y maquinarias, al igual que la
producción que posee la industria mostrando la probabilidad
de rendimiento que posee la misma en cada una de las
áreas en las que desempeña sus labores, considerando
éxito que este funcionando y fracaso que no lo este.
Observándose en ciertos casos la influencia que presentan
estos factores en el éxito de la empresa que se esta
estudiando.
♦ La distribución de Bernoulli es un caso especial de la
distribución binomial
Ejercicio:
La probabilidad de que un artículo producido por una fábrica no
sea defectuoso es p = 0.6, para esta industria esto significa el
éxito Se envió un cargamento a unos almacenes. Hallar el
número esperado de artículos no defectuosos, y la varianza.
Solución:
p (de no defectuoso) = 0.6
p (de defectuoso) = 1-p =1- 0.60= 0.4 = q
E(X) = p
E(X) = 0.6
Var(X) = p.q
Var(X) = 0.6*0.4=0.24
Sea A un suceso de probabilidad P(A)= p , y sea X la variable
aleatoria que es expresa el numero de fracasos que tiene lugar
en la repeticiones independientes de prueba de Bernoulli, hasta
que ocurre A por primera vez. La variable X toma los valores 0 ,
1 , 2 , . . . . . . (Números de fracasos). Decimos que una
variable aleatoria X sigue una distribución geométrica de
parámetro p si su función de probabilidad es
π‘₯
𝑓 π‘₯ = 1βˆ’π‘
𝑝,
π‘₯ = 0 , 1, … .
La Distribución Geométrica posee las siguientes propiedades
Función Generatriz: 𝐹 𝑋 = 𝑃 𝑋 ≀ π‘₯ =
0
𝑠𝑖 π‘₯ < 0
π‘₯
𝑖=0
1βˆ’π‘
𝑖
𝑝 𝑠𝑖 β‰₯ 0
Esperanza: 𝐸 𝑋 =
Demostración:
𝐸 𝑋 =
1βˆ’π‘ƒ
𝑃
𝑑𝑔 𝑑)
𝑑𝑑
𝑑𝑔 𝑑)
𝑑𝑑
=
π‘π‘ž 𝑒 𝑑
1βˆ’ π‘ž 𝑒 𝑑 2
=
𝑑=0
π‘π‘ž
1βˆ’ π‘ž
2
=
π‘π‘ž
𝑝
1βˆ’ 𝑝
=
=
𝑝2
π‘ž
𝑝
Varianza: π‘‰π‘Žπ‘Ÿ 𝑋 =
1βˆ’π‘
𝑝2
Demostración:
𝑑2 𝑔 𝑑) π‘π‘žπ‘’ 𝑑 1 βˆ’ π‘žπ‘’ 𝑑 )2 βˆ’π‘π‘žπ‘’ 𝑑 2 1 βˆ’ π‘žπ‘’ 𝑑 βˆ’π‘žπ‘’ 𝑑 )
=
𝑑𝑑 2
1 βˆ’ π‘žπ‘’π‘‘ )4
π‘π‘žπ‘’ 𝑑 1 βˆ’ π‘žπ‘’ 𝑑 + 2π‘π‘ž 2 𝑒 2𝑑
=
1 βˆ’ π‘žπ‘’ 𝑑 )3
𝑑2 𝑔 𝑑)
π‘π‘ž 1 βˆ’ π‘ž + 2π‘π‘ž 2
𝑝2 π‘ž + 2π‘π‘ž 2
π‘π‘ž + 2π‘ž 2
𝛼2 =
=
=
=
𝑑𝑑 2
1 βˆ’ π‘ž )3
𝑝3
𝑝2
𝑑=0
Por Tanto:
π‘‰π‘Žπ‘Ÿ 𝑋 = 𝛼2 βˆ’ 𝐸 𝑋
=
2
=
π‘π‘ž+2 π‘ž2
𝑝2
βˆ’
1βˆ’π‘ 2
𝑝
=
π‘π‘ž+2 π‘ž2 βˆ’ π‘ž2
𝑝2
π‘π‘ž + π‘ž 2
1 βˆ’ π‘ž π‘ž + π‘ž2
π‘ž
1βˆ’ 𝑝
=
=
=
=
𝑝2
𝑝2
𝑝2
𝑝2
Aplicaciones:
♦ Se utiliza en la distribución de los tiempos de espera, de
manera que si los ensayos se realizan a intervalos
regulares de tiempo, esta variable aleatoria proporciona el
tiempo transcurrido hasta el primer éxito
♦ El número de hijos hasta el nacimiento de la primera niña
Ejercicio:
En una cierta cadena de producción, se sabe que en promedio
uno de cada 20 productos manufacturados es defectuoso. Cual
es la probabilidad de que al hacer un control, el cuarto
producto manufacturado seleccionado sea el primer
defectuoso.
Solución:
Sea D el suceso seleccionar un objeto defectuoso, sabemos
que P(D)= 1/20 entonces.
19
𝑃
20
3
1
= 0,0428
20
Es una distribución discreta relacionada con muestreos
aleatorios y sin reemplazo
La función de probabilidad de una variable aleatoria con
distribución hipergeométrica puede deducirse a través de
razonamientos combinatorios y es igual a:
Dónde sus parámetros son:
N es el tamaño de población
n es el tamaño de la muestra extraída,
d es el número de elementos en la población original que
pertenecen a la categoría deseada y
x es el número de elementos en la muestra que pertenecen
a dicha categoría
La Distribución Hipergeométrica posee las siguientes
propiedades
Sabemos que
Esperanza: 𝑬 𝑿 = np
Demostración: 𝐸 𝑋 =
π‘₯𝑃
𝑋=
Aplicaciones:
♦ se aplica con cierta frecuencia en el control estadístico de
calidad de una fabricación en serie. Así pues, es
especialmente útil en todos aquellos casos en los que se
extraigan muestras o se realizan experiencias repetidas sin
devolución del elemento extraído o sin retornar a la situación
experimental inicial,.
♦ modeliza situaciones en las que se repite un número
determinado de veces una prueba dicotómica de manera que
con cada sucesivo resultado se ve alterada la probabilidad de
obtener en la siguiente prueba uno u otro resultado.
♦ Es una distribución .fundamental en el estudio de muestras
pequeñas de poblaciones .pequeñas y en el cálculo de
probabilidades de, juegos de azar y tiene grandes
aplicaciones en el control de calidad en otros procesos
experimentales en los que no es posible retornar a la situación
de partida.
Nota:
La distribución Hipergeométrica puede derivarse de un proceso
experimental puro o de Bernouilli
la varianza de la Hipergeométrica se aproximaba a la de la
binomial debido al llamado coeficiente de exhaustividad o Factor
Corrector de Poblaciones Finitas (F.C.P.F.)
Ejercicio:
La producción diaria de una ensambladora es de 52 carros, de
los cuales 26 tienen fallas. Si se analiza 5 de ellos cual es la
probabilidad de conseguir 3 con falla.
26 tiene falla
N= 52 carros
26 no tienen falla
3 con fallas
n=5
2 sin fallas
P(3 con fallas)
X= numero de carros con fallas
𝑃 𝑋 =
26 26
3
2
52
5
= 0,325 = 33% de cada 100 de un lote de 52 con
muestra de 5 encontraremos 3 con fallas
Expresa la probabilidad de un número x de eventos ocurriendo
en un tiempo fijo si estos eventos ocurren con una frecuencia
media conocida y son independientes del tiempo discurrido desde
el último evento. Es muy útil cuando el fenómeno involucrado
comprende tasas, razones.
El promedio de la distribución Poisson se deduce a partir de la
distribución binomial cuando el número de pruebas n tiende a
infinito y la probabilidad de éxito p tiende a cero, manteniéndose
constante el valor np
Sabemos que si X sigue una distribución binomial con
parámetros n, p:
Recopilando, tenemos que en las condiciones indicadas de
n ∞, p ∞ con constante e igual a , se verifica que:
La Distribución de Poisson presenta las siguientes propiedades
Esperanza:
Demostración:
Varianza:
Demostración:
Por lo tanto la varianza vale:
Aplicaciones:
♦ Una importante aplicación del proceso Poisson se
encuentra en la probabilidad de ruina de una compañía
aseguradora.
♦ En la cantidad de clientes que entran a una tienda E
♦ l número de coches que pasan por una autopista,
♦ La llegada de personas a una fila de espera,
♦ El número de llamadas que llegan a una central
telefónica,
♦ El número de errores de ortografía que uno comete al
escribir una única página
Ejemplo:
Si un banco recibe en promedio 6 cheques sin fondo por día,
¿cuáles son las probabilidades de que reciba, a) cuatro
cheques sin fondo en un día dado, b) 10 cheques sin fondos en
cualquiera de dos días consecutivos?
Solución:
a)
x = variable que nos define el número de cheques sin
fondo que llegan al banco en un día cualquiera = 0, 1, 2, 3,…
l = 6 cheques sin fondo por día
e = 2.718
b) x= variable que nos define el número de cheques sin fondo
que llegan al banco en dos días consecutivos = 0, 1, 2, 3,…
l = 6 x 2 = 12 cheques sin fondo en promedio que llegan al
banco en dos días consecutivos
Nota: l siempre debe de estar en función de x siempre o dicho
de otra forma, debe β€œhablar” de lo mismo que x.
Diremos que una variable aleatoria discreta X se distribuye
uniformente sobre n puntos X1 , . . . . . Xn si su función de
probabilidad es:
1/n para i = 1, 2 ,. . . . . n
f (xi )=P (X = xi )=
0 en otro casos
Obsérvese que la variable aleatoria toma diferentes valores pero
siempre con la misma probabilidad.
La Distribución Continua presenta las siguientes propiedades
Función De Distribución
Esperanza:
𝐸 𝑋 =
1
𝑛
𝐹 π‘₯ =𝑃 𝑋≀π‘₯ =
π‘₯𝑖 ≀π‘₯ 𝑃
𝑋 = π‘₯𝑖 )
𝑛
𝑖=1 π‘₯𝑖
Demostración
1
𝐸 𝑋 =
𝑛
𝑛
𝑛
π‘₯𝑖 . 𝑃 𝑋 = π‘₯𝑖 =
𝑖=1
𝑖=1
1
1
π‘₯𝑖 . =
𝑛
𝑛
𝑛
π‘₯𝑖
𝑖=1
1
π‘‰π‘Žπ‘Ÿ 𝑋 =
𝑛
Varianza:
𝑛
2
π‘₯𝑖 βˆ’
𝑖=1
1
𝑛
2
𝑛
π‘₯𝑖
𝑖=1
Demostración:
π‘‰π‘Žπ‘Ÿ 𝑋 = 𝐸 𝑋 2 βˆ’ 𝐸 𝑋
2
𝑛
π‘₯𝑖 2 𝑃 𝑋 = π‘₯𝑖 βˆ’
=
𝑖=1
𝑛
𝑖=1
1
π‘₯𝑖 2 . βˆ’
𝑛
1
𝑛
2
𝑛
π‘₯𝑖
𝑖=1
=
1
𝑛
𝑛
π‘₯𝑖 2 βˆ’
𝑖=1
1
𝑛
1
𝑛
2
𝑛
π‘₯𝑖
𝑖=1
2
𝑛
π‘₯𝑖
𝑖=1
Aplicaciones:
La distribución uniforme discreta es la que surge en
situaciones tales como el lanzamiento de una moneda, de un
dado o en la extracción de una bola numerada de un bombo
de la lotería. En todos estos casos, si no hay truco, existe
equiprobabilidad entre todos los sucesos elementales
posibles: dos en el caso de la moneda, seis en el del dado y n
en el caso del bombo de la lotería, siendo n el número de
bolas.
Se denomina variable continua a aquella que puede tomar
cualquiera de los infinitos valores existentes dentro de un
intervalo. En el caso de variable continua la distribución de
probabilidad es la integral de la función de densidad, por lo que
tenemos entonces que:
Entre las mas importantes tenemos:
Mejor conocida como Distribución Rectangular, la cual esta
definida en el intervalo comprendido entre a y b, para el cual se
cumple que no importando donde se inicie el sub intervalo a,
b, a´, b´. Si el ancho es igual , el área será equivalente
entonces π‘Ž, π‘Ž ´ = 𝑏´, 𝑏
Para definir la función probabilidad de la distribución uniforme
se requiere conocer previamente el valor de la ordenada,
imagen del intervalo π‘Ž, 𝑏
Entonces la función de densidad para la variable X es:
Sus únicos parámetros son a y b , ósea el inicio y el fin o limite
inferior y superior del intervalo .
La Distribución Uniforme Continua tiene por propiedades las
siguientes:
Esperanza:
𝐸 𝑋 =
Demostración:
π‘Ž+𝑏
2
+∞
𝐸 𝑋 =
π‘Ž
𝑋𝐹 𝑋 𝑑π‘₯ =
βˆ’βˆž
𝑏
demostración:
𝐸 π‘₯
2
+∞
=
𝑏
2
π‘₯ 𝑓 π‘₯ 𝑑π‘₯ =
βˆ’βˆž
𝑏
=
π‘Ž
1 𝑏 2 βˆ’ π‘Ž2 π‘Ž + 𝑏
=
2 π‘βˆ’π‘Ž
2
π‘βˆ’π‘Ž 2
12
𝑉 𝑋 =
Varianza:
1
1 π‘₯3
π‘₯
𝑑π‘₯ =
π‘βˆ’π‘Ž
π‘βˆ’π‘Ž 2
π‘Ž
1
1 π‘₯3
π‘₯
𝑑π‘₯ =
π‘βˆ’π‘Ž
π‘βˆ’π‘Ž 3
𝑏
2
Por lo tanto
π‘Ž
1 𝑏 3 βˆ’ π‘Ž3 1 2
=
= 𝑏 + π‘Žπ‘ βˆ’ π‘Ž2
3 π‘βˆ’π‘Ž
3
2
1
π‘Ž+𝑏
π‘‰π‘Žπ‘Ÿ π‘₯ = 𝐸 π‘₯ βˆ’ 𝐸 π‘₯
= 𝑏 2 + π‘Žπ‘ βˆ’ π‘Ž2 βˆ’
3
2
2
2
2
2
2
2
𝑏 + π‘Žπ‘ βˆ’ π‘Ž
π‘Ž + 2π‘Žπ‘ βˆ’ π‘Ž
𝑏 βˆ’ 2π‘Žπ‘ βˆ’ π‘Ž
π‘βˆ’π‘Ž
=
βˆ’
=
=
3
4
12
12
2
2
2
Aplicaciones:
En estadística, cuando se utiliza un p-value a modo de prueba
estadística para una hipótesis nula simple, y la distribución de la
prueba estadística es continua, entonces la prueba estadística
esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es
verdadera.
La distribución exponencial es el caso particular de la
distribución gamma en la que el parámetro  es igual a 1
La variable aleatoria  sigue una distribución exponencial de
parámetro , exp () cuando
Gam(=1,=1/)
Como consecuencia tenemos que su función densidad es
Un cálculo inmediato nos dice que si x>0,
Y su función Distribución es
La Distribución Exponencial posee las siguientes propiedades
Esperanza:
𝐸 𝑋 =
1
πœ†
demostración:
Derivando:
Derivando por segunda vez optenemos
Varianza:
Aplicaciones:
La distribución exponencial tiene aplicaciones importantes.
Por ejemplo, puede demostrarse que si una variable aleatoria
tiene distribución de Poisson con parámetro, entonces, el
tiempo de espera entre dos β€˜éxitos’ consecutivos es una
variable aleatoria con distribución exponencial y parámetro 
= 1/
Ejercicio:
La llegada de los camiones a una bodega tiene distribución
de Poisson con media de 4 por hora. Calcule la probabilidad
que el tiempo transcurrido entre la llegada de dos camiones
consecutivos sea menor a 10 minutos.
Sea
X
el tiempo transcurrido entre dos llegadas
consecutivas (horas)
Es una variable aleatoria continua con distribución
exponencial con parámetro  = 1/ = 1/4
f(x) = = e-x = 4e-4x, x>0
1/ 6
P(X<1/6) =
 4e
0
ο€­4x
dx
= 0.4866 = 48.66%
La densidad de Pareto se introduce para modelizar la
distribución del ingreso cuando ésta es fuertemente
inequitativa. La forma funcional de la densidad se presenta a
continuación
donde a > 1 y q > 0 (espacio paramétrico).
La función de distribución de Pareto puede obtenerse
mediante primitivación de la función de densidad.
La Distribución de Pareto posee las siguientes propiedades
Esperanza:
Varianza:
Aplicaciones:
♦ Una de las aplicaciones más conocidas es su uso para
análisis de ventas o comercial. Las compañías que realizan
un análisis de facturación respecto al número de clientes
constatan que, aproximadamente, el 80% de la facturación
depende del 20% de los clientes. Casi nunca se observa
una relación 80-20 exacta, pero la desproporción entre
ventas y número de clientes suele ser cierta. Con esta
información se puede decidir qué clientes son estratégicos
(hay que cuidar) y cuáles tienen menor importancia.
♦ El principio de Pareto también se utiliza para analizar el
surtido o gama de productos que vende una empresa
comercial. El 80% de la facturación proviene del 20% del
catálogo de productos. En general, el principio de Pareto
permite analizar una situación y facilitar la toma de
decisiones estratégicas trabajando con datos reales.
♦ En control de calidad
No obstante, el principio de Pareto permite utilizar
herramientas de gestión, como el diagrama de Pareto, que
se usa ampliamente en temas de control de calidad (el 80%
de los defectos radican en el 20% de los procesos). Así, de
forma relativamente sencilla, aparecen los distintos elementos
que participan en un fallo y se pueden identificar los
problemas realmente relevantes, que acarrean el mayor
porcentaje de errores.
La distribución Gompertz cambiado es la distribución de los
mayores estadístico de orden de dos variables aleatorias
independientes que se distribuyen exponencial y Gompertz con
b y los parámetros Ξ·, respectivamente. Se ha utilizado como
un modelo de adopción de la innovación. Fue propuesto por
Bemmaor (1994).
Su función densidad esta dada por
donde b> 0 es el parámetro de escala y Ξ·> 0
La función de distribución acumulada de la distribución
Gompertz desplazado es
La Distribución Gompertz posee las siguientes propiedades
Esperanza:
Ξ»(t) = k e^(b t).
Varianza:
Donde
y
Aplicaciones
Un modelo de uso frecuente en el análisis de la mortalidad y la
previsión es el modelo de Gompertz. El modelo es atractivo debido
a que la especificación matemática es consistente con las teorías
del envejecimiento.
Gompertz se puede plantear como un miembro de la familia de
modelos que tienen propiedades deseables. El estudio de la
Gompertz como miembro de la familia de modelos abre nuevas
perspectivas para el análisis y la predicción de mortalidad a causa
de la mayor flexibilidad en la representación de perfiles de
mortalidad.
La distribución gamma es una distribución de probabilidad
continua con dos parámetros k y Ξ» cuya función de densidad
para valores x> 0 es
Aquí e es el número e y Ξ“ es la función gamma. Para valores
enteros la función gamma queda como Ξ“(k) = (k βˆ’ 1)!
La Distribución Gamma tendrá a p>0, a>0 por parámetros
para este modelo.
Y posee las siguientes propiedades
Esperanza : E(X) =
Demostración
𝑝
π‘Ž
E(X) =
dg t)
dt
t=0
𝑑𝑔 𝑑)
𝑑𝑑
= βˆ’π‘ (1 -
𝑑 βˆ’π‘βˆ’1
)
π‘Ž
Entonces E(X) =
- (
𝑑𝑔 𝑑)
𝑑𝑑
1
π‘Ž
)=
𝑝
=π‘Ž
t=0
𝑝
π‘Ž
𝑑
π‘Ž
(1 - )βˆ’π‘βˆ’1
Su varianza esta dada por:
𝑝
Var(X) = 2
π‘Ž
Demostración: como
Var(X) =
𝑑 2 𝑔 𝑑)
𝑑𝑑 2
=
𝑝
π‘Ž
𝑑
π‘Ž
( p –1 ) (1 - )βˆ’π‘βˆ’2 ( =
1
)
π‘Ž
𝑝 𝑝+1)
π‘Ž2
Por lo tanto,
Var(X) = E (𝑋 2 ) – [E(X)]2 =
𝑝 𝑝+1)
π‘Ž2
βˆ’
𝑝
π‘Ž
=
𝑝
π‘Ž2
Aplicaciones:
♦ se emplea como modelo para la distribución de frecuencias
relativa del tiempo entre llegadas a un mostrador de
servicio (centros de cómputo, caja de súper mercado,
clínica hospitalaria, etc.).
♦ tambiénse utiliza como modelo para la duración de equipos
o productos industriales cuando la probabilidad de que un
componente viejo opere por lo menos t unidades de tiempo
adicionales, dado que esta funcionando ahora.
Ejercicio:
El tiempo en horas que semanalmente requiere una máquina
para mantenimiento es una variable aleatoria con distribución
gamma con parámetros =3, =2
a) Encuentre la probabilidad que en alguna semana el tiempo
de mantenimiento sea mayor a 8 horas
b) Si el costo de mantenimiento en dólares es C = 30X + 2X2,
siendo X el tiempo de mantenimiento, encuentre el costo
promedio de mantenimiento
Solución
f(x) =
1

  ( )
x
 ο€­1
e
ο€­x /
ο€½
1
2  (3 )
3
P(X>8) = 1 – P(Xο‚£8) = 1 Resolviendo  x
2
e
ο€­x/2
e
3ο€­1
1
16
dx
u = x2 οƒž du = 2x dx
dv = e-x/2 dx οƒž v = -2 e-x/2
= -2x2 e-x/2 + 4  x
x
ο€­x /2
dx
e
ο€­x /2
ο€½
1
16
8
x
0
2
e
ο€­x /2
dx
2
x e
ο€­x /2
x
e
ο€­x /2
haciendo cambio de variable
dx
u = x οƒž du = dx
dv = e-x/2dx οƒž v = -2 e-x/2
= -2x e-x/2 + 2  e
ο€­x/2
dx
Sustituyendo los resultados intermedios,
P(X>8) = 1 -
1
- 2x
2
e
- x/2
 4 (-2x e
- x/2
 2 (-2 e
- x/2
))

16
8
0
= 0.2381
b) E[C] = E[30X + 2X2] = 30 E[X] + 2 E[X2]
E[X] =  = 3(2) = 6
ο‚₯
ο‚₯
E
[X2]
=
2
x f ( x ) dx
=
ο€­ο‚₯
x
2
0
1
16
2
x e
ο€­x /2
dx
=
1
16
ο‚₯
x
4
e
ο€­x/2
dx
0
Sustituya y = x/2 para usar la función Gamma
=
1
16
ο‚₯
ο‚₯
 (2 y ) e
4
0
ο€­y
( 2 dy )
=
2 y e
4
ο€­y
dy
= 2(5) = 2(4!) = 48
0
Finalmente se obtiene
E[C] = 30(6) + 2(48) = 276 dólares
La distribución normal o Gaussiana es evidentemente la más
importante y la de mayor uso de todas las distribuciones
continuas de probabilidad. La apariencia gráfica es una curva
simétrica con forma de campana, que se extiende sin límite tanto
en la dirección positiva como en la negativa
Se dice que una variable aleatoria X se encuentra normalmente
distribuida si su función de densidad de probabilidad está dada
por
Las propiedades características de esta distribución son
Esperanza
=
Demostración
se suma y se resta
arreglando terminos se tiene
Dado que el valor de la
segunda integral es uno. Al
efectuar un cambio de variable
de integración en
Por lo tanto obtendremos
Varianza:
Demostración:
Aplicaciones:
Algunas aplicaciones específicas incluyen datos errores de
instrumentación, errores cometidos al medir ciertas magnitudes,
caracteres morfológicos de individuos como la estatura
Ejemplo:
En una empresa de refrescos se sabe que el consumo medio
anual de estos refrescos de los habitantes de un país es de 59
litros, con una varianza de 36. Se supone que se distribuye
según una distribución normal.
a)¿cuántos litros de refresco tendría que beber al año una
persona para pertenecer al 5% de la población que más bebe?.
Vemos en la tabla el valor de la variable tipificada es el 0,95
(95%), por lo que por arriba estaría el 5% restante.
Ese valor corresponde a Y = 1,645 (aprox.). Ahora calculamos
la variable normal X equivalente a ese valor de la normal
tipificada:
donde X=67,87
Por lo tanto, la persona tendría que beber más de 67,87 litros
de refresco al año para pertenecer a ese grupo de población
Diremos que una variable aleatoria X de tipo continuo sigue una
distribución beta de parámetros p y q, siendo p,q οƒŽ R y p,q >0 ,
si función densidad es:
donde (p,q) es la función beta y se define por
La Distribución beta presenta las siguientes Propiedades
Esperanza:
haciendo a r=1 obtendremos
Varianza:
Demostración:
Sabemos que el momento de orden viene dado por
Haciendo obtenemos la expresión del momento de orden 2:
Entonces la varianza es
Aplicaciones:
La distribución Beta se utiliza frecuentemente como modelo para
fracciones, tal como la proporción de impurezas en un producto
químico o la fracción de tiempo que una maquina está en
reparación.
Ejercicio:
En el presupuesto familiar, la porción que se dedica a salud sigue
una distribución Beta (2,2).
¿Cuál es la probabilidad de que se gaste más del 25% del
presupuesto familiar en salud?
¿Cuál será el porcentaje medio que las familias dedican a la
compra de productos y servicio de salud?
Beta (p,q)
p=2,00
q=2,00
X=0,25
Media= 0,50
Varianza=0,050
Teniendo en cuenta la distribución beta, la probabilidad de que se
gaste mas de la cuarta parte del presupuesto en salud será 0,84
y el porcentaje medio que las familias dedican a la compra de
productos y servicios de salud será el 50%.
Llamada en honor a Augustin Cauchy y Hendrik Lorentz, es una
distribución de probabilidad continua. En estadística llamada
distribución de Cauchy (a veces también distribución de
Lorentz) es una distribución de probabilidad continua cuya
función de densidad es
donde x0 es el parámetro de corrimiento que especifica la
ubicación del pico de la distribución, y Ξ³ es el parámetro de
escala que especifica el ancho medio al máximo medio.
Propiedades de esta Distribución
La distribución de Cauchy es un ejemplo de una distribución que
no tiene valor esperado, varianza o momentos definidos. Su
moda y su mediana están bien definidas y son ambas iguales a
x0.
Para comprobar que esto es cierto se calcula la función
característica de la media de la muestra:
donde es la media de la muestra. Este ejemplo sirve para
demostrar que la hipótesis de variancia finita en el teorema del
límite central no puede ser depuesto. Es también un ejemplo de
una versión más generalizada del teorema de límite central que
es característica de todas las distribuciones asimétricas alphaestables de Lévy, de las cuales es la distribución de Cauchy un
caso especial.
La distribución de Cauchy es una función de distribución
infinitamente divisible. Es también una distribución estrictamente
estable.
Es una función de distribución continua. Se suele presentar
cuando un vector bidimensional (por ejemplo, el que
representa la velocidad del viento) tiene sus dos
componentes, ortogonales, independientes y siguen una
distribución normal. Su valor absoluto seguirá entonces una
distribución de Rayleigh. Esta distribución también se puede
presentar en el caso de números complejos con componentes
real e imaginaria independientes y siguiendo una distribución
normal. Su valor absoluto sigue una distribución de Rayleigh.
La función de densidad de probabilidad es:
Posee como propiedades las siguientes:
Esperanza:
Varianza:
La distribución se denomina distribución de Student o
distribución β€œt”.Esta Distribución es simétrica con respecto del
origen, es más achatada que la normal y adopta diferentes
formas, según el número de grados de libertad.
La variable t se extiende desde -a +, y medida que aumenta
los (n -1) grados de libertad la distribución β€œt” se aproxima en
su forma a una distribución normal.
En muchos casos se seleccionan de una población normal,
muestras de tamaño pequeño n < 30 y x desconocido
El estadístico β€œt” será
𝐓=
𝐗
=
𝐘
𝐗
𝟏
𝐧
𝐧
𝟐
𝐒=𝟏 𝐗𝐒
Se dice que la variable T sigue una distribución t de student
con n grados de liberta si su función de densidad es
𝐧+𝟏
𝟐
𝐟 𝐭 =
𝟏
𝐧𝛑πšͺ
𝟐
πšͺ
𝐭𝟐
𝟏+
𝐧
Con -ο‚₯<t<+ο‚₯
βˆ’ 𝐧+𝟏 /𝟐
Como propiedades posee las siguientes:
Esperanza:
E(T)= 0
Varianza:
Aplicación:
Esta distribución desempeña un papel importante en la
inferencia estadística asociada a la teoría de muestras
pequeñas.
♦ Se usa habitualmente en el
contraste de hipótesis para la media de una población, o para
comparar las medias de dos
poblaciones, y viene definida por sus grados de libertad n.
Una variable aleatoria X sigue una distribución binomial negativa
de parámetros r y p
Esta distribución posee las siguientes propiedades
Esperanza:
E(X)=
π‘Ÿπ‘ž
𝑝
Demostración:
E(X)=
𝐝𝐠 𝐭)
𝐝𝐭
=
𝑑
𝑑𝑑
(
𝑝
)π‘Ÿ
1βˆ’π‘žπ‘’ 𝑑
t=0t=0
=
π‘Ÿπ‘π‘Ÿ π‘ž
π‘π‘Ÿ+1
==rβˆ—(
𝑝
1βˆ’π‘žπ‘’ 𝑑
)π‘Ÿβˆ’1 βˆ—
βˆ’π‘βˆ’ π‘žπ‘’ 𝑑 )
1βˆ’π‘žπ‘’ 𝑑 )2
=
t=0
=
π‘Ÿπ‘ž
𝑝
Varianza:
Var(X) =
π‘Ÿπ‘ž
𝑝2
Demostración:
E (𝑋 2 ) =
𝑑 2 𝑔 𝑑)
𝑑𝑑 2
=
𝑑
𝑑𝑑
(
π‘Ÿπ‘π‘Ÿ π‘žπ‘’ 𝑑
1βˆ’π‘žπ‘’ 𝑑 )π‘Ÿ+1
)
t=0
t=0
π‘Ÿπ‘π‘Ÿ π‘ž
1βˆ’π‘ž)π‘Ÿ+1
=
π‘Ÿπ‘π‘Ÿ π‘žπ‘’ 𝑑 1βˆ’π‘žπ‘’ 𝑑 )π‘Ÿ+1 βˆ’ π‘Ÿπ‘π‘Ÿ π‘žπ‘’ 𝑑 π‘Ÿ + 1
1βˆ’π‘žπ‘’ 𝑑 )2π‘Ÿ+2
1βˆ’π‘žπ‘’ 𝑑 )π‘Ÿ βˆ’π‘žπ‘’ 𝑑 )
t=0
=
π‘Ÿπ‘π‘Ÿ π‘žπ‘’ 𝑑 1βˆ’π‘žπ‘’ 𝑑 + π‘Ÿ π‘Ÿ + 1 π‘π‘Ÿ π‘ž2 𝑒 2𝑑
1βˆ’π‘žπ‘’ 𝑑 )π‘Ÿ+2
=
π‘Ÿπ‘π‘Ÿ π‘ž 1βˆ’π‘ž + π‘Ÿ π‘Ÿ + 1 π‘π‘Ÿ π‘ž2
1βˆ’π‘ž)π‘Ÿ+2
t=0
=
π‘Ÿπ‘π‘Ÿ π‘žπ‘+ π‘Ÿπ‘π‘Ÿ π‘ž2
π‘π‘Ÿ+2
+
π‘Ÿ 2 π‘π‘Ÿ π‘ž 2
π‘π‘Ÿ+2
=
Entonces la Variazaviene dado por:
2
2
Var (X) = E(𝑋 ) - (E(X)) =
=
π‘Ÿπ‘π‘Ÿ π‘ž+ 𝑝+π‘ž
π‘π‘Ÿ+2
=
π‘Ÿ π‘π‘Ÿ π‘ž
π‘π‘Ÿ+2
π‘Ÿπ‘π‘Ÿ+1 π‘ž+ π‘Ÿπ‘π‘Ÿ π‘ž 2
π‘π‘Ÿ+2
=
π‘Ÿπ‘ž
𝑝2
+
π‘Ÿ2 π‘ž2
𝑝2
-
π‘Ÿ2 π‘ž2
𝑝2
Aplicaciones:
♦ Las aplicaciones son muy similares en naturaleza a las de la
distribución geométrica.
♦ Si la probabilidad de tener que hacer un gran número de
intentos antes de obtener r éxitos es alta, esto podría significar
que se emplearía muchos esfuerzos en lograr el objetivo, lo
que alcanzaría altos costos en un proyecto y para el ingeniero
que esta llevando el caso.
♦ la industria si se estudia el caso de producir cierto tipo de
producto tratando de introducirlo al mercado, y no satisface las
necesidades y expectativas del consumidor y se sigue
repartiendo en repetidas ocasiones lo que, se obtendría seria
un mayor costo por parte de la empresa sin conseguir los
beneficios deseados. Y a si mismo sucede para el tema de la
maquinaria que posee dicha industria.
Ejercicio:
Si la probabilidad de que un motor expuesto a un averío es 0,40,
¿cuál es la probabilidad de que el décimo motor expuesto a este
averió sea el tercero en averiarse? En este caso, X es el número
de motores expuestos a esta situación y:
La solución es:
Dadas las variables X1, X2 , X3 , . . . . . . . ,Xn de tipo N(0,1) e
independientes, se llama variables X2 de pearson con n
grados de libertad a la variable definida por:
π‘₯ 2 = π‘₯12 + π‘₯22 + … … . . π‘₯𝑛2
Es decir, la π‘₯ 2 es suma de cuadrados de variables N(0,1)
independientes. Su función de densidad es:
1
𝑓 π‘₯ =
𝑛
22
𝑛
𝑇
2
𝑛
π‘₯ 2 βˆ’1
βˆ’π‘₯
𝑒2
0
𝑠𝑖 π‘₯ > 0
𝑠𝑖 π‘₯ ≀ 0
A la distribución de probabilidad de variable continua definida
por 𝑓 se le conoce como distribución π‘₯ 2 de Pearson con n
grados de libertad y se denota por π‘₯𝑛2 esta claro que n es el
único parámetro de esta distribución. Mirando la función de
densidad se tiene que
π‘₯𝑛2 = 𝛾
𝑛 1
,
2 2
Esta Distribución posee las siguientes propiedades
𝑬 𝑿) = 𝒏
Esperanza:
Demostracrión: sabemos que la esperanza de una distribución
𝑝
𝛾 (p, Ξ±) es πœ‡ =
. por tanto , la esperanza de una π‘₯𝑛2
= 𝛾
𝑛
2
1
,
2
𝛼
es
𝑬 𝑿 =
𝒏/𝟐
=𝒏
𝟏/𝟐
𝜌2 = π‘‰π‘Žπ‘Ÿ 𝑋 = 2𝑛
Varianza:
Demostración: sabemos que la varianza de una distribución 𝛾
𝑝
𝑛 1
(p, Ξ±) es 𝜌2 = . Por tanto, la varianza de una π‘₯𝑛2 = 𝛾
,
𝛼
2
es
π‘‰π‘Žπ‘Ÿ 𝑋 =
𝑛/2
= 2𝑛.
1/2 2
2
Aplicaciones:
La distribución de chi -cuadrado tiene muchas
aplicaciones las mas importantes son:
♦ En una sola variable: Prueba de bondad de ajuste,
ejemplo, prueba de normalidad
♦ En dos variables:
Prueba de independencia
Prueba de homogeneidad de poblaciones.
La distribución multinomial es una generalización de la distribución
binomial. En este caso, en un experimento interesa estudiar no la
ocurrencia de un único suceso o la de su contrario, sino la de
varios sucesos (tres o más).
Una variable aleatoria k-dimensional ( π‘₯1 ,…., π‘₯π‘˜ ) sigue una
distribución multinomial de parámetros n, 𝑝1 , . . . , π‘π‘˜ .
Esta distribucion tiene como propiedades las siguientes:
Esperanza: E (π‘₯𝑖 ) = n 𝑝𝑖
ð𝑔 𝑑1 ,…,π‘‘π‘˜ )
Demostración: E (π‘₯𝑖 ) =
tk=0
=
ð𝑑𝑖
ð𝑔
ð𝑑𝑖
𝑝𝑗 𝑒 𝑑𝑗 )𝑛
tk=0
= n𝑝𝑖 𝑒 𝑑𝑖 (𝑝𝑖 𝑒 𝑑𝑖 + . . +𝑝𝑖 𝑒 𝑑𝑖 +. . +π‘π‘˜ 𝑒 𝑑𝑖 )π‘›βˆ’1
= n𝑝𝑖 (𝑝1 + . . +π‘π‘˜)π‘›βˆ’1 = 𝑛 𝑝𝑖
tk=0
Varianza:
Var (π‘₯𝑖 ) = n 𝑝𝑖 1 βˆ’ 𝑝𝑖 )
Demostración:
tk=0
E
(𝑋𝑖2 )
=
ð2 𝑔 𝑑1 ,…,π‘‘π‘˜ )
ð𝑑𝑖2
=𝑛2 𝑝𝑖2 -𝑛𝑝𝑖2 + 𝑛𝑝𝑖
Var (π‘₯𝑖 ) = E (𝑋𝑖2 ) – E (π‘₯𝑖 ))2 = 𝑛2 𝑝𝑖2 - 𝑛𝑝𝑖2 + 𝑛𝑝𝑖 βˆ’ 𝑛2 𝑝𝑖2
= n 𝑝𝑖 1 βˆ’ 𝑝𝑖 )
Aplicaciones:
La distribución multinomial es similar a la distribución binomial,
con la diferencia de que en lugar de dos posibles resultados en
cada ensayo, puede haber múltiples resultados.
♦ Aplicaciones a problemas genéticos y en el estudio de
encuestas urbanas. Clasificaciones dobles de datos
categóricos.
♦ En nuestro caso con las fabricas se puede estudiar la
economía, de la misma dando como conclusiones finales
muchos resultados
Ejercicio:
Las probabilidades son de 0.40, 0.20,
0.30 y 0.10,
respectivamente, de que un delegado de una importante empresa
Venezolana llegue por aire a una cierta convención, llegue en
autobús, en automóvil o en tren. ¿Cuál es la probabilidad de que
entre 9 delegados seleccionados aleatoriamente en esta
convención a) 3 hayan llegado por aire, 3 en autobús, 1 en auto y
2 en tren?, b) 4 hayan llegado por aire, 1 en autobús y 2 en auto?,
Solución:
a) n = 9
x1= # de delegados que llegan por aire = 3
x2= # de delegados que llegan en autobús = 3
x3= # de delegados que llegan en auto = 1
x4= # de delegados que llegan en tren = 2
p1 = probabilidad de que un delegado llegue por aire = 0.40
p2 = probabilidad de que un delegado llegue en autobús = 0.20
p3 = probabilidad de que un delegado llegue en auto = 0.30
p4 = probabilidad de que un delegado llegue en tren = 0.10
p ( x1 ο€½ 3 , x 2 ο€½ 3 , x 3 ο€½ 1, x 4 ο€½ 2 ; n ο€½ 9 ) ο€½
b) n=9
x1 = 4 por aire;
x2 = 1 en autobús;
x3 = 2 en auto;
x4 = 2 en tren;
9!
( 0 . 40 ) ( 0 . 20 ) ( 0 . 30 ) ( 0 . 10 ) ο€½ 0 . 0077414
3
3
1
2
3! 3!1! 2 !
p1 = 0.40
p2 = 0.20
p3 = 0.30
p4 = 0.10
p ( x1 ο€½ 4 , x 2 ο€½ 1, x 3 ο€½ 2 , x 4 ο€½ 2 ; n ο€½ 9 ) ο€½
9!
4 !1! 2! 2 !
( 0 . 40 ) ( 0 . 20 ) ( 0 . 30 ) ( 0 . 30 ) ο€½ 0 . 15676
4
1
2
2
Una variable con distribución F es siempre positiva por lo tanto
su campo de variación es 0 " F " "
La distribución de la variable es asimétrica, pero su asimetría
disminuye cuando aumentan los grados de libertad del
numerador y denominador.
Hay una distribución F por cada par de grados de libertad.
Parámetros: Grados de libertad asociados al numerador y
denominador
Considerando dos muestras aleatorias independientes, de
tamaño n1 y n2, extraídas de una población normal, el
estadístico F será el cociente entre dos variables ji-cuadrado
divididas por sus correspondientes grados de libertad.
1
𝐹=π‘š
1
𝑛
π‘š
2
𝑖=1 𝑋𝑖
𝑛
2
𝑖=1 π‘Œπ‘–
Esta Distribución tiene como propiedades:
𝐄 𝐗 =
𝐧
π§βˆ’πŸ
Si n>2 pues en caso contrario la integral la integral que resulta
de calcular E(X) es divergente.
Varianza:
𝐧𝟐 𝟐𝐦 + 𝟐𝐧 βˆ’ πŸ’
π•πšπ« 𝐗 =
𝐦 π§βˆ’πŸ 𝟐 π§βˆ’πŸ’
Si n>4 pues en caso contrario la integral que resulta de calcular
Var(X) es divergente.
Aplicaciones:
Es una distribución de probabilidad de gran aplicación en la
inferencia estadística , fundamentalmente en la contrastación de
la igualdad de varianzas de dos poblaciones normales, y ,
fundamentalmente en el análisis de la varianza , técnica que
permite detectar la existencia o inexistencia de diferencias
significativas entre muestras diferentes y que es, por tanto
esencial , en todos aquellos casos en los que se quiere
investigar la relevancia de un factor en el desarrollo y naturaleza
de una característica.
Una variable puede ser modelada como log-normal si puede
ser considerada como un producto multiplicativo de muchos
pequeños factores independientes. Una variable aleatoria X de
tipo continuo, no negativa, sigue una distribución log-normal de
parámetros si la variable aleatoria sigue una distribución , con
. Su función densidad es
Esta Distribución posee como propiedades
Esperanza:
Demostración: Calculemos primero el momento de orden
respecto al origen de la variable , teniendo en cuenta que
Sabemos que la función generatriz de momentos para una
variable aleatoria Y de tipo
es
Por tanto el momento de orden r de X es
Que coincide con la función generatriz de momentos de Y
evaluada en :
Haciendo obtenemos la esperanza, que viene dada por
Varianza:
Demostración: Sabemos que el momento de orden viene
dado por
Por tanto, el momento de orden 2 es
Por tanto la varianza es
Ejercicio:
Los ingresos de los habitantes de un municipio siguen una
distribución logarítmica normal de parámetros 3 y 2. ¿Qué
porcentaje de individuos se encuentra entre 70 y 150?
La variable X sigue una LN(3,2), se pide entonces,
Esto es, el 10.89% de los individuos de ese municipio tienen
ingresos entre 70 y 150.
La distribución de von Mises (también conocida como la
distribución circular normal) es un proceso continuo de
distribución de probabilidad en el círculo.
Puede considerarse como una aproximación cercana a la
distribución normal envuelto , que es el análogo circular de la
distribución normal
Si x es la variable aleatoria angular, a menudo es útil pensar en la
distribución de von Mises como una distribución de los números
complejos z = e ix en lugar de los números reales x.
El von Mises función de densidad de probabilidad para el ángulo
x es igual a:
donde 0 (x) es la modificada por la función de Bessel de orden 0.
Los parámetros ΞΌ y ΞΊ 1 / son análogos a ΞΌ y Οƒ 2 (la media y la
varianza) en la distribución normal
La Distribución circular uniforme tiene como propiedades
Espeanza:
Varianza:
var (x) = 1 - Me 1 (ΞΊ) / I 0 (ΞΊ)
Aplicaciones:
La distribución von Mises matemáticamente es más manejable
que la distribución normal y se envuelve la distribución preferida
para muchos usos.
Se utiliza en aplicaciones de las estadísticas de dirección , donde
la distribución de los ángulos se encuentra que es el resultado de
la suma de muchas pequeñas desviaciones angulares
independientes, como objetivo la detección, o la orientación del
grano en un material granular
Sea una matriz
V cuadrada de orden p que sigue una
distribución de Wishart, π‘Šπ‘ƒ (n, Π“).
En el caso de la variable X a una dimensión la media muestral
π‘›πœŽ2
𝜎2
2
sigue una distribución normal: 𝑛 ∼ N (ΞΌ, 𝜎 ) y
∼ π‘‹π‘›βˆ’1
.
Sean el vector de medias empíricas y V la matriz de varianzas –
covarianzas empíricas.
1
𝑛
=
V = (x-1𝑛 𝑋 βˆ’π‘‘ )𝑑 (x-1𝑛 𝑋 βˆ’π‘‘ )
𝑖=1 π‘₯𝑖
2
𝑛
Entonces ∼ 𝑁𝑃 πœ‡,
1
𝑛
Π“ ) y V ∼ π‘Šπ‘ 𝑛 βˆ’ 1, Π“)
Demostración: se observa que
V = D- n (- ΞΌ)( - ΞΌ)𝑑 y que n(-ΞΌ)( - ΞΌ)𝑑 ∼ π‘Šπ‘ 1, Π“) y se aplica.
Sea D ∼ π‘Šπ‘ 𝑛, Π“), entonces para todo vector constante u Π„ 𝑅 𝑝 ,
se tiene:
𝑒 𝑑 𝐷𝑒
𝑒 𝑑 Г𝑒
∼ π‘₯𝑛2
Demostración como 𝑒𝑑 Du ∼ π‘Š1 𝑛, 𝑒𝑑 Г𝑒) ,
se
puede demostrar también que
𝑒𝑑 Π“βˆ’1 𝑒
𝑒𝑑 π·βˆ’1 𝑒
𝑒𝑑 𝐷𝑒
𝑒𝑑 Г𝑒
2
∼ π‘‹π‘›βˆ’π‘+1
.
∼ π‘Š1 𝑛, 1 = π‘₯𝑛2
Aplicaciones:
Es una generalización de la distribución gamma a las
dimensiones múltiples. Es cualquiera de una familia de
distribuciones de la probabilidad para no negativo-definido matrizvalorado variables al azar (β€œmatrices al azar”).
Aplica en los análisis de series de tiempo de distribuciones,
complejas se usan para describir estimadores de frecuencia,
también es útil en la física nuclear al estudiar la distribución de
espacio entre niveles de energía de núcleos a alta excitación
Estas distribuciones son de gran importancia en valoración de las
matrices de la covariación en estadística multivariante
Esta distribución se fundamenta en la siguiente propiedad: si U
es una variable uniformemente distribuida en
π‘ˆ
el intervalo [0,1], entonces la variable 𝑋 = ln
sigue una
1βˆ’π‘ˆ
distribución logística. Esta transformación, denominada logit,
se utiliza para modelar datos de respuesta binaria,
especialmente en el contexto de la regresión logística
Posee como parametros:
a: parámetro de posición, <a <
b: parámetro de escala, b > 0
Sus propiedades mas importantes son
Esperanza:
Sustituyendo:
Nótese que para la función impar
Momentos de orden superior
El n-ésimo momento central puede expresarse así en función
de la función de probabilidad inversa:
Esta integral es bien conocida[7] y puede expresarse en función
de los números de Bernouilli
Varianza:
π‘‰π‘Žπ‘Ÿ 𝑋 =
πœ‹2 2
𝑠
3
Aplicación:
♦ La distribución logística se utiliza en el estudio del crecimiento
temporal de variables, en particular, demográficas.
♦ En biología se ha aplicado, por ejemplo, para modelar el
crecimiento de células de levadura, y para representar curvas
de dosis-respuesta en bioensayos.
♦ La más conocida y generalizada aplicación de la distribución
logística en Ciencias de la Salud
distribución de Laplace es una densidad de probabilidad
continua, llamada así en honor a Pierre-Simon Laplace Es
también conocida como distribución doble exponencial
puesto que puede ser considerada como la relación las
densidades de dos distribuciones exponenciales adyacentes.
La distribución de Laplace resulta de la diferencia de dos
variables exponenciales aleatorias independientes e
idénticamente distribuidas.
Una variable aleatoria posee una distribución de Laplace(ΞΌ, b)
si su densidad de probabilidad es
Siendo ΞΌ un parámetro de localización y b > 0 un parámetro
de escala. Si ΞΌ = 0 y b = 1, la distribución de Laplace se dice
que es estándar y su restricción a los números reales
positivos es la distribución exponencial de parámetro 1/2.
La función de densidad de probabilidad de la distribución de
Laplace recuerda la de la distribución normal, pero mientras la
distribución normal se expresa en términos de la diferencia al
cuadrado (x βˆ’ ΞΌ)2, la distribución de Laplace hace intervenir la
diferencia absoluta | x βˆ’ ΞΌ | . Así la distribución de Laplace
presenta colas más gruesas que la distribución normal.
Esta distribución presenta como propiedades
Esperanza:
Varianza:
La distribución de Weibull es una distribución de
probabilidad continua. Recibe su nombre de Waloddi Weibull,
que la describió detalladamente en 1951, aunque fue
descubierta inicialmente por Fréchet (1927) y aplicada por
primera vez por Rosin y Rammler (1933) para describir la
distribucion de los tamaños de determinadas partículas.
La función de densidad de una variable aleatoria con la
distribución de Weibull x es:[
donde k > 0 es el parámetro de forma y Ξ» > 0 es el parámetro
de escala de la distribución
Si X es una variable aleatoria continua con distribución de
Weibull, entonces posee las siguientes propiedades
Esperanza:  = E[X] = -1/(1+1/)
Demostración:
ο‚₯
 = E[X] =

ο€­ο‚₯
ο‚₯
xf ( x ) dx ο€½

0
x  x
 ο€­1
e
 x

dx
Mediante la sustitución
y = x οƒž dy = x-1dx = yx-1dx = y(y/)-1/dx
se obtiene
 
ο€­1 ο‚₯


y
1/ 
ο€­y
e dy
0
Y finalmente
Varianza:
 = -1/(1+1/)
2 = V[X] = -2/[(1+2/) – ((1+1/))2]
Aplicaciones:
♦ Análisis de la supervivencia
♦ En ingeniería, para modelar procesos estocásticos
relacionados con el tiempo de fabricación y distribución de
bienes
♦ Teoría de valores extremos
♦ Para modelar la distribución de la velocidad del viento
♦ En telecomunicaciones
♦ En sistemas de radar para simular la dispersión de la
señal recibida
♦ En seguros, para modelar el tamaño de las pérdidas
La distribución Erlang es una distribución continua, que tiene un
valor positivo para todos los números reales mayores que cero,
y está dada por dos parámetros: la forma k, que es un entero
no negativo, y la tasa Ξ», que es un número real no negativo. La
distribución a veces se definen utilizando el inverso del
parámetro de tasa, la escala ΞΈ. Se utiliza la distribución Erlang
para describir el tiempo de espera hasta el suceso número k en
un proceso de Poisson. El parámetro de escala ΞΈ es
equivalente a la media de una distribución exponencial, y el
parámetro de forma k es equivalente al numero de eventos
distribuidos exponencialmente. Cuando el parámetro de forma k
es igual a 1, la distribución se reduce a la distribución
exponencial.
La función de densidad de probabilidad de la distribución Erlang
es:
ParaX >0
Esta distribución posee las siguientes propieddes
Esperanza, E(X) = k / Ξ»
Varianza, V(X) = k / Ξ»2
𝐅 𝐱
Esperanza:
∞ π€π’†βˆ’π€π’™ 𝝀𝒙)π’Œβˆ’πŸ
𝒙
𝒅𝒙 𝑬
𝟎
π’Œβˆ’πŸ !
∞ π’†βˆ’π€π’™ 𝝀𝑲 𝑿𝑲
𝒅𝒙=𝑬 𝑿
𝟎
π’Œβˆ’πŸ !
𝟏
𝟏
π‘²βˆ’πŸ ! 𝝀
𝟏
π‘²βˆ’πŸ ! 𝝀
=𝑬 𝒙 =
∞
𝒙𝑭
𝟎
𝑿) 𝒅𝒙 = 𝑬 𝒙 =
π€βˆ’πŸ !
∞ π‘Ώπ€π’†βˆ’π€π’™ π€π‘²βˆ’πŸ π‘Ώπ‘²βˆ’πŸ
𝒙 = 𝟎
𝒅𝒙
=
𝑬 𝒙 =
π’Œβˆ’πŸ !
∞ βˆ’π€π’™
𝝀
π€π’Œ
∞ βˆ’π’• 𝒕 π’Œ 𝒅𝒕
𝑲
=
𝒆
𝑿
𝒅𝒙
𝑬
𝒙
=
𝒆
)
=𝑬 𝒙 =
π‘²βˆ’πŸ ! 𝟎
π‘²βˆ’πŸ ! 𝟎
𝝀
𝝀
𝟏
𝟏
π‘²βˆ’πŸ ! 𝝀
π’Œ
𝒙 =𝝀
πšͺ 𝒏)=𝑬 𝒙 =
𝐀 π’Œ βˆ’ 𝟏 !=𝑬
π›Œπžβˆ’π›Œπ± π›Œπ± π€βˆ’πŸ
πšͺ π’Œ + 𝟏)=πšͺ 𝒏 + 𝟏 = 𝒏πšͺ 𝒏)=𝑬 𝒙 =
𝟏
π‘²βˆ’πŸ !
π’Œπšͺ π’Œ)=𝑬 𝒙 =
V
Varianza: 𝑬
π’™πŸ =
∞ 𝟐
𝒙 𝑭 𝑿) 𝒅𝒙
𝟎
∞ βˆ’π€π’™ 𝑲
𝒆
𝑬 π’™πŸ =
𝑬 π’™πŸ
=
𝟎
∞ 𝟐 π€π’†βˆ’π€π’™ 𝝀𝒙)π’Œβˆ’πŸ
∞ π’™πŸ π€π’†βˆ’π€π’™ π€π‘²βˆ’πŸ π‘Ώπ‘²βˆ’πŸ
𝒙
𝒅𝒙
=
𝒅𝒙
𝟎
𝟎
π’Œβˆ’πŸ !
π’Œβˆ’πŸ !
∞
𝑲+𝟏
π’Œ
𝑿
𝝀
βˆ’π€π’™
𝑲+𝟏
=
𝝀
π’Œβˆ’πŸ !
𝒅𝒙 =
π‘²βˆ’πŸ !
𝒆
𝑿
𝒅𝒙
𝟎
∞
π€π’Œ
𝟏 ∞ βˆ’π’• π’Œ+𝟏
π€π’Œ
π€π’Œ
βˆ’π’• π’βˆ’πŸ
𝒆
𝒕
𝒅𝒕
=
𝒆
𝒕
𝒅𝒕
=
πšͺ 𝒏)
𝑲 βˆ’ 𝟏 ! π€πŸ
𝑲 βˆ’ 𝟏 ! π€π’Œ+𝟏 𝝀 𝟎
𝑲 βˆ’ 𝟏 ! π€π’Œ 𝝀𝝀 𝟎
𝟏
𝟏
𝟏
𝑬 π’™πŸ =
πšͺ
π’Œ
+
𝟐
=
π’Œ
+
𝟐
βˆ’
𝟏
!
=
π’Œ+𝟏
𝑲 βˆ’ 𝟏 ! π€πŸ
𝑲 βˆ’ 𝟏 ! π€πŸ
𝑲 βˆ’ 𝟏 ! π€πŸ
Var(x)= E (π’™πŸ ) βˆ’ 𝑬 𝒙 )𝟐 =
π’Œ+𝟏 π’Œ
π’Œ
– 𝝀 )𝟐
π€πŸ
=
π’ŒπŸ +π’Œ
βˆ’
π€πŸ
π’ŒπŸ
π€πŸ
=
π’ŒπŸ +π’Œβˆ’π’ŒπŸ
π€πŸ
π’Œ
= π€πŸ
Aplicaciones:
♦ Los eventos que ocurren independientemente con cierta
tasa media, son modelados con procesos de Poisson. Los
tiempos de espera entre k ocurrencias del son distribuciones
de Erlang
♦ La distribución de Erlang, mide el tiempo transcurrido entre
la recepción de llamadas
♦ Puede ser usado para determinar la probabilidad de pérdida
de paquetes o el retard
♦ En el uso diario para la elaboración de modelos de tráfico
para aplicaciones tales como el diseño de centros de
llamadas.
Ejercicios:
Suponga que cierta pieza metálica se romperá después de
sufrir dos ciclos de esfuerzo. Si estos ciclos ocurren de manera
independiente a una frecuencia promedio de dos por cada 100
horas. Obtener la probabilidad de que el intervalo de tiempo se
encuentre hasta que ocurre el segundo ciclo.
a. Dentro de una desviación con respecto del tiempo promedio.
Solución:
X: Lapso que ocurre hasta que la pieza sufre el segundo ciclo
de esfuerzo, en horas.
k=2
l=2 ciclos/100 horas β†’ l=0.02
a-) P (m-s <>m+s) = P (29.29 <>
Hay esencialmente tres tipos de distribuciones de extremosTippett valor Fisher. El más común es la tipo I de distribución,
que se refieren a veces como tipos de distribuciones Gumbel o
simplemente Gumbel. Estas son las distribuciones de una
extrema estadístico de orden de una distribución
de elementos .
La distribución de Fisher-Tippett correspondiente a una
distribución valor máximo extremo (es decir, la distribución del
nivel máximo
), A veces conocido como el diario de
distribución de Weibull, con parámetro de localización
y
parámetro
de
escala
está
implementado
en Mathematica como distribución del valor extremo
[alfa, beta].
Cuenta con función de densidad de probabilidad y función de
distribución
P(X)=
entre sus propiedades tenemos:
Esperanza:
µ= E(X )= a+b
Varianza: Var(X)= 1/6 *
πœ‹ 2 𝑏2