HipotezyParametrycznex

Download Report

Transcript HipotezyParametrycznex

Slide 1

Hipotezy statystyczne
Definicja, sformułowanie i weryfikacja

Autor: Janusz Górczyński

1


Slide 2

Definicja
Hipotezą statystyczną jest dowolne zdanie orzekające
o parametrach populacji lub jej rozkładzie.
Prawdziwość hipotezy jest oceniana na podstawie
wyników próby losowej.
Hipoteza statystyczna może orzekać o parametrach
populacji i takie hipotezy nazywamy hipotezami
parametrycznymi.
Pozostałe hipotezy statystyczne (te, które nie dotyczą
parametrów), nazywamy hipotezami
nieparametrycznymi.
.

2


Slide 3

Hipotezy parametryczne
Przykład 1.
Interesuje nas wydajność pracy pracowników
pewnego zakładu produkcyjnego. Zakładamy, że
modelem tej cechy może być zmienna losowa
normalna o nieznanych parametrach m i .
Przypuszczamy, że średnia wydajność (w populacji)
jest równa znanej wartości m0. Tym samym
sformułowaliśmy hipotezę statystyczną dotyczącą
parametru m:

H 0 : m  m0
3


Slide 4

Hipotezy nieparametryczne
Przykład 2.
W poprzednim przykładzie założyliśmy, że
interesująca nas cecha (wydajność pracy
pracowników) może być modelowana zmienną
losową normalną. Możemy więc sformułować
hipotezę dotyczącą rozkładu tej cechy:

H 0 : X ~ N ( m;  )

4


Slide 5

Weryfikacja hipotezy
Hipoteza statystyczna musi być na podstawie
wyników próby zweryfikowana.
Testem statystycznym nazywamy regułę
postępowania, która każdej możliwej próbie
przyporządkowuje decyzję odrzucenia hipotezy
lub nie daje podstaw do podjęcia takiej decyzji.
Proces weryfikacji hipotezy statystycznej obejmuje
z jednej strony jej sformułowanie (jako tzw.
hipotezy zerowej), z drugiej strony musimy
sformułować hipotezę alternatywną oznaczaną z
reguły symbolem H1.
5


Slide 6

Weryfikacja hipotez statystycznych
Rozpatrzmy hipotezę parametryczną z przykładu 1,
gdzie wypowiadaliśmy się o możliwej wartości
średniej generalnej. Odpowiednią hipotezę zerową
i alternatywną możemy zapisać jako:

H 0 : m  m0

H 1: m  m0

Na podstawie wyników próby losowej chcemy
teraz skonstruować taki test statystyczny, który
da możliwość podjęcia decyzji co do prawdziwości
hipotezy zerowej.
6


Slide 7

Weryfikacja hipotez statystycznych
Przy konstrukcji testu skorzystamy z faktu, że
statystyka:
xm
t

0

sx

ma, przy prawdziwości H0:m=m0, rozkład t-Studenta z
liczbą stopni swobody v = n - 1. Załóżmy, że H0:m=m0
jest prawdziwa. Jeżeli tak, to m  m0 = 0 oraz x  m 0  0
(ponieważ x  m ).
Tym samym wartość statystyki t powinna niewiele
odbiegać od zera (jeżeli H0 jest prawdziwa).
7


Slide 8

Weryfikacja hipotez statystycznych
W sytuacji, gdy wartości statystyki t będą odbiegać od
zera dość znacznie, to powinniśmy zacząć wątpić w
prawdziwość naszego założenia (że m = m0).
Pozostaje do rozstrzygnięcia kwestia, kiedy można
uznać, że wyniki naszej próby świadczą przeciwko
prawdziwości hipotezy zerowej. Wykorzystamy do
x  m0
tego celu fakt, że dla każdego
t

sx

znajdziemy taką wartość t  , v , dla której spełniona
jest równość
P ( t  t  ,v )  
8


Slide 9

Weryfikacja hipotez statystycznych
Tym samym wartość t  , v wyznacza nam obszar
krytyczny dla naszej hipotezy H0:
(  ;  t  ,v )  ( t  , v ;   )

Jeżeli wartość empiryczna statystyki t znajdzie się
w tym obszarze, to H0 musimy odrzucić jako zbyt
mało prawdopodobną.
Obszar (  t  ,v ; t  ,v ) jest obszarem dopuszczalnym dla
H0 , mówimy, że wyniki naszej próby nie przeczą
hipotezie zerowej. Proszę zauważyć, że nie jest to
równoważne zdaniu, że hipoteza zerowa jest
prawdziwa! (my jej tylko nie możemy odrzucić).
9


Slide 10

Błędy weryfikacji
Wyniki próby mogą być takie, że uznamy za
fałszywą i odrzucimy hipotezę H0, która w
rzeczywistości jest prawdziwa. Jest to tzw. błąd I
rodzaju, a prawdopodobieństwo jego popełnienia
jest równe .
Możliwa jest także sytuacja odwrotna: wyniki
próby nie pozwoliły na odrzucenie H0 , która w
rzeczywistości była fałszywa. Popełniamy wtedy
tzw. błąd II rodzaju, a jego prawdopodobieństwo
jest równe .
Zwiększenie
liczebności
próby
powoduje
zmniejszenie prawdopodobieństwa .
10


Slide 11

Błędy weryfikacji cd.
Brak podstaw do
odrzucenia H0

1

P-stwo 
Błąd I rodzaju

P-stwo 
Błąd II rodzaju

P-stwo 1  
Moc testu

H0 prawdziwa P-stwo
H0 fałszywa

Odrzucenie H0

11


Slide 12

Hipoteza o średniej generalnej m
Niech zmienna losowa X ma rozkład normalny o
nieznanych parametrach m i .
Na podstawie n-elementowej próby losowej chcemy
zweryfikować hipotezę zerową
H 0 : m  m 0 wobec alternatywy H 1 : m  m 0

Procedura testowa:
1. Ustalamy poziom istotności 
2. Obliczamy wartość empiryczną t-Studenta
t emp . 

x  m0
Sx

3. Odczytujemy z tablic statystycznych wartość
krytyczną statystyki t  ,v  n 1
12


Slide 13

Hipoteza o średniej generalnej m
Wnioskowanie:
Jeżeli t em p .  t  ,v ,
to H0 odrzucamy na korzyść H1.
Jeżeli t em p .  t  ,v ,
to nie mamy podstaw do odrzucenia H0.

13


Slide 14

Hipoteza o średniej generalnej m
Hipoteza H 0 : m  m 0 może być także weryfikowana
przy inaczej skonstruowanej hipotezie alternatywnej
( H 1 : m  m 0 lub H 1 : m  m 0 ).
Procedura weryfikacyjna przebiega podobnie, zmienia
się tylko obszar krytyczny:
Hipoteza zerowa

Alternatywa (jednostronna)

H 0 : m  m0

H 1: m  m0

Obszar krytyczny

(  ,  t 2  , v )

H0 odrzucamy, jeżeli:

t em p   t 2  , v
14

H 1: m  m0

( t 2  ,v ,   )

t em p  t 2  , v


Slide 15

Hipoteza o równości dwóch
średnich generalnych
Niech X 1 ~ N ( m1 ;  ) oraz X 2 ~ N ( m 2 ;  ) . Na
podstawie odpowiednich prób losowych chcemy
zweryfikować hipotezę: H 0 : m1  m 2 wobec H 1 : m1
Procedura testowa:
1. Ustalamy poziom istotności 
2. Obliczamy wartość empiryczną statystyki
t-Studenta
t em p . 

x1  x 2
sr

3. Odczytujemy z tablic statystycznych wartość
krytyczną statystyki t  , v  n  n  2
1
2
15

 m2


Slide 16

Hipoteza o równości dwóch
średnich generalnych
Wnioskowanie o prawdziwości
H 0 : m1  m 2

Jeżeli

wobec

H 1 : m1  m 2

t em p .  t  , v ,

to H0 odrzucamy jako zbyt mało prawdopodobną.

Jeżeli

t em p .  t  , v ,

to nie mamy podstaw do odrzucenia H0.
16


Slide 17

Hipoteza o różnicy średnich generalnych
Niech X 1 ~ N ( m1 ;  ) oraz X 2 ~ N ( m 2 ;  ) . Na
podstawie odpowiednich prób losowych chcemy
zweryfikować hipotezę: H 0 : m1  m 2
Hipoteza alternatywna może być jednostronna
( H 1 : m1  m 2 lub H 1 : m1  m 2 )
Procedura testowa przebiega podobnie jak poprzednio,
zmieniają się jedynie obszary krytyczne.
Hipoteza zerowa
Hipotezy alternatywne
H 0 : m1  m 2

Obszar krytyczny

H 1 : m1  m 2

H 1 : m1  m 2

(  ,  t 2  , v )

( t 2  ,v ,   )

17


Slide 18

Inny sposób weryfikacji hipotezy o
równości średnich. NIR
Hipoteza H 0 : m1  m 2 przy
odrzucana wtedy, gdy:

H 1 : m1  m 2

jest

t em p .  t  , v
x1  x 2
sr

 t  ,v 

x1  x 2
sr

 t  ,v  x 1  x 2  t  ,v sr

Iloczyn t  ,v sr nazywamy najmniejszą istotną
różnicą (least significant difference) i oznaczamy
skrótem NIR (LSD).
18


Slide 19

Najmniejsza istotna różnica
Hipotezę H 0 : m1  m 2 przy alternatywie
będziemy odrzucać wtedy, gdy:

H 1 : m1  m 2

x 1  x 2  N IR
NIR (LSD) jest taką różnicą wartości danej cechy w
dwóch populacjach, którą jeszcze można uznać za
losową (przypadkową).
Różnice większe od NIR są już spowodowane
własnościami danych populacji (nie są przypadkowe).

19


Slide 20

Test istotności dla frakcji
Niech zmienna X ma w populacji rozkład zerojedynkowy z prawdopodobieństwem sukcesu p.
Parametr ten można interpretować jako wskaźnik
struktury w populacji. Interesuje nas weryfikacja
hipotezy zerowej: H 0 : p  p 0 wobec H 1 : p  p 0
Procedura weryfikacyjna wykorzystuje rozkład
N(0, 1):
p  p 0
k
z em p . 

1. Obliczamy
p (1  p ) gdzie p 
n

n

2. H0 odrzucamy, jeżeli

z em p .  z 

20


Slide 21

Test istotności dla różnicy frakcji
Rozważmy dwie zmienne zero-jedynkowe z
parametrami odpowiednio p1 i p2. Interesuje nas
weryfikacja H 0 : p1  p 2 przy alternatywie H 1 : p1
Niech

p 1 

k1
n1

oraz

p 2 

k2
n2

 p2

oznaczają odpowiednio

frakcje elementów wyróżnionych w obu próbach.
Wiadomo, że

Jeżeli


p (1  p 1 )
p 2 (1  p 2 ) 
p 1  p 2 ~ N  p 1  p 2 ; 1


n1
n2



H 0 : p1  p 2  p

jest prawdziwa, to


 1
1 
p 1  p 2 ~ N  0 ; p (1  p ) 


 n1 n 2  


gdzie p oznacza wspólną wartość dla obu zmiennych.
21


Slide 22

Test istotności dla różnicy frakcji
Jako ocenę wspólnego prawdopodobieństwa sukcesu
dla obu zmiennych przyjmuje się wyrażenie:
p 

k1  k 2
n1  n 2

Ostatecznie statystyka

z em p 

p 1  p 2
 1
1
p (1  p ) 


 n1 n 2 

ma rozkład N(0, 1).
Hipotezę H 0 : p1  p 2 przy H 1 : p1
odrzucamy, jeżeli z em p .  z

22

 p2


Slide 23

Test istotności dla wariancji
Niech X ~ N ( m ;  2 ) , interesuje nas weryfikacja
hipotezy H 0 :  2   20 przy alternatywie H 1 :  2   20
W praktyce nie formułuje się H1 jako dwustronnej czy
lewostronnej, co wynika z faktu, że duża wariancja jest
niekorzystna.
Weryfikację hipotezy zerowej przeprowadzamy w
oparciu o n-elementową próbę wykorzystując fakt, że
statystyka

( n  1) s



2

2

ma rozkład 

swobody v = n – 1.

23

2

z liczbą stopni


Slide 24

Test istotności dla wariancji
Jeżeli prawdziwa jest H0, to statystyka
ma rozkład



2

 em p 

0

z liczbą stopni swobody v = n - 1.

Wnioskowanie:
Jeżeli  2em p   2 , v  n  1 ,
to H0 odrzucamy na korzyść H1.
 em p    , v  n  1

Jeżeli
,
to nie mamy podstaw do odrzucenia H0 .
2

2

( n  1) s

2

24

2

2


Slide 25

Test istotności dla dwóch wariancji
Niech X ~ N ( m ;  ) oraz X 2 ~ N ( m. 2 ;  2 )
Na podstawie odpowiednich prób losowych chcemy
zweryfikować H 0 :  12   22 przy alternatywie H 1 :  12   22
1

Statystyka

1

1

2

F 

2

s1

s2

1

2

2

2

ma rozkład Fishera-Snedecora z liczbami stopni
swobody u  n1  1 oraz v  n 2  1
.
.

25


Slide 26

Test istotności dla dwóch wariancji
H 0 : 1   2

Jeżeli
statystyka

2

2

F 

jest prawdziwa, to również
2
1
2
2

s
s

ma rozkład Fishera-Snedecora z liczbami stopni
swobody u  n1  1 oraz v  n 2  1
Z uwagi na konstrukcję tablic statystycznych, które
zawierają wartości tylko dla prawostronnego
obszaru krytycznego, wartość empiryczną statystyki
F budujemy tak, aby była większa od 1 (w liczniku
umieszczamy większą wariancję z próby).
26


Slide 27

Test istotności dla dwóch wariancji
Wnioskowanie:
1. Obliczamy wartość empiryczną statystyki
2

Fem p 

s1

2

s2

2. Dla ustalonego  odczytujemy z tablic wartość
krytyczną F ,u ,v
gdzie u i v są odpowiednio
liczbami stopni swobody dla średnich kwadratów
w liczniku i mianowniku.
3. Jeżeli Fem p  F ,u ,v , to H 0 :  12   22 odrzucamy na
2
2
korzyść H 1 :  1   2
27