Transcript Wieloczynnikowa analiza wariancji
Slide 1
WIELOCZYNNIKOWA ANALIZA
WARIANCJI
Slide 2
Analiza wariancji w SAS
Procedura ANOVA
ANOVA – Analysis of variance (Analiza
wariancji)
Procedura GLM
General Linear Models (Ogólne modele
liniowe)
Slide 3
Model liniowy analizy wariancji
Yij = + i + eij
gdzie:
Yij – wartość cechy j-tego obiektu pochodzącego z itej grupy;
– średnia ogólna, obliczona dla całej populacji;
i – efekt i-tej grupy, tj. różnica między średnią dla itej grupy i dla całej populacji. Można ten efekt
traktować jako przewagę i-tej grupy nad przeciętną
dla całej populacji;
eij – błąd losowy, resztowy.
Slide 4
Wartość prognozowana i reszty
Slide 5
Błąd losowy
Błąd losowy jest odchyleniem danej
obserwacji od średniej grupy, z jakiej ona
pochodzi.
Spowodowany jest zmiennością
przypadkową, a ta dotyczy konkretnej
obserwacji.
Błąd jest to taka część obserwowanej
zmienności, która nie jest wytłumaczona za
pomocą modelu.
Slide 6
Czynniki stałe w modelu (Modele stałe)
Z reguły liczba poziomów czynnika stałego
jest niewielka. W badaniach uwzględniamy z
góry określone poziomy czynnika.
Wnioski odnosimy wyłącznie do tych
poziomów czynnika, które zostały
uwzględnione w analizie.
Przykładem czynnika stałego może być: płeć,
grupa żywieniowa, rasa, rok badań, stado,
sezon doju próbnego.
Slide 7
Model stały (Model I)
Yij = + i + eij
i – stały efekt i-tej grupy, tj. różnica między
średnią dla i-tej grupy i dla całej populacji.
Można ten efekt traktować jako przewagę itej grupy nad przeciętną dla całej populacji;
Slide 8
Czynniki losowe (Modele losowe)
Liczba poziomów czynnika losowego jest zwykle
duża.
Badaniom poddany jest losowy podzbiór
wszystkich poziomów czynnika.
Wnioski odnosimy do wszystkich poziomów
czynnika, nawet tych, które nie zostały
uwzględnione w eksperymencie, np. twierdzimy,
że rasa wpływ na udział tłuszczu w mleko.
Przykładem czynnika losowego jest efekt matki,
ojca, grupy genetycznej, rasy.
Slide 9
Modele losowe (Model II)
Yij = + Ai + eij
gdzie:
Ai – losowy efekt i-tej grupy, tj. różnica między
średnią dla i-tej grupy i dla całej populacji,
Slide 10
Modele stałe a losowe
Różnica między czynnikami stałymi oraz
losowymi jest dość płynna, w dużej mierze
zależy od postawionego do rozwiązania
problemu.
Slide 11
Modele krzyżowe
Yijk= + i + j + ()ij + eijk
gdzie: ()ij – efekt interakcji pomiędzy
czynnikami (poprawka ze względu na
interakcję).
Slide 12
Klasyfikacja krzyżowa
12
Slide 13
Dane – krety
13
Slide 14
Dwuczynnikowa ANOVA - rezultaty
Yijk= + i + j + eijk
14
Slide 15
Tabela dwuczynnikowej
analizy wariancji
g – liczba poziomów czynnika F1, b – liczba poziomów czynnika F2
15
Slide 16
Dwuczynnikowa analiza wariancji
z interakcją
Yijk= + i + j + ()ij + eijk
16
Slide 17
Brak istotnej interakcji
17
Slide 18
Dwuczynnikowa ANOVA, wysoko
istotna interakcja
18
Slide 19
Wysoko istotna interakcja
19
Slide 20
Wyłączenie interakcji z modelu
Zaleca się, aby z modelu wyeliminować takie
interakcje, które są nieistotne statystycznie.
Zwiększa się tym samym siłę działania
czynników głównych. Jest to tym bardziej
uzasadnione, jeśli: liczba stopni swobody dla
błędu jest mniejsza aniżeli 5 oraz średni
kwadrat odchyleń dla interakcji podzielony
przez wariancję błędu jest mniejszy aniżeli 2.
Slide 21
Model hierarchiczny
Yijk = + i + (j)i + eijk
gdzie:
i – efekt stada, (j)i – czynnik zagnieżdżony,
np. tj. wpływ ojca.
Slide 22
Przykład zagnieżdżenia
Jest to sytuacja, w której określone poziomy
czynnika rozważane są w obrębie czynnika
nadrzędnego. np. kozioł czy też tryk kryje
samice wyłącznie w wybranych stadach.
Slide 23
Typy sum kwadratów odchyleń
• Type SS1: Modele hierarchiczne, regresja
wielomianowa. Istotna jest kolejność czynników.
• Type SS2: W sytuacji, gdy interesują nas efekty
główne a interakcje są nieistotne statystycznie.
• Type SS3: Każdy element traktowany jest
oddzielnie, indywidualnie.
• Type SS4: Stosowany, gdy istnieją brakujące
podklasy.
Wszystkie typy sum kwadratów odchyleń są
sobie równe dla układów zbalansowanych!
Slide 24
Modele ze zmienną towarzyszącą
(regresją)
Yijk= + ai + bj + (ab)ij + βX1 + eijk
gdzie: (ab)ij – efekt interakcji pomiędzy
czynnikami (poprawka ze względu na
interakcję).
βX1 – regresja (zmienna towarzysząca).
Slide 25
Diagnostyka modelu
Slide 26
Diagnostyka modelu
R
2
SSM
SST
r-kwadrat (R-Square) (R2) = SKM/SKO; Wskaźnik determinacji
informuje, w jakim stopniu zmienne niezależne (czynniki) objaśniają
zmienność cechy zależnej. Jeżeli wartość jest zbliżona do 0, tzn. że
czynniki w żaden sposób nie wyjaśniają zmienności cechy ilościowej.
Średnia - średnia arytmetyczna dla całej populacji.
Pierwiastek (Root) MSE – pierwiastek kwadratowy średniego kwadratu
odchyleń dla zmienności wewnątrzgrupowej
Wsp. war (Coeff Var) – wskaźnik zmienności = Root MSE / Mean * 100
Slide 27
Dylemat
Czy masa ciała we wszystkich porach jest
zróżnicowana?
Czy są takie pory roku, w których masa ciała
jest podobna?
27
Slide 28
Wykres pudełkowy
28
Slide 29
Testy a posteriori
W sytuacji, gdy wyniki analizy wariancji dają podstawę
do odrzucenia hipotezy zerowej, wykonujemy tzw. testy
niezaplanowane, zwane inaczej testami a posteriori.
Niedopuszczalne jest stosowanie testu t-Studenta w
przypadku większej liczby porównywanych średnich
(więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla
całego doświadczenia. Przy jednej parze błąd ten
wynosić może 0,05, ale przy 4 średnich (6 możliwych
porównań) prawdopodobieństwo, że się pomylimy
wynosi: 1 - 0,956 = 1 - 0,735, czyli aż 0.265.
29
Slide 30
Testy wielokrotnych porównań (post hoc)
Testy wielokrotnych porównań wykonujemy
wtedy, gdy na podstawie analizy wariancji
stwierdzimy, iż czynnik wpływa istotnie na
badaną cechę!!!!
30
Slide 31
Grupa średnich jednorodnych
Grupy jednorodne: są to takie grupy
średnich, które nie różnią się statystycznie ze
sobą. Procedury, które zmierzają do
wyróżnienia grup jednorodnych nazywają się
procedurami porównań wielokrotnych,
procedurami jednoczesnego wnioskowania
lub post-hoc. Testy te wykorzystujemy przy
analizie wariancji wykonywanej w ramach
Modelu I.
Slide 32
Test NIR
[test najmniejszych istotnych różnic] (LSD [least significant
differences]). Jest najstarszym historycznie testem
wielokrotnych porównań. Zaproponowany przez Fishera w
1949. Jego idea polega na wyznaczeniu tzw. najmniejszych
istotnych różnic i porównaniu ich z różnicami średnich. Jest
to test najmniej odporny na wzrost liczby wielokrotnych
porównań, ponieważ poziom istotności odnosi się do
pojedynczego porównania. W takim przypadku bardzo
szybko wzrasta poziom istotności całego eksperymentu.
Wobec powyższych test NIR stosowany jest jako test
towarzyszący innym testom.
Jeśli bezwzględna wartość różnicy średnich z próby jest
większa aniżeli tzw. najmniejsza istotna różnica (NIR), to
możemy stwierdzić, iż jest ona istotna statystycznie.
Slide 33
Test Dunnett
Służy do porównania grup doświadczalnych z
grupą kontrolną.
33
Slide 34
Test Duncana
Test Duncana jest oparty na studentyzowanym rozstępie. Poziom
istotności dla całego doświadczenia wynosi 1-(1-)n-1.
W sytuacji, gdy n rośnie do nieskończoności poziom ten rośnie do
jedności. W związku z czym, przy dużej liczbie porównywanych
średnich prawdopodobieństwo popełnienia błędu drastycznie rośnie.
Test ten stosowany jest raczej jako test towarzyszący innym testom.
Test Duncana umożliwia tworzenie grup jednorodnych, czyli takich,
pomiędzy którymi nie występują różnice istotne statystycznie na
podstawie prób niezależnych.
34
Slide 35
Kolejność działań przy
wykonywaniu testu Duncana:
Porządkujemy rosnąco ciąg uzyskanych średnich
arytmetycznych
Wybieramy parę średnich do porównania
Odczytujemy z tabel testu Duncana wartości krytyczne.
Uzależnione są one od poziomu istotności, liczby stopni
swobody oraz typu rozstępu. Typ rozstępu - liczba wartości
średnich zawartych w jednym ciągu pomiędzy
porównywanymi średnimi.
Wyliczamy tzw. istotny obszar zmienności: D*Sd
D – odczytujemy w zależności od liczby stopni swobody
(zmienność wewnątrzgrupowa) oraz typu rozstępu.
Slide 36
Test Duncana cd.
2
Sd
2Sw
n gr
S2w – wariancja dla zmienności wewnątrzgrupowej; ngr –
przeciętna liczebność grupy
n gr
1
* ni
k 1
n
n
2
i
i
k – liczba grup doświadczalnych, ni – liczebność grupy
Jeżeli |xi - xj| Sd*D0,05 to różnica pomiędzy średnimi jest istotna
statystycznie;
Jeżeli |xi - xj| Sd*D0,01 to różnica pomiędzy średnimi jest wysoko
istotna statystycznie;
Jeżeli |xi - xj| < Sd*D0,05 to różnica pomiędzy średnimi jest
nieistotna statystycznie.
Slide 37
Test Duncana
Slide 38
Test Duncana
Porównywane grupy uporządkowane są
malejąco. Średnie, przy których znajduje się ta
sama litera stanowią, tzw. grupę średnich
jednorodnych, tzn. które nie różnią się ze
sobą.
Slide 39
Nanoszenie istotności
Slide 40
Scheffé test
Jest testem najbardziej konserwatywnym, co oznacza, że
rzadziej będziemy odrzucać pojedyncze porównania niż
w przypadku innych testów.
Test Scheffe zapewnia łączny poziom istotności dla
wszystkich porównywanych par.
Test ten doskonale nadaje się nie tylko do porównania
par cech, ale również uwzględnia wszelkie kontrasty.
To test najbardziej zachowawczy, gdyż błąd pierwszego
rodzaju jest najmniejszy.
40
Slide 41
Test Scheffé
Slide 42
Test wielokrotnych porównań Tukey’a
Jest oparty o studentyzowany rozkład. Jest to
test najbardziej polecany do porównania par
średnich. Pozwala on wyznaczać grupy średnich
jednorodnych. Występuje w dwóch odmianach:
równa liczebność próbek, nierówna liczebność
próbek (test Spjotvolla i Stolinea).
Test Tukea jest bardziej konserwatywny aniżeli
NIR, lecz mniej niż test Scheffé. Błąd pierwszego
rodzaju jest przy tym teście mniejszy aniżeli w
przypadku NIR, Duncan,a ponadto gwarantuje
on jednakowy poziom istotności dla wszystkich
porównywanych par.
42
Slide 43
Test Tukey
43
Slide 44
Test Duncana i Scheffé
Wykazano różnice istotne między
średnią masą ciała samic
kontrolowanych jesienią a
wszystkimi pozostałymi porami
roku. Nie stwierdzono jednak różnic
istotnych między zwierzętami
odłowionymi wiosną, latem i zimą!
44
Slide 45
Modyfikujemy kod
45
Slide 46
Program po zmianach
Program zapisujemy i Uruchamiamy
Dopisaliśmy
dodatkowe 2 linie
pozwalające na
porównania przy
poziomie istotności
równym 0,01
46
Slide 47
Efekty
47
WIELOCZYNNIKOWA ANALIZA
WARIANCJI
Slide 2
Analiza wariancji w SAS
Procedura ANOVA
ANOVA – Analysis of variance (Analiza
wariancji)
Procedura GLM
General Linear Models (Ogólne modele
liniowe)
Slide 3
Model liniowy analizy wariancji
Yij = + i + eij
gdzie:
Yij – wartość cechy j-tego obiektu pochodzącego z itej grupy;
– średnia ogólna, obliczona dla całej populacji;
i – efekt i-tej grupy, tj. różnica między średnią dla itej grupy i dla całej populacji. Można ten efekt
traktować jako przewagę i-tej grupy nad przeciętną
dla całej populacji;
eij – błąd losowy, resztowy.
Slide 4
Wartość prognozowana i reszty
Slide 5
Błąd losowy
Błąd losowy jest odchyleniem danej
obserwacji od średniej grupy, z jakiej ona
pochodzi.
Spowodowany jest zmiennością
przypadkową, a ta dotyczy konkretnej
obserwacji.
Błąd jest to taka część obserwowanej
zmienności, która nie jest wytłumaczona za
pomocą modelu.
Slide 6
Czynniki stałe w modelu (Modele stałe)
Z reguły liczba poziomów czynnika stałego
jest niewielka. W badaniach uwzględniamy z
góry określone poziomy czynnika.
Wnioski odnosimy wyłącznie do tych
poziomów czynnika, które zostały
uwzględnione w analizie.
Przykładem czynnika stałego może być: płeć,
grupa żywieniowa, rasa, rok badań, stado,
sezon doju próbnego.
Slide 7
Model stały (Model I)
Yij = + i + eij
i – stały efekt i-tej grupy, tj. różnica między
średnią dla i-tej grupy i dla całej populacji.
Można ten efekt traktować jako przewagę itej grupy nad przeciętną dla całej populacji;
Slide 8
Czynniki losowe (Modele losowe)
Liczba poziomów czynnika losowego jest zwykle
duża.
Badaniom poddany jest losowy podzbiór
wszystkich poziomów czynnika.
Wnioski odnosimy do wszystkich poziomów
czynnika, nawet tych, które nie zostały
uwzględnione w eksperymencie, np. twierdzimy,
że rasa wpływ na udział tłuszczu w mleko.
Przykładem czynnika losowego jest efekt matki,
ojca, grupy genetycznej, rasy.
Slide 9
Modele losowe (Model II)
Yij = + Ai + eij
gdzie:
Ai – losowy efekt i-tej grupy, tj. różnica między
średnią dla i-tej grupy i dla całej populacji,
Slide 10
Modele stałe a losowe
Różnica między czynnikami stałymi oraz
losowymi jest dość płynna, w dużej mierze
zależy od postawionego do rozwiązania
problemu.
Slide 11
Modele krzyżowe
Yijk= + i + j + ()ij + eijk
gdzie: ()ij – efekt interakcji pomiędzy
czynnikami (poprawka ze względu na
interakcję).
Slide 12
Klasyfikacja krzyżowa
12
Slide 13
Dane – krety
13
Slide 14
Dwuczynnikowa ANOVA - rezultaty
Yijk= + i + j + eijk
14
Slide 15
Tabela dwuczynnikowej
analizy wariancji
g – liczba poziomów czynnika F1, b – liczba poziomów czynnika F2
15
Slide 16
Dwuczynnikowa analiza wariancji
z interakcją
Yijk= + i + j + ()ij + eijk
16
Slide 17
Brak istotnej interakcji
17
Slide 18
Dwuczynnikowa ANOVA, wysoko
istotna interakcja
18
Slide 19
Wysoko istotna interakcja
19
Slide 20
Wyłączenie interakcji z modelu
Zaleca się, aby z modelu wyeliminować takie
interakcje, które są nieistotne statystycznie.
Zwiększa się tym samym siłę działania
czynników głównych. Jest to tym bardziej
uzasadnione, jeśli: liczba stopni swobody dla
błędu jest mniejsza aniżeli 5 oraz średni
kwadrat odchyleń dla interakcji podzielony
przez wariancję błędu jest mniejszy aniżeli 2.
Slide 21
Model hierarchiczny
Yijk = + i + (j)i + eijk
gdzie:
i – efekt stada, (j)i – czynnik zagnieżdżony,
np. tj. wpływ ojca.
Slide 22
Przykład zagnieżdżenia
Jest to sytuacja, w której określone poziomy
czynnika rozważane są w obrębie czynnika
nadrzędnego. np. kozioł czy też tryk kryje
samice wyłącznie w wybranych stadach.
Slide 23
Typy sum kwadratów odchyleń
• Type SS1: Modele hierarchiczne, regresja
wielomianowa. Istotna jest kolejność czynników.
• Type SS2: W sytuacji, gdy interesują nas efekty
główne a interakcje są nieistotne statystycznie.
• Type SS3: Każdy element traktowany jest
oddzielnie, indywidualnie.
• Type SS4: Stosowany, gdy istnieją brakujące
podklasy.
Wszystkie typy sum kwadratów odchyleń są
sobie równe dla układów zbalansowanych!
Slide 24
Modele ze zmienną towarzyszącą
(regresją)
Yijk= + ai + bj + (ab)ij + βX1 + eijk
gdzie: (ab)ij – efekt interakcji pomiędzy
czynnikami (poprawka ze względu na
interakcję).
βX1 – regresja (zmienna towarzysząca).
Slide 25
Diagnostyka modelu
Slide 26
Diagnostyka modelu
R
2
SSM
SST
r-kwadrat (R-Square) (R2) = SKM/SKO; Wskaźnik determinacji
informuje, w jakim stopniu zmienne niezależne (czynniki) objaśniają
zmienność cechy zależnej. Jeżeli wartość jest zbliżona do 0, tzn. że
czynniki w żaden sposób nie wyjaśniają zmienności cechy ilościowej.
Średnia - średnia arytmetyczna dla całej populacji.
Pierwiastek (Root) MSE – pierwiastek kwadratowy średniego kwadratu
odchyleń dla zmienności wewnątrzgrupowej
Wsp. war (Coeff Var) – wskaźnik zmienności = Root MSE / Mean * 100
Slide 27
Dylemat
Czy masa ciała we wszystkich porach jest
zróżnicowana?
Czy są takie pory roku, w których masa ciała
jest podobna?
27
Slide 28
Wykres pudełkowy
28
Slide 29
Testy a posteriori
W sytuacji, gdy wyniki analizy wariancji dają podstawę
do odrzucenia hipotezy zerowej, wykonujemy tzw. testy
niezaplanowane, zwane inaczej testami a posteriori.
Niedopuszczalne jest stosowanie testu t-Studenta w
przypadku większej liczby porównywanych średnich
(więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla
całego doświadczenia. Przy jednej parze błąd ten
wynosić może 0,05, ale przy 4 średnich (6 możliwych
porównań) prawdopodobieństwo, że się pomylimy
wynosi: 1 - 0,956 = 1 - 0,735, czyli aż 0.265.
29
Slide 30
Testy wielokrotnych porównań (post hoc)
Testy wielokrotnych porównań wykonujemy
wtedy, gdy na podstawie analizy wariancji
stwierdzimy, iż czynnik wpływa istotnie na
badaną cechę!!!!
30
Slide 31
Grupa średnich jednorodnych
Grupy jednorodne: są to takie grupy
średnich, które nie różnią się statystycznie ze
sobą. Procedury, które zmierzają do
wyróżnienia grup jednorodnych nazywają się
procedurami porównań wielokrotnych,
procedurami jednoczesnego wnioskowania
lub post-hoc. Testy te wykorzystujemy przy
analizie wariancji wykonywanej w ramach
Modelu I.
Slide 32
Test NIR
[test najmniejszych istotnych różnic] (LSD [least significant
differences]). Jest najstarszym historycznie testem
wielokrotnych porównań. Zaproponowany przez Fishera w
1949. Jego idea polega na wyznaczeniu tzw. najmniejszych
istotnych różnic i porównaniu ich z różnicami średnich. Jest
to test najmniej odporny na wzrost liczby wielokrotnych
porównań, ponieważ poziom istotności odnosi się do
pojedynczego porównania. W takim przypadku bardzo
szybko wzrasta poziom istotności całego eksperymentu.
Wobec powyższych test NIR stosowany jest jako test
towarzyszący innym testom.
Jeśli bezwzględna wartość różnicy średnich z próby jest
większa aniżeli tzw. najmniejsza istotna różnica (NIR), to
możemy stwierdzić, iż jest ona istotna statystycznie.
Slide 33
Test Dunnett
Służy do porównania grup doświadczalnych z
grupą kontrolną.
33
Slide 34
Test Duncana
Test Duncana jest oparty na studentyzowanym rozstępie. Poziom
istotności dla całego doświadczenia wynosi 1-(1-)n-1.
W sytuacji, gdy n rośnie do nieskończoności poziom ten rośnie do
jedności. W związku z czym, przy dużej liczbie porównywanych
średnich prawdopodobieństwo popełnienia błędu drastycznie rośnie.
Test ten stosowany jest raczej jako test towarzyszący innym testom.
Test Duncana umożliwia tworzenie grup jednorodnych, czyli takich,
pomiędzy którymi nie występują różnice istotne statystycznie na
podstawie prób niezależnych.
34
Slide 35
Kolejność działań przy
wykonywaniu testu Duncana:
Porządkujemy rosnąco ciąg uzyskanych średnich
arytmetycznych
Wybieramy parę średnich do porównania
Odczytujemy z tabel testu Duncana wartości krytyczne.
Uzależnione są one od poziomu istotności, liczby stopni
swobody oraz typu rozstępu. Typ rozstępu - liczba wartości
średnich zawartych w jednym ciągu pomiędzy
porównywanymi średnimi.
Wyliczamy tzw. istotny obszar zmienności: D*Sd
D – odczytujemy w zależności od liczby stopni swobody
(zmienność wewnątrzgrupowa) oraz typu rozstępu.
Slide 36
Test Duncana cd.
2
Sd
2Sw
n gr
S2w – wariancja dla zmienności wewnątrzgrupowej; ngr –
przeciętna liczebność grupy
n gr
1
* ni
k 1
n
n
2
i
i
k – liczba grup doświadczalnych, ni – liczebność grupy
Jeżeli |xi - xj| Sd*D0,05 to różnica pomiędzy średnimi jest istotna
statystycznie;
Jeżeli |xi - xj| Sd*D0,01 to różnica pomiędzy średnimi jest wysoko
istotna statystycznie;
Jeżeli |xi - xj| < Sd*D0,05 to różnica pomiędzy średnimi jest
nieistotna statystycznie.
Slide 37
Test Duncana
Slide 38
Test Duncana
Porównywane grupy uporządkowane są
malejąco. Średnie, przy których znajduje się ta
sama litera stanowią, tzw. grupę średnich
jednorodnych, tzn. które nie różnią się ze
sobą.
Slide 39
Nanoszenie istotności
Slide 40
Scheffé test
Jest testem najbardziej konserwatywnym, co oznacza, że
rzadziej będziemy odrzucać pojedyncze porównania niż
w przypadku innych testów.
Test Scheffe zapewnia łączny poziom istotności dla
wszystkich porównywanych par.
Test ten doskonale nadaje się nie tylko do porównania
par cech, ale również uwzględnia wszelkie kontrasty.
To test najbardziej zachowawczy, gdyż błąd pierwszego
rodzaju jest najmniejszy.
40
Slide 41
Test Scheffé
Slide 42
Test wielokrotnych porównań Tukey’a
Jest oparty o studentyzowany rozkład. Jest to
test najbardziej polecany do porównania par
średnich. Pozwala on wyznaczać grupy średnich
jednorodnych. Występuje w dwóch odmianach:
równa liczebność próbek, nierówna liczebność
próbek (test Spjotvolla i Stolinea).
Test Tukea jest bardziej konserwatywny aniżeli
NIR, lecz mniej niż test Scheffé. Błąd pierwszego
rodzaju jest przy tym teście mniejszy aniżeli w
przypadku NIR, Duncan,a ponadto gwarantuje
on jednakowy poziom istotności dla wszystkich
porównywanych par.
42
Slide 43
Test Tukey
43
Slide 44
Test Duncana i Scheffé
Wykazano różnice istotne między
średnią masą ciała samic
kontrolowanych jesienią a
wszystkimi pozostałymi porami
roku. Nie stwierdzono jednak różnic
istotnych między zwierzętami
odłowionymi wiosną, latem i zimą!
44
Slide 45
Modyfikujemy kod
45
Slide 46
Program po zmianach
Program zapisujemy i Uruchamiamy
Dopisaliśmy
dodatkowe 2 linie
pozwalające na
porównania przy
poziomie istotności
równym 0,01
46
Slide 47
Efekty
47