Statistique et mesure: les échelles de mesure dites qualitatives
Download
Report
Transcript Statistique et mesure: les échelles de mesure dites qualitatives
Les approches
non paramétriques
des tests d’inférence statistique
• Différences entre tests paramétriques
et non paramétriques
•Tests
– groupe dépendant
– groupes indépendants
Statistique et mesure: les
échelles de mesure dites
qualitatives
échelle nominale:
classer des objets
sans quantification
échelle ordinale:
les classes permettent une mise en rang
sans quantification
Statistique et mesure: les
échelles de mesure dites
quantitatives
échelle à Intervalles égaux:
les classes sont des quantités égales
sans zéro absolu
échelle de Rapport:
les classes sont des quantités égales
une de ces classes représente l’absence totale
de la qualité: zéro absolu
noiR
Statistique et mesure:
échelles de mesure
et tests d’inférence
les échelles qualitatives sont
associées aux tests d’inférence non
paramétriques:
χ2 khi-carré
T de Wilcoxon, etc.
les échelles quantitatives sont
associées aux tests d’inférence
paramétriques:
test t
test F (analyse de variance)
Procédures à suivre pour
les tests d’hypothèse
1.
Écrire les 2 hypothèses
l’hypothèse nulle (statistique)
l’hypothèse à l’étude
2. Fixer un seuil de probabilité critère (.05)
3. Déterminer la valeur critère du test
statistique s’il a une distribution propre
4. Calculer le test statistique selon la
formule appropriée
5. Décider:
Accepte ou rejette l’hypothèse nulle
Les tests non paramétriques
n’ont pas de postulats sur
la nature quantitative de la mesure
la forme de la distribution
l’homogénéité des variances
Les tests non paramétriques
pour groupes dépendants
le test du signe
le test de Wilcoxon (ordinal: rangs)
le test de Friedman (ordinal: rangs)
Le test du signe
sert à comparer deux conditions
reliées, pairées, dépendantes
en ayant déterminé à l’avance
si la comparaison reçoit un signe +
ou un signe -
Trois façons de calculer
le test du signe
calcul de probabilité exacte
Nx
P(x) C p q
N
x
X
Nota bene: savoir
s’il s’agit du résultat tel quel
ou d’un résultat aussi extrême
approximation par la normale
X μ
z
σ
oùμ Np et σ Npq
le test de khi-carré (χ2):
2
O
E
i
où dl = k – 1 = 1
χ 2dl i
N
i1
Ei
Rappel du chapitre 5
La distribution binomiale
Définition:
Distribution de 2 événements
mutuellement exclusifs
Il s’agit donc d’une combinaison
chaque événement a sa probabilité (p et q)
et ces probabilités sont conjointes
Nx
P(x) C p q
N
x
X
L’analyse combinatoire (2)
Combinaisons:
assemblement d’objets quand la séquence
d’assemblage ne fait pas de différence
N!
C
r! (N r )!
N
r
Note: ces calculs permettent de savoir ce qui
se passe dans les distributions
d ’événements discrets
2 règles de calcul d’une
probabilité
Loi additive:
si les événements sont exclusifs, leur
occurrence totale se calcule
P(A ou B) = P(A) + P(B)
Loi multiplicative:
la co-occurrence de deux événements
indépendants se calcule
P(A et B) = P(A) x P(B)
Fin du rappel du chapitre 5
Exemple du test du signe
p.145: les données
Cible 1
2
3
Éval. 12 21 10
1
4
5
6
7
9 10 11 12
7 16 13
20
15
Éval. 15 22 16 14 17 16 24 8 19 14
2
28
18
2>1
8 14 18 25
8
Exemple du test du signe
p.145: les calculs (1)
calcul de probabilité exacte
Nota bene: savoir
s’il s’agit du résultat tel quel
ou d’un résultat aussi extrême
Nx
P(x) C p q
N
x
X
N!
P(10) C p q
p 10 q12 10
X! (N X)!
12!
12x11
10
12 10
(.5) (.5)
(.5)10 (.5)12 10
10! (12 10)!
2
12
10
10
12 10
12 11 12 11
11
12 12 12 12
12
P(11) C p q
P(12) C p q
12(.5) (.5)
12
0
1(.5) (.5)
11
1
Trois façons de calculer
le test du signe
approximation par la normale
X μ
z
σ
oùμ Np et σ Npq
10 12(.5) 10 6
z
12(.5)(.5)
3
Trois façons de calculer
le test du signe
le test de khi-carré (χ2):
N
Oi Ei
i1
Ei
χ
2
dl
Valeurs
+
2
où dl = k – 1 = 1
N
Observées
Attendues
10
2
6
6
χ2dl
i1
10 62 2 62
6
6
Exemple du test du signe
problème 18.7 (1)
N X Nx
P(x) Cxp q
P(13) C p q
20
13
13
20 13
N!
p 13 q 20 13
X! (N X )!
20!
13
7
20
(.5) (.5) 77520(.5)
13! (20 13)!
77520x.0000009 .0739288
N!
20 14 20 14
P(14) C14 p q
p 14 q20 14
X! (N X)!
20!
x.0000009 38760x.0000009 .0369644
14! (20 14)!
Exemple du test du signe
problème 18.7 (2)
P(15) C p q
20
15
15
20 15
N!
p 15 q20 15
X! (N X)!
20!
20
(.5) 15504x.0000009 .0147857
15! (20 15)!
P(16) C p q
20
16
16
20 16
N!
p 16 q20 16
X! (N X)!
20!
(.5) 20 4845x.0000009 .0046205
16! (20 16)!
Exemple du test du signe
problème 18.7 (3)
P(17) C p q
20
17
17
20 17
N!
p 17 q20 17
X! (N X)!
20!
20
(.5) 1140x.0000009 .0010871
17! (20 17)!
P(18) C p q
20
18
18
20 18
N!
p 18 q20 18
X! (N X)!
20!
(.5) 20 190x.0000009 .0001811
18! (20 18)!
Exemple du test du signe
problème 18.7 (4)
P(19) C p q
20
19
19
20 19
N!
p 19 q20 19
X! (N X)!
20!
20
(.5) 20x.0000009 .000019
19! (20 19)!
N!
P(20) C p q
p 20 x1
X! (N X)!
20!
(.5) 20 1x.0000009 .0000009
20! (20 20)!
20
20
20
0
Tableau récapitulatif
problème 18.7
P(x )
N p X qNx C p q
N
x
C
Nbre de +
x
13
75720
14
38760
15
15504
16
4845
17
1140
18
190
19
20
20
1
.0000009
.0000009
.0000009
.0000009
.0000009
.0000009
.0000009
.0000009
X
N x
.0739288
.0369644
.0147857
.0046205
.0010871
.0001811
.0000190
.0000009
Cumul.
.0739288
.1108932
.1256789
.1302994
.1313865
.1315676
.1315866
.1315875
Le test de Wilcoxon pour
groupe dépendant
sert à estimer la différence entre
deux conditions reliées
la quantité représentée par la
variable dépendante peut être mise en
rang
Procédure pour le test de
Wilcoxon pour groupe
dépendant
établir les différences
mettre en rang leur amplitude en oubliant la direction
de ces différences,
réassigner les signes
calculer une somme de rangs pour chacun des
groupes (+,-)
identifier la plus petite somme de rangs
comparer cette somme avec celle lue dans le tableau
Annexe T aux pp. 767-769
Exemple du test de Wilcoxon
p.145: les données
Cible 1 2 3 4 5 6
7 8 9 10 11 12
Éval. 12 21 10
1
25 7 16 13
8 14 18
20
15
Éval. 15 22 16 14 17 16 24 8 19 14 28 18
2
Diff. + + + + + - - + + + +
3 1 6 6 3 2 1 1 3 1 8
2-1
7.5
Rang 7.5 2.5 10.5 10.5 7.5 55 2.5
2.5 12
2.5
+
3
7.5
Problème 18.7
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
a
î
n
é
12 18 13 17
8
15 16
5
8
12 13
5
14 20 19 17
2
5
15 18
c
a
d
e
t
10 12 15 13
9
12 13
8
10
8
8
9
8
10 14 11
7
7
13 12
d
i
f
f.
+
2
+
6
1
+
3
+
3
3
2
+
4
+
5
4
+
6
+ +
10 5
5
2
+
2
+
6
R
4
17 4
½
11 1
8
8
8
4
11 14 11 17 20 14 17 14 4
½
½
4
17
½
2
+
4
+
6
L’analyse de Friedman pour
conditions dépendantes
sert à estimer la différence entre
plusieurs conditions reliées
la quantité représentée par la
variable dépendante peut être
mise en rang
Procédure pour l’analyse de
Friedman pour groupe
dépendant
établir les rangs des conditions pour chaque
sujet
calculer la somme des rangs de chaque
condition
calculer le χ2 de Friedman
k
12
2
2
χF
R 3N(k 1) où dl = k – 1
Nkk 1 i1 i
comparer cette valeur
avec le χ2 critère selon le dl
Problème 18.20
Marques
A
B
C
D
E
F
G
H
Somme
Essai 1
8
3
3
15
2
16
7
3
9
3
8
2
3
10
3
12
22
Essai 2
3
2
2
14
3
17
5
2
3
1
9
3
1
3
2
10
16
Essai 3
2
1
1
4
1
12
4
1
6
2
4
1
2
4
1
2
10
Calcul de l’analyse de
Friedman pour le problème
18.20
2
la formule de χ de Friedman
N
12
2
2
χF
R 3N(k 1)
Nkk 1 i1 i
χF2
12
833 1
12
22 16 10 3x8(3 1) 8(3(4))
484 256 100 24(4)
2
2
2
1
χ 840 96 105 96 9
8
2
F
où dl = k – 1
Les tests non paramétriques
pour groupes indépendants
le test de Wilcoxon (ordinal: rangs)
= U de Mann-Whitney
H de Kruskal-Wallis (ordinal: rangs)
Le test de Wilcoxon pour
groupes indépendants
sert à estimer la différence entre
deux conditions indépendantes
la quantité représentée par la
variable dépendante peut être mise en
rang
Deux façons de calculer
le test de Wilcoxon pour
groupes indépendants (1)
le test de Ws
mettre toutes les valeurs en rang
peu importe leur groupe
calculer la somme dans le plus petit groupe
(ou la plus petite somme des deux groupes
si n1 = n2)
_
(ou, si Ws est plus grand, Ws' 2 W Ws
où
_
2 W n1 n1 n2 1 )
Deux façons de calculer
le test de Wilcoxon pour
groupes indépendants (2)
approximation par la normale
X μ
z
σ
oùX Ws
n1 n1 n 2 1
μ
2
n1n 2 n1 n 2 1
e t σ
12
Problème 18.1
obs 0 1
rg
Jeunes
0 3 2 5
2
4
7
Vieux
6 4 8
7
1.5 3 1.5 6 4.5 9 4.5 7.5 11.5 10 7.5 13 11.5
30
61
Problème 18.2
15 14 15 8 7 22 36 19 14 18 17 9 4 9 10 6 6 4 5 9
14½12½14½ 7 6 19 20 18 12½ 17 16
157
9 1½ 9 11 4½ 4½1½ 3 9
53
L’analyse de Kruskal-Wallis
pour conditions
indépendantes
sert à estimer les différences entre
plusieurs conditions indépendantes
la quantité représentée par la
variable dépendante peut être
mise en rang
Procédure pour l’analyse de
Kruskal-Wallis
pour groupes indépendants
mettre toutes les valeurs en rang
peu importe leur groupe
calculer la somme des rangs de
chaque condition
calculer le H de Kruskal-Wallis
k
2
12
R
i
H
NN 1 i1 n
i
3(N 1)
comparer cette valeur
où dl = k – 1
avec le χ2 critère selon le dl
Calcul du Kruskal-Wallis
pour le problème 18.1
la formule
k
2
12 R i
H
NN 1 i1 n
i
le calcul
3(N 1)
où dl = k – 1
Problème 18.14
Prof. A
82
21
71
15.5
56
4
58
5
63
7
64
8
62
6
53
1
67.5
Prof. B
55
3
88
24
85
23
83
22
71
15.5
70
14
68
12.5
72
17.5
131.5
Prof. C
65
9.5
54
2
66
11
68
12.5
72
17.5
78
20
65
9.5
73
19
101
Calcul du Kruskal-Wallis
pour le problème 18.14
la formule
k
2
12 R i
H
NN 1 i1 n
i
le calcul
3(N 1)
où dl = k – 1
2
2
2
67
.
5
131
.
5
101
112
32049
.
5
4006
.
1875
75
HH
3(
24 1)
75
24 18 8
24
8 50 8
50
.12375
12 4556.25 17292.25 80
10201
75
3(25)
24 x25
8
Les tests non paramétriques
+ faciles d’application
+ application quand les données sont non
normales
+ pas de problème avec l’hétérogénéité de la
variance dans les conditions
- application limitée
- moins puissants que les tests paramétriques
si les données sont vraiment paramétriques
- ne permettent pas l’analyse de
variance factorielle (interaction)
sauf l’analyse log-linéaire (chap. 17)