Statistique et mesure: les échelles de mesure dites qualitatives

Download Report

Transcript Statistique et mesure: les échelles de mesure dites qualitatives

Les approches
non paramétriques
des tests d’inférence statistique
• Différences entre tests paramétriques
et non paramétriques
•Tests
– groupe dépendant
– groupes indépendants
Statistique et mesure: les
échelles de mesure dites
qualitatives
 échelle nominale:
 classer des objets
 sans quantification
 échelle ordinale:
 les classes permettent une mise en rang
 sans quantification
Statistique et mesure: les
échelles de mesure dites
quantitatives
 échelle à Intervalles égaux:
 les classes sont des quantités égales
 sans zéro absolu
 échelle de Rapport:
 les classes sont des quantités égales
 une de ces classes représente l’absence totale
de la qualité: zéro absolu
noiR
Statistique et mesure:
échelles de mesure
et tests d’inférence
 les échelles qualitatives sont
associées aux tests d’inférence non
paramétriques:
 χ2 khi-carré
 T de Wilcoxon, etc.
 les échelles quantitatives sont
associées aux tests d’inférence
paramétriques:
 test t
 test F (analyse de variance)
Procédures à suivre pour
les tests d’hypothèse
1.
Écrire les 2 hypothèses


l’hypothèse nulle (statistique)
l’hypothèse à l’étude
2. Fixer un seuil de probabilité critère (.05)
3. Déterminer la valeur critère du test
statistique s’il a une distribution propre
4. Calculer le test statistique selon la
formule appropriée
5. Décider:

Accepte ou rejette l’hypothèse nulle
Les tests non paramétriques
n’ont pas de postulats sur
 la nature quantitative de la mesure
 la forme de la distribution
 l’homogénéité des variances
Les tests non paramétriques
pour groupes dépendants
 le test du signe
 le test de Wilcoxon (ordinal: rangs)
 le test de Friedman (ordinal: rangs)
Le test du signe
 sert à comparer deux conditions
reliées, pairées, dépendantes
 en ayant déterminé à l’avance
si la comparaison reçoit un signe +
ou un signe -
Trois façons de calculer
le test du signe
 calcul de probabilité exacte
Nx
P(x)  C p q
N
x
X
Nota bene: savoir
s’il s’agit du résultat tel quel
ou d’un résultat aussi extrême
approximation par la normale
X μ
z
σ
oùμ Np et σ Npq
 le test de khi-carré (χ2):
2


O

E
i
où dl = k – 1 = 1
χ 2dl   i
N
i1
Ei
Rappel du chapitre 5
La distribution binomiale
 Définition:
Distribution de 2 événements
mutuellement exclusifs
Il s’agit donc d’une combinaison
chaque événement a sa probabilité (p et q)
et ces probabilités sont conjointes
Nx
P(x)  C p q
N
x
X
L’analyse combinatoire (2)
 Combinaisons:
assemblement d’objets quand la séquence
d’assemblage ne fait pas de différence
N!
C 
r! (N  r )!
N
r
 Note: ces calculs permettent de savoir ce qui
se passe dans les distributions
d ’événements discrets
2 règles de calcul d’une
probabilité
 Loi additive:
si les événements sont exclusifs, leur
occurrence totale se calcule
P(A ou B) = P(A) + P(B)
 Loi multiplicative:
la co-occurrence de deux événements
indépendants se calcule
P(A et B) = P(A) x P(B)
Fin du rappel du chapitre 5
Exemple du test du signe
p.145: les données
Cible 1
2
3
Éval. 12 21 10
1
4
5
6
7
9 10 11 12
7 16 13
20
15
Éval. 15 22 16 14 17 16 24 8 19 14
2
28
18
2>1
8 14 18 25
8
Exemple du test du signe
p.145: les calculs (1)
 calcul de probabilité exacte
Nota bene: savoir
s’il s’agit du résultat tel quel
ou d’un résultat aussi extrême
Nx
P(x)  C p q
N
x
X
N!
P(10)  C p q

p 10 q12 10 
X! (N  X)!
12!
12x11
10
12 10
(.5) (.5)

(.5)10 (.5)12 10 
10! (12  10)!
2
12
10
10
12 10
12 11 12 11
11
12 12 12 12
12
P(11)  C p q
P(12)  C p q
 12(.5) (.5)
12
0
 1(.5) (.5)
11
1
Trois façons de calculer
le test du signe
 approximation par la normale
X μ
z
σ
oùμ Np et σ Npq
10  12(.5) 10  6
z


12(.5)(.5)
3
Trois façons de calculer
le test du signe
le test de khi-carré (χ2):
N
Oi  Ei 
i1
Ei
χ 
2
dl
Valeurs
+
2
où dl = k – 1 = 1
N
Observées
Attendues
10
2
6
6
χ2dl  
i1
10  62  2  62
6
6
Exemple du test du signe
problème 18.7 (1)
N X Nx
P(x)  Cxp q
P(13)  C p q
20
13
13
20 13
N!

p 13 q 20 13 
X! (N  X )!
20!
13
7
20
(.5) (.5)  77520(.5) 
13! (20  13)!
77520x.0000009  .0739288
N!
20 14 20 14
P(14)  C14 p q

p 14 q20 14 
X! (N  X)!
20!
x.0000009  38760x.0000009  .0369644
14! (20  14)!
Exemple du test du signe
problème 18.7 (2)
P(15)  C p q
20
15
15
20 15
N!

p 15 q20 15 
X! (N  X)!
20!
20
(.5)  15504x.0000009  .0147857
15! (20  15)!
P(16)  C p q
20
16
16
20 16
N!

p 16 q20 16 
X! (N  X)!
20!
(.5) 20  4845x.0000009  .0046205
16! (20  16)!
Exemple du test du signe
problème 18.7 (3)
P(17)  C p q
20
17
17
20 17
N!

p 17 q20 17 
X! (N  X)!
20!
20
(.5)  1140x.0000009  .0010871
17! (20  17)!
P(18)  C p q
20
18
18
20 18
N!

p 18 q20 18 
X! (N  X)!
20!
(.5) 20  190x.0000009  .0001811
18! (20  18)!
Exemple du test du signe
problème 18.7 (4)
P(19)  C p q
20
19
19
20 19
N!

p 19 q20 19 
X! (N  X)!
20!
20
(.5)  20x.0000009  .000019
19! (20  19)!
N!
P(20)  C p q 
p 20 x1 
X! (N  X)!
20!
(.5) 20  1x.0000009  .0000009
20! (20  20)!
20
20
20
0
Tableau récapitulatif
problème 18.7
P(x )
N p X qNx C p q
N
x
C
Nbre de +
x
13
75720
14
38760
15
15504
16
4845
17
1140
18
190
19
20
20
1
.0000009
.0000009
.0000009
.0000009
.0000009
.0000009
.0000009
.0000009
X
N x
.0739288
.0369644
.0147857
.0046205
.0010871
.0001811
.0000190
.0000009
Cumul.
.0739288
.1108932
.1256789
.1302994
.1313865
.1315676
.1315866
.1315875
Le test de Wilcoxon pour
groupe dépendant
 sert à estimer la différence entre
deux conditions reliées
 la quantité représentée par la
variable dépendante peut être mise en
rang
Procédure pour le test de
Wilcoxon pour groupe
dépendant
 établir les différences
 mettre en rang leur amplitude en oubliant la direction
de ces différences,
 réassigner les signes
 calculer une somme de rangs pour chacun des
groupes (+,-)
 identifier la plus petite somme de rangs
 comparer cette somme avec celle lue dans le tableau
Annexe T aux pp. 767-769
Exemple du test de Wilcoxon
p.145: les données
Cible 1 2 3 4 5 6
7 8 9 10 11 12
Éval. 12 21 10
1
25 7 16 13
8 14 18
20
15
Éval. 15 22 16 14 17 16 24 8 19 14 28 18
2
Diff. + + + + + - - + + + +
3 1 6 6 3 2 1 1 3 1 8
2-1
7.5
Rang 7.5 2.5 10.5 10.5 7.5 55 2.5
2.5 12
2.5
+
3
7.5
Problème 18.7
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
a
î
n
é
12 18 13 17
8
15 16
5
8
12 13
5
14 20 19 17
2
5
15 18
c
a
d
e
t
10 12 15 13
9
12 13
8
10
8
8
9
8
10 14 11
7
7
13 12
d
i
f
f.
+
2
+
6
1
+
3
+
3
3
2
+
4
+
5
4
+
6
+ +
10 5
5
2
+
2
+
6
R
4
17 4
½
11 1
8
8
8
4
11 14 11 17 20 14 17 14 4
½
½
4
17
½
2
+
4
+
6
L’analyse de Friedman pour
conditions dépendantes
 sert à estimer la différence entre
plusieurs conditions reliées
 la quantité représentée par la
variable dépendante peut être
mise en rang
Procédure pour l’analyse de
Friedman pour groupe
dépendant
 établir les rangs des conditions pour chaque
sujet
 calculer la somme des rangs de chaque
condition
 calculer le χ2 de Friedman
k
12


2
2
χF 
 R   3N(k  1) où dl = k – 1
Nkk  1  i1 i 
 comparer cette valeur
avec le χ2 critère selon le dl
Problème 18.20
Marques
A
B
C
D
E
F
G
H
Somme
Essai 1
8
3
3
15
2
16
7
3
9
3
8
2
3
10
3
12
22
Essai 2
3
2
2
14
3
17
5
2
3
1
9
3
1
3
2
10
16
Essai 3
2
1
1
4
1
12
4
1
6
2
4
1
2
4
1
2
10
Calcul de l’analyse de
Friedman pour le problème
18.20
2
 la formule de χ de Friedman
N
12


2
2
χF 
 R   3N(k  1)
Nkk  1  i1 i 
χF2 
12
833  1
12
22  16  10  3x8(3  1)  8(3(4))
484  256  100  24(4)
2
2
2
1
χ  840   96  105  96  9
8
2
F
où dl = k – 1
Les tests non paramétriques
pour groupes indépendants
 le test de Wilcoxon (ordinal: rangs)
= U de Mann-Whitney
 H de Kruskal-Wallis (ordinal: rangs)
Le test de Wilcoxon pour
groupes indépendants
 sert à estimer la différence entre
deux conditions indépendantes
 la quantité représentée par la
variable dépendante peut être mise en
rang
Deux façons de calculer
le test de Wilcoxon pour
groupes indépendants (1)
 le test de Ws
 mettre toutes les valeurs en rang
peu importe leur groupe
 calculer la somme dans le plus petit groupe
(ou la plus petite somme des deux groupes
si n1 = n2)
_
(ou, si Ws est plus grand, Ws'  2 W  Ws
où
_
2 W  n1 n1  n2  1 )
Deux façons de calculer
le test de Wilcoxon pour
groupes indépendants (2)
 approximation par la normale
X μ
z
σ
oùX  Ws
n1 n1  n 2  1
μ
2
n1n 2 n1  n 2  1
e t σ
12
Problème 18.1
obs 0 1
rg

Jeunes
0 3 2 5
2
4
7
Vieux
6 4 8
7
1.5 3 1.5 6 4.5 9 4.5 7.5 11.5 10 7.5 13 11.5
30
61
Problème 18.2
15 14 15 8 7 22 36 19 14 18 17 9 4 9 10 6 6 4 5 9
14½12½14½ 7 6 19 20 18 12½ 17 16
157
9 1½ 9 11 4½ 4½1½ 3 9
53
L’analyse de Kruskal-Wallis
pour conditions
indépendantes
 sert à estimer les différences entre
plusieurs conditions indépendantes
 la quantité représentée par la
variable dépendante peut être
mise en rang
Procédure pour l’analyse de
Kruskal-Wallis
pour groupes indépendants
 mettre toutes les valeurs en rang
peu importe leur groupe
 calculer la somme des rangs de
chaque condition
 calculer le H de Kruskal-Wallis
 k
2

12
R
i
H

NN  1  i1 n
i



  3(N  1)


 comparer cette valeur
où dl = k – 1
avec le χ2 critère selon le dl
Calcul du Kruskal-Wallis
pour le problème 18.1
 la formule
 k
2
12  R i
H

NN  1  i1 n
i

 le calcul


  3(N  1)


où dl = k – 1
Problème 18.14
Prof. A
82
21
71
15.5
56
4
58
5
63
7
64
8
62
6
53
1
67.5
Prof. B
55
3
88
24
85
23
83
22
71
15.5
70
14
68
12.5
72
17.5
131.5
Prof. C
65
9.5
54
2
66
11
68
12.5
72
17.5
78
20
65
9.5
73
19
101
Calcul du Kruskal-Wallis
pour le problème 18.14
 la formule
 k
2
12  R i
H

NN  1  i1 n
i

 le calcul


  3(N  1)


où dl = k – 1
2
2
2


67
.
5
131
.
5
101
112
32049
.
5
4006
.
1875



75
HH 
 

3(
24  1) 

  75
24  18 8
24
8 50 8 
50
.12375
12  4556.25  17292.25 80
 10201
  75 

  3(25) 
24 x25 
8

Les tests non paramétriques
+ faciles d’application
+ application quand les données sont non
normales
+ pas de problème avec l’hétérogénéité de la
variance dans les conditions
- application limitée
- moins puissants que les tests paramétriques
si les données sont vraiment paramétriques
- ne permettent pas l’analyse de
variance factorielle (interaction)
sauf l’analyse log-linéaire (chap. 17)