Aula 5 - FMRP/USP
Download
Report
Transcript Aula 5 - FMRP/USP
OBJETIVO : Comparar as médias de mais de duas amostras
independentes.
Porque não posso comparar as médias duas a duas com testes t ?
Exemplo com 3grupos : 1X2, 1X3 e 2X3.
Em cada teste que realizo tenho uma chance de erro do tipo I () que
estabeleço igual a 0.05. Se realizo 3 testes estes meu erro é multiplicativo
então minha chance que de não cometer o erro que era de (1 - 0.05) será
de (1 - 0.05)* (1 - 0.05)* (1 - 0.05) = 0.857 e = 0.143, bem maior do
que estipulamos. Consequência : Rejeitaríamos HO mais do que
deveríamos, encontraríamos mais diferenças significativas do que elas
realmente existem.
O teste estatístico que veremos protege contra este tipo de situação
comparando simultaneamente mais de duas médias. Fixa o meu erro.
Variáveis envolvidas:
1-A var. referente aos grupos que serão comparados, que pode ser cat.
nominal (Pr/Br/Am), cat. Ordinal ou quantitativas contínuas ou não, desde
que categorizadas em 2 categorias (0-20/21-40/41 ou +).
Neste teste são bastante conhecidos por FATORES ou tratamentos.
2 - A var. que será propriamente comparada, que deve ser numérica
(contínua ou discreta). Há grande controvérsia quanto às ordinais,
teoricamente não, mas no mundo real utiliza-se bastante também as
ordinais.
Exemplos:
- A média da taxa de glicemia é equivalente entre as raças (preto,branco e
amarelo)
- O tempo gasto para o alivio da dor é equivalente entre as drogas A, B, C
e o placebo
- A o valor da escala de depressão (BECK) varia conforme grupo com
IMC < 20, com IMC entre 20 e 25 e com IMC > 25
SUPOSIÇÃO : 1 - A variável que será comparada (2) precisa ter
distribuição normal, é necessário realizar um teste de normalidade antes,
c.c, a eficácia do teste é bastante questionável. O procedimento correto é
testar a normalidade para cada nível da var. categorizada, cada nível do
FATOR (Usualmente testa-se somente a variável como um todo).
2 - A amostras precisam ter variâncias equivalentes, os fatores precisam
ter variância iguais. HOMOCEDASTICIDADE das variâncias.
Raramente vejo alguém realizar esta verificação. OBS.
3 - As observações (xi) de cada grupo são independentes uma das outras,
e as amostras são independentes entre si.
Graficamente
Tese de hipótese associado
H0: Média da amostra 1 = Média da amostra 2; ...= Média da amostra n
X
H1: Média da amostra i Média da amostra j;
para i j
Teste estatístico: Verificada e não rejeitada a hipótese de
normalidade e a homocedasticidade é o teste conhecido por
Análise de Variância ou ANOVA.
Lógica do teste: Suponha K amostras
Am.1 Am.2....Am.k
Se tudo é casual ,todas as variações
x11
x12
x1k Mx1. s1. são casuais, a variação DENTRO
x21
x22
x2k Mx2. s2. de cada amostra deve equivalente
x31
x32
x3k
a variação ENTRE cada amostra.
xn1
xn2
xnk Mxk. Sk. Variação ENTRE = 1
Mx.1 Mx.2 Mx.k
Mx..
Variação DENTRO
s.1
s.2
s.k
Am.1 Am.2....Am.k
x11
x12
x1k
x21
x22
x2k
x31
x32
x3k.
xn1
xn2
xnk
Mx.1 Mx.2 Mx.k
s.1
s.2
s.k
A variação ENTRE é a soma
dos desvios das médias das
amostras em relação à média
total ni(Mx. - Mx..)²
Mx1. s1.
Mx2. s2.
Mxk. Sk.
Mx..
A variação TOTAL é a soma dos
desvios de cada observação em
relação à média Total
(xij - Mx..)²
Como var. TOTAL = var. ENTRE + var. DENTRO, a var. DENTRO
é calculada em função das outra duas.
TABELA DA ANOVA
Fontes de variação Soma dos Quadrados
Entre
ni(Mx. - Mx..)^2
Dentro
Total - Entre
Total
(xij - Mx..)^2
g.l. Qua. Médio
k-1
F
SQ/(K-1) QMEntre
N-k SQ/(N-k) QMDentro
N-1
A estatística (Quadr.médio ENTRE)/(Quadr. Médio Dentro) tem uma
distribuição tabelada conhecida por F ( de Snedecor).
Então acho o valor da est. e comparo com o valor da distribuição F com
(N-1);(N-k) g.l. e nível de significância adotado. OU (mais comum)
verifico qual a probabilidade do valor da est. numa distr. F com (N-1);
(N-k) g.l. e comparo com = 0.05. Se for menor rejeito HO.
Observe que na tabela F tenho
que verificar dois graus de
liberdade. Um relativo a variação
Entre e outro a variação Dentro
Exemplo direto no Minitab: Desejo
comparar as notas (0 -100) no
provão de 4 faculdades.
Vou em ‘Stats’ e daí em
“ANOVA” e depois “One-way”
Na nova tela coloco a var. Nota
(que contém os valores) em
‘Response’ e a var. Fac (que
contém a que faculdade o aluno
pertence) em ‘Factor’. E OK
Na saída há a tabela da Anova, com os g.l, SQ, QM, a estatística F e “p”.
Além disso temos o tamanho da amostra, média, dp para cada nível do
fator.
Portanto Rejeito H0. Concluo que há diferença significativa
entre as amostras, mas quem é diferente de quem ?
Quando rejeito H0 em uma ANOVA necessito realizar um teste post hoc.
Este teste é que indicará quem é diferente significativamente de quem.
Existem muitos testes post hoc, cada um tem sua característica e é
indicado para situações específicas. O Minitab fornece dois bastante
utilizados, o de TUKEY, que veremos, e o de DUNNET que é utilizado
quando uma das amostras é um controle que desejamos comparar com as
demais.
Na tela da ANOVA clicamos em
‘COMPARISONS” e obtemos a tela
ao lado.
Nesta tela optamos por “Tukey’s, o
valor 5 corresponde a 0.05 e é o default.
E OK.
No output verificamos que há 6 intervalos de confiança, cada um referese a uma comparação específica, nesta ordem: 1x2, 1x3, 1x4, 2x3, 2x4 e
3x4.
Regra: Se o 0 não estiver dentro do intervalo há diferença significativa
entre os dois fatores, c.c., se o 0 estiver dentro do intervalo não há
diferença significativa entre os fatores. Quais as diferenças significativas ?
Resultado final é: Há diferença quanto às faculdades: F1 > F2 > (F3=F4)
Lembre que devemos testar a normalidade (vocês já estão cansados de
saber como) e devemos testar também a homocedasticidade das variâncias
Em ‘Anova’ vamos em ‘Test for Equal Va
Riances”. Lembre que nossa H0 neste tipo de
teste é que as variâncias são equivalentes e
H1 de não equivalência.
O preenchimento é o mesmo, a var.
com os valores em ‘Response’ e a
var. do grupo em ‘Factors’
Test for Equal Variances
Response
Prova
Factors
Fac
ConfLvl
95,0000
Bonferroni confidence intervals for standard
deviations
Lower
Sigma
Upper
N Factor
11,6940
14,5611
19,1065
54
1
12,7417
14,9885
18,1156
103
2
10,5853
13,8308
19,6191
35
3
9,2218
15,4712
39,7042
8
4
Bartlett's Test (normal distribution)
Test Statistic: 0,360
P-Value
: 0,948
Temos na saída um
intervalo de confiança
para o dp de cada fator,
e o resultado do teste
de Bartlett que compara
mais de dois dp’s .
Com p = 0.948, não
rejeito H0 e assumo a
igualdade das variâncias.
Resumindo :
1 - Teste a normalidade da variável (se não for normal tente
alguma transformação).
2 - Verifique a homocedasticidade das variâncias.
3 - Se rejeitar HO, aplique um teste post hoc.
Vimos a situação em que comparamos uma var. “ numérica” entre os níveis de uma outra var. categórica ou “ categorizada”. Podemos efetuar este
mesmo raciocínio para mais de uma var. categorizada ao mesmo
tempo e verificar se existe uma interação entre as variáveis
categorizadas, p.exp:
-Sexo e Raça influem nos valores de uma escala de ansiedade;
-Escolaridade e Presença de trauma influem no tempo de resolução de um
teste;
-Renda (categorizada) e Situação conjugal influem nos resultados de um
teste de stress ?
Em situações como esta, em que as variáveis independentes são duas ou
mais, podemos dizer que estamos realizando uma análise multivariada,
nas situações anteriormente vistas tínhamos sempre uma var. dependente
e uma independente, análise univariada, agora com duas vars. , multi, aná
lise multivariada.
Tipos de variáveis: 1- A dependente, que deve ter dist. Normal e homocedasticidade das variâncias; 2 - As independentes que precisam ser categorias e um número mínimo em cada categoria (n = 10). Conselho
Um pesquisador deseja saber se 4 diferentes tipos
de droga, bem como a raça (3 categorias, raças)
tem influência sobre os valores de uma determinada
medida em ratos .
Observe que colocamos cada variável em uma coluna.
O método estatístico utilizado é conhecido por
“ANOVA TWO WAY”, devido as duas variáveis,
ou “ANOVA com 2 Fatores”, porém no Minitab a
utilização deste método requer um experimento BALANCEADO, i. é,
todas as combinações de Droga e raça (4 X 3 = 12 ) precisam ter o mesmo tamanho amostral.
Quando isto não ocorre (experimento não balanceado) o Minitab não realiza o teste. Usaremos então o módulo “General Linear Model”.
Em “ANOVA” vamos em
“General Linear Model.
Nesta tela alocamos a var. resposta,
dependente, em ‘Response’, as vars.
independentes, os fatores, alocamos
em ‘ Random factors’ e na janela
referente a ‘Model’ explicitamos o
modelo que desejamos com os dois
Fatores e a interação: Droga, Raça,
Droga*Raça. E “OK”.
No output temos as vars. com os números de níveis de cada uma e a tabela
da Anova. O que esta abaixo não nos
interessa.
Na Anova vemos que há uma diferença significativa entre as Drogas ( p =
0.008), não há diferença significativa
entre as Raças (0.81)e a interação não
foi significativa (p = 0.60).
A interação verifica, testa, se a eventual diferença encontrada em uma var.
permanece a mesma nos diferentes níveis da outra var., ou seja, será que a
diferença encontrada entre as drogas é a mesma para as diferentes raças ?
Como a interação do nosso exemplo não foi significativa (p = 0.60), concluímos que sim. Se a interação fosse significativa (p ≤ 0.05) teríamos que
a diferença entre as drogas variaria significativamente conforme a raça
Para sabermos quem difere de quem nas drogas podemos utilizar o ícone de
“Multiple Comparisons” da “ANOVA ONE WAY”:
Perceba que quando fazemos um teste como este estamos realizando 3
testes de hipótese:
1 - que compara os níveis da var. Droga;
2 - //
//
// // // // Raça;
3 – o que verifica a interação; se as diferenças encontradas nos níveis de
um determinado fator variam ou não significativamente conforme os
níveis do outro fator (variável).
Outro exemplo: Desejamos verificar se 3 diferentes tipos de terapia e o nível sócio-econômico (com 3 categorias) influem em uma escala.
Observe, novamente, como
fica a nossa tela no GLM do
Minitab.
Da tabela da Anova, inferimos que há
diferença significativa entre as classes sociais, e que esta diferença varia
conforme a terapia utilizada, a interação foi significativa ( p = 0.019).
Temos que Nse = 1 tem média 144.8; Nse = 2 tem média 107.6; Nse = 3
tem média 64.2, portanto NSE 1 > NSE 2 > NSE 3. MAS isto é para o geral, esta relação muda conforme a terapia.
Observando as médias dos NSE dentro de cada
terapia será que a relação Nse 1 > Nse2 > Nse 3
mantém-se em cada uma as terapias ? Não.
Dependendo do objetivo do pesquisador pode-se
realizar uma Anova one-way para cada terapia.
O raciocínio da Anova com 2 fatores pode ser extendido para n fatores,
uma Anova n fatorial (multifatorial), tantas quantas forem as vars. independentes. Vejamos um caso com 3 vars.
Desejamos testar se uma var. dependente (Esc2) sofre influência do Sexo,
Trauma (Sim/Não) e da Idade categorizada em 3 níveis.
Ao lado temos como nossa tela do GLM é organizada.
No output temos que a Idade
influi na escala e esta influência varia conforme o Sexo
Como já foi dito, pode-se extender o raciocínio para mais variáveis independentes, porém não é muito comum pois:
a)Devido a dificuldade de interpretação dos resultados, não é fácil“enxergar
o que realmente está acontecendo;
b)É necessário uma amostra grande, consistente, que tenha uma quantidade
razoável de sujeitos em cada nível de cada variável;
c) O experimento precisa ser minimamente balanceado, ou seja, todos os
possíveis cruzamentos necessitam ter um número de amostra parecido e
não muito pequeno.
Quando temos muitas variáveis dependentes usualmente realizam-se as
análises univariadas e para a análise multivariada selecionamos aquelas
que na análise univariada apresentaram um “p” menor que um valor préestabelecido (p ≤ 0.20 ou ≤ 0.10 ou ≤ 0.05) e as vars. que o pesquisador
acredita terem importância.
Na situação em que temos muitas vars. dependentes, ou mesmo poucas mas
o experimento não é balanceado (quando determinados níveis de uma ou
mais vars. não possuem amostra suficiente), utiliza-se a Anova mas sem
testar-se as interações, é a Anova somente com os efeitos principais.
Todos os testes vistos até agora (teste z, teste t para uma amostra,
teste t para amostras independentes, teste t para amostras pareadas e
Anova) possuem um ponto em comum e necessário para que possam
ser aplicados: NORMALIDADE, a variável que esta sendo
comparada necessita ter distribuição Normal
Mas e quando rejeitamos a normalidade ou está claro que os dados
não possuem distribuição Normal, o que fazer ?
Em 1o. Lugar podemos tentar aplicar uma transformação em nossos
dados originais. Algumas transformações são bastante conhecidas e
em boa parte das vezes levam nossos dados que não possuem
normalidade a uma distribuição normal. No Minitab na barra de
ferramentas na função Calc. E depois Calculator.
São elas : Log, Ln, Raiz quadrada, Arcseno, 1/x ...
Entretanto nem sempre as transformações funcionam e há o caso
de amostras muito pequenas, onde não é possível nem testar a
normalidade
Nestes casos iremos utilizar testes conhecidos por
NÃO-PARAMÉTRICOS
Os testes não-paramétricos também são conhecidos por testes de
distribuição livre (Free), pois não exigem nenhuma condição quanto à
forma da distribuição dos dados.
1 - O teste análogo ao teste t para duas amostras independentes é o teste
de MANN-WHITNEY, cujo objetivo é comparar se a média (mediana)
de uma amostra possui valor equivalente ao da outra amostra.
O tópico referente às variáveis envolvidas é equivalente ao do teste t
para duas amostras independentes, com ênfase que este método é
bastante utilizado com variáveis qualitativas ordinais.
O teste de hipótese associado é :
HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X
H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2.
Suposição: Não há suposição de normalidade, mas há a suposição
de independência entre as unidades amostrais (xi).
Procedimento: Exemplo: Desejamos comparar os scores de dois grupos
para um determinado teste psicológico:
Valores do grupo A: 5, 10, 2, 8 ,9, 1, 12
Valores do grupo B: 4, 3, 5, 0, 6, 7, 2
O 1o. passo é ordenar as duas amostras simultaneamente e atribuir
RANKS ( em português POSTOS) a ordenação
Valor Rank
Valor Rank
0
1
6
9
Após esta operação retornamos
1
2
7
10
aos grupos os valores dos ranks
2
3.5
8
11
2
3.5
9
12
Grupo A: 7.5, 13, 3.5, 11, 12, 2, 14
3
5
10
13
Grupo B: 6, 5, 7.5, 1, 9, 10, 3.5
4
6
12
14
5
7.5
Com este valores (ranks) é que
5
7.5
serão efetuados os cálculos do teste.
A estatística T = S - ni(ni+1)/2 onde S = (Ranks de uma das
amostras tem uma distribuição tabelada.ni= Tamanho da amostra
escolhida.
Então S = 7.5 + 13 + ... + 14 = 63 e T = 63 - (7*8)/2 = 35 que equivale
na tabela específica a um p value = 0.20, logo não rejeitamos H0
(0.20 > 0.05).
Desejamos comparar a renda de
homens e mulheres numa determina
da função.
‘Stats’, daí vamos em “Nonparame
trics” e depois em “Mann-Whitney.
Observe que apesar das amostras
serem independentes elas estão
em colunas diferentes.
Aloco uma amostra em “First Sample”,
a outra amostra em “Second Sample”.
Observe que optei por um teste bicaudal
e OK
No output temos os tamanhos de
amostra, as medianas, um intervalo de confiança para a diferença
das medianas, a estatística
calculada teste de hipótese, seu
tipo e o p-value.
Mann-Whitney Test and CI: renmas; renfem
renmas
N = 13
Median =
518,1
renfem
N = 19
Median =
401,1
Point estimate for ETA1-ETA2 is
101,4
95,4 Percent CI for ETA1-ETA2 is (23,2;286,0)
W = 219,0
Test of ETA1 = ETA2 vs ETA1 not = ETA2
is significant at 0,0193
The test is significant at 0.0189 (adjusted for
ties
Portanto rejeitamos H0.
Para fugir de polêmicas,
conclua assim :
O sexo masc. apresentou valores significativamente superiores aos do fem.
2 - O teste análogo ao teste t para duas amostras pareadas é o teste de
WILCOXON, cujo objetivo é comparar as médias (medianas) de duas
amostras correlacionadas, pareadas, ou seja, não independentes .
Tudo o que foi visto anteriormente a respeito das duas medidas serem
realizadas na mesma unidade amostral contínua válido aqui.
O tópico referente às variáveis envolvidas é equivalente ao do teste t
para duas amostras pareadas, com ênfase que este método é bastante
utilizado com variáveis qualitativas ordinais.
O teste de hipótese associado é: HO: A diferença entre as medianas
(médias) = 0; X H1: A diferença entre as medianas (médias) 0
Observe que este teste é semelhante a testarmos , se a “variável” diferença
difere ou não significativamente de 0.
Suposição: A variável ‘DIFERENÇA’ não necessita ter distribuição
normal, a suposição de independência entre as diferenças é necessária..
Infelizmente o Minitab não possui um módulo específico para a
realização do teste de Wilcoxon para amostras pareadas.
Adotaremos um procedimento que fornecerá o mesmo resultado.
Procedimento:Exemplo: Desejamos comparar o % de resposta
de um tipo de tratamento em dois lotes de células tumorais:
Após calcular as diferenças entre a unidades
amostrais realizarei u m teste que verifica se
a mediana das diferenças é equivalente a 0
H0: Antes = Depois Antes - Depois = 0
Diferença = Antes -Depois H0:Diferença = 0
X H1 : Diferença 0
Após digitar meus grupos A e B nas colunas
C1 e C2, na barra de ferramentas vou em
“Calc” e daí em “Calculator”
Na tela resultante no espaço “Expression”
indico a operação que desejo, que é
var. A - var.B, e aviso que desejo
armazena-lá na coluna C6 em
“Store result ... “. E OK
Depois vamos em ‘Stat’, “Nonparametrics”
e daí em “1-Sample Wilcoxon”
Na tela do teste especificamos a variável
C6 (Diferença), ativamos “Test median”
e colocamos o valor 0
Wilcoxon Signed Rank Test: C6
Test of median = 0,000000 versus median not =
0,000000
N for
Wilcoxon
Estimated
N
Test Statistic
P
Median
C6 9
8
33,0
0,042
5,000
Na saída temos o teste de hipótese,
o p-value e a mediana estimada.
Rejeitamos H0, portanto a diferença entre
as amostras A e B e A > B, pois a mediana
estimada é positiva.
3 - O teste análogo ao teste para comparar mais de duas amostras
independentes (ANOVA) é o teste de KRUSKAL-WALLIS, também
conhecido por Análise de Variância Não-Paramétrica
O tópico referente às variáveis envolvidas é equivalente ao do teste t
para duas amostras independentes, com ênfase que este método é
bastante utilizado com variáveis qualitativas ordinais.
O teste de hipótese associado é :
HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X
H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2.
Suposição: Não há suposição de normalidade, mas há a suposição
de independência entre as unidades amostrais (xi)e entre as unidades das
diferentes amostras.
A estatística
onde Ri é o ranking
médio de cada amostra
K = número de amostras (fatores, grupos) , N = tamanho total da amostra
e ni = tamanho de cada amostra; tem distribuição Qui-Quadrado com k-1
graus de liberdade.
Exemplo da distribuição QuiQuadrado com g.l. = 4.
Exemplo direto no Minitab: Quero verificar se 3 tratamentos produzem
resultados equivalentes ou não.
‘Stats’, “Nonparametrics”, e daí em
“Kruskal-Wallis”
Na tela alocamos a var. X em”Response
e a var. dos grupos em “Factor”.
Kruskal-Wallis Test: X versus Trat
Kruskal-Wallis Test on X
Trat
N Median Ave Rank
1
10 1,882
8,8
2
10 3,903
24,0
3
10 2,289
13,7
Overall 30
15,5
H = 15,53 DF = 2 P = 0,000
Z
-2,95
3,74
-0,79
Na saída temos para cada fator o
n, a mediana, o rank médio, a esta
tística calculada, os g.l. e o p-value
< 0.001, portanto Rejeito H0, há
diferença entre os tratamentos.
Entretanto, quase sempre desejamos saber quais as diferenças
significativas entre os tratamentos. O Minitab não fornece nenhum teste
post hoc quando rejeitamos H0 em sua ANOVA não-paramétrica.
O teste post hoc utilizado é o de DUNN, portanto pesquise um programa
que faça este teste. Outro recomendado é o de Newman-Keuls, encontra
do nos módulos da ANOVA paramétrica, normal em alguns programas..
1) Comparar uma média (mediana) amostral
Normal
Teste t para uma amostra
Não Normal Teste de Wicoxon para uma amostra
2) Comparar duas médias medianas amostrais independentes
(unidades amostrais independentes)
Normal
Teste t para amostras independentes
Não Normal Teste de Mann-Whitney
3) Comparar duas médias amostrais pareadas ou correlacionadas
(mesma unidade amostral)
Normal
Teste t para amostras pareadas ou correlacionadas
Não Normal Teste de Wilcoxon para amostras pareadas
Normalidade da variável DIFERENÇA
4) Comparar mais de duas amostras independentes
Normal
ANOVA (Análise de Variância)
Não Normal Teste de Kruskal-Wallis.