Aula 5 - FMRP/USP

Download Report

Transcript Aula 5 - FMRP/USP

OBJETIVO : Comparar as médias de mais de duas amostras
independentes.
Porque não posso comparar as médias duas a duas com testes t ?
Exemplo com 3grupos : 1X2, 1X3 e 2X3.
Em cada teste que realizo tenho uma chance de erro do tipo I () que
estabeleço igual a 0.05. Se realizo 3 testes estes meu erro é multiplicativo
então minha chance que de não cometer o erro que era de (1 - 0.05) será
de (1 - 0.05)* (1 - 0.05)* (1 - 0.05) = 0.857 e  = 0.143, bem maior do
que estipulamos. Consequência : Rejeitaríamos HO mais do que
deveríamos, encontraríamos mais diferenças significativas do que elas
realmente existem.
O teste estatístico que veremos protege contra este tipo de situação
comparando simultaneamente mais de duas médias. Fixa o meu erro.
Variáveis envolvidas:
1-A var. referente aos grupos que serão comparados, que pode ser cat.
nominal (Pr/Br/Am), cat. Ordinal ou quantitativas contínuas ou não, desde
que categorizadas em 2 categorias (0-20/21-40/41 ou +).
Neste teste são bastante conhecidos por FATORES ou tratamentos.
2 - A var. que será propriamente comparada, que deve ser numérica
(contínua ou discreta). Há grande controvérsia quanto às ordinais,
teoricamente não, mas no mundo real utiliza-se bastante também as
ordinais.
Exemplos:
- A média da taxa de glicemia é equivalente entre as raças (preto,branco e
amarelo)
- O tempo gasto para o alivio da dor é equivalente entre as drogas A, B, C
e o placebo
- A o valor da escala de depressão (BECK) varia conforme grupo com
IMC < 20, com IMC entre 20 e 25 e com IMC > 25
SUPOSIÇÃO : 1 - A variável que será comparada (2) precisa ter
distribuição normal, é necessário realizar um teste de normalidade antes,
c.c, a eficácia do teste é bastante questionável. O procedimento correto é
testar a normalidade para cada nível da var. categorizada, cada nível do
FATOR (Usualmente testa-se somente a variável como um todo).
2 - A amostras precisam ter variâncias equivalentes, os fatores precisam
ter variância iguais. HOMOCEDASTICIDADE das variâncias.
Raramente vejo alguém realizar esta verificação. OBS.
3 - As observações (xi) de cada grupo são independentes uma das outras,
e as amostras são independentes entre si.
Graficamente
Tese de hipótese associado
H0: Média da amostra 1 = Média da amostra 2; ...= Média da amostra n
X
H1: Média da amostra i  Média da amostra j;
para i  j
Teste estatístico: Verificada e não rejeitada a hipótese de
normalidade e a homocedasticidade é o teste conhecido por
Análise de Variância ou ANOVA.
Lógica do teste: Suponha K amostras
Am.1 Am.2....Am.k
Se tudo é casual ,todas as variações
x11
x12
x1k  Mx1. s1. são casuais, a variação DENTRO
x21
x22
x2k Mx2. s2. de cada amostra deve equivalente
x31
x32
x3k
a variação ENTRE cada amostra.
xn1
xn2
xnk Mxk. Sk. Variação ENTRE = 1
Mx.1 Mx.2 Mx.k
Mx..
Variação DENTRO
s.1
s.2
s.k
Am.1 Am.2....Am.k
x11
x12
x1k 
x21
x22
x2k
x31
x32
x3k.
xn1
xn2
xnk
Mx.1 Mx.2 Mx.k
s.1
s.2
s.k
A variação ENTRE é a soma
dos desvios das médias das
amostras em relação à média
total  ni(Mx. - Mx..)²
Mx1. s1.
Mx2. s2.
Mxk. Sk.
Mx..
A variação TOTAL é a soma dos
desvios de cada observação em
relação à média Total
  (xij - Mx..)²
Como var. TOTAL = var. ENTRE + var. DENTRO, a var. DENTRO
é calculada em função das outra duas.
TABELA DA ANOVA
Fontes de variação Soma dos Quadrados
Entre
 ni(Mx. - Mx..)^2
Dentro
Total - Entre
Total
  (xij - Mx..)^2
g.l. Qua. Médio
k-1
F
SQ/(K-1) QMEntre
N-k SQ/(N-k) QMDentro
N-1
A estatística (Quadr.médio ENTRE)/(Quadr. Médio Dentro) tem uma
distribuição tabelada conhecida por F ( de Snedecor).
Então acho o valor da est. e comparo com o valor da distribuição F com
(N-1);(N-k) g.l. e nível de significância adotado. OU (mais comum)
verifico qual a probabilidade do valor da est. numa distr. F com (N-1);
(N-k) g.l. e comparo com = 0.05. Se for menor rejeito HO.
Observe que na tabela F tenho
que verificar dois graus de
liberdade. Um relativo a variação
Entre e outro a variação Dentro
Exemplo direto no Minitab: Desejo
comparar as notas (0 -100) no
provão de 4 faculdades.
Vou em ‘Stats’ e daí em
“ANOVA” e depois “One-way”
Na nova tela coloco a var. Nota
(que contém os valores) em
‘Response’ e a var. Fac (que
contém a que faculdade o aluno
pertence) em ‘Factor’. E OK
Na saída há a tabela da Anova, com os g.l, SQ, QM, a estatística F e “p”.
Além disso temos o tamanho da amostra, média, dp para cada nível do
fator.
Portanto Rejeito H0. Concluo que há diferença significativa
entre as amostras, mas quem é diferente de quem ?
Quando rejeito H0 em uma ANOVA necessito realizar um teste post hoc.
Este teste é que indicará quem é diferente significativamente de quem.
Existem muitos testes post hoc, cada um tem sua característica e é
indicado para situações específicas. O Minitab fornece dois bastante
utilizados, o de TUKEY, que veremos, e o de DUNNET que é utilizado
quando uma das amostras é um controle que desejamos comparar com as
demais.
Na tela da ANOVA clicamos em
‘COMPARISONS” e obtemos a tela
ao lado.
Nesta tela optamos por “Tukey’s, o
valor 5 corresponde a 0.05 e é o default.
E OK.
No output verificamos que há 6 intervalos de confiança, cada um referese a uma comparação específica, nesta ordem: 1x2, 1x3, 1x4, 2x3, 2x4 e
3x4.
Regra: Se o 0 não estiver dentro do intervalo há diferença significativa
entre os dois fatores, c.c., se o 0 estiver dentro do intervalo não há
diferença significativa entre os fatores. Quais as diferenças significativas ?
Resultado final é: Há diferença quanto às faculdades: F1 > F2 > (F3=F4)
Lembre que devemos testar a normalidade (vocês já estão cansados de
saber como) e devemos testar também a homocedasticidade das variâncias
Em ‘Anova’ vamos em ‘Test for Equal Va
Riances”. Lembre que nossa H0 neste tipo de
teste é que as variâncias são equivalentes e
H1 de não equivalência.
O preenchimento é o mesmo, a var.
com os valores em ‘Response’ e a
var. do grupo em ‘Factors’
Test for Equal Variances
Response
Prova
Factors
Fac
ConfLvl
95,0000
Bonferroni confidence intervals for standard
deviations
Lower
Sigma
Upper
N Factor
11,6940
14,5611
19,1065
54
1
12,7417
14,9885
18,1156
103
2
10,5853
13,8308
19,6191
35
3
9,2218
15,4712
39,7042
8
4
Bartlett's Test (normal distribution)
Test Statistic: 0,360
P-Value
: 0,948
Temos na saída um
intervalo de confiança
para o dp de cada fator,
e o resultado do teste
de Bartlett que compara
mais de dois dp’s .
Com p = 0.948, não
rejeito H0 e assumo a
igualdade das variâncias.
Resumindo :
1 - Teste a normalidade da variável (se não for normal tente
alguma transformação).
2 - Verifique a homocedasticidade das variâncias.
3 - Se rejeitar HO, aplique um teste post hoc.
Vimos a situação em que comparamos uma var. “ numérica” entre os níveis de uma outra var. categórica ou “ categorizada”. Podemos efetuar este
mesmo raciocínio para mais de uma var. categorizada ao mesmo
tempo e verificar se existe uma interação entre as variáveis
categorizadas, p.exp:
-Sexo e Raça influem nos valores de uma escala de ansiedade;
-Escolaridade e Presença de trauma influem no tempo de resolução de um
teste;
-Renda (categorizada) e Situação conjugal influem nos resultados de um
teste de stress ?
Em situações como esta, em que as variáveis independentes são duas ou
mais, podemos dizer que estamos realizando uma análise multivariada,
nas situações anteriormente vistas tínhamos sempre uma var. dependente
e uma independente, análise univariada, agora com duas vars. , multi, aná
lise multivariada.
Tipos de variáveis: 1- A dependente, que deve ter dist. Normal e homocedasticidade das variâncias; 2 - As independentes que precisam ser categorias e um número mínimo em cada categoria (n = 10). Conselho
Um pesquisador deseja saber se 4 diferentes tipos
de droga, bem como a raça (3 categorias, raças)
tem influência sobre os valores de uma determinada
medida em ratos .
Observe que colocamos cada variável em uma coluna.
O método estatístico utilizado é conhecido por
“ANOVA TWO WAY”, devido as duas variáveis,
ou “ANOVA com 2 Fatores”, porém no Minitab a
utilização deste método requer um experimento BALANCEADO, i. é,
todas as combinações de Droga e raça (4 X 3 = 12 ) precisam ter o mesmo tamanho amostral.
Quando isto não ocorre (experimento não balanceado) o Minitab não realiza o teste. Usaremos então o módulo “General Linear Model”.
Em “ANOVA” vamos em
“General Linear Model.
Nesta tela alocamos a var. resposta,
dependente, em ‘Response’, as vars.
independentes, os fatores, alocamos
em ‘ Random factors’ e na janela
referente a ‘Model’ explicitamos o
modelo que desejamos com os dois
Fatores e a interação: Droga, Raça,
Droga*Raça. E “OK”.
No output temos as vars. com os números de níveis de cada uma e a tabela
da Anova. O que esta abaixo não nos
interessa.
Na Anova vemos que há uma diferença significativa entre as Drogas ( p =
0.008), não há diferença significativa
entre as Raças (0.81)e a interação não
foi significativa (p = 0.60).
A interação verifica, testa, se a eventual diferença encontrada em uma var.
permanece a mesma nos diferentes níveis da outra var., ou seja, será que a
diferença encontrada entre as drogas é a mesma para as diferentes raças ?
Como a interação do nosso exemplo não foi significativa (p = 0.60), concluímos que sim. Se a interação fosse significativa (p ≤ 0.05) teríamos que
a diferença entre as drogas variaria significativamente conforme a raça
Para sabermos quem difere de quem nas drogas podemos utilizar o ícone de
“Multiple Comparisons” da “ANOVA ONE WAY”:
Perceba que quando fazemos um teste como este estamos realizando 3
testes de hipótese:
1 - que compara os níveis da var. Droga;
2 - //
//
// // // // Raça;
3 – o que verifica a interação; se as diferenças encontradas nos níveis de
um determinado fator variam ou não significativamente conforme os
níveis do outro fator (variável).
Outro exemplo: Desejamos verificar se 3 diferentes tipos de terapia e o nível sócio-econômico (com 3 categorias) influem em uma escala.
Observe, novamente, como
fica a nossa tela no GLM do
Minitab.
Da tabela da Anova, inferimos que há
diferença significativa entre as classes sociais, e que esta diferença varia
conforme a terapia utilizada, a interação foi significativa ( p = 0.019).
Temos que Nse = 1 tem média 144.8; Nse = 2 tem média 107.6; Nse = 3
tem média 64.2, portanto NSE 1 > NSE 2 > NSE 3. MAS isto é para o geral, esta relação muda conforme a terapia.
Observando as médias dos NSE dentro de cada
terapia será que a relação Nse 1 > Nse2 > Nse 3
mantém-se em cada uma as terapias ? Não.
Dependendo do objetivo do pesquisador pode-se
realizar uma Anova one-way para cada terapia.
O raciocínio da Anova com 2 fatores pode ser extendido para n fatores,
uma Anova n fatorial (multifatorial), tantas quantas forem as vars. independentes. Vejamos um caso com 3 vars.
Desejamos testar se uma var. dependente (Esc2) sofre influência do Sexo,
Trauma (Sim/Não) e da Idade categorizada em 3 níveis.
Ao lado temos como nossa tela do GLM é organizada.
No output temos que a Idade
influi na escala e esta influência varia conforme o Sexo
Como já foi dito, pode-se extender o raciocínio para mais variáveis independentes, porém não é muito comum pois:
a)Devido a dificuldade de interpretação dos resultados, não é fácil“enxergar
o que realmente está acontecendo;
b)É necessário uma amostra grande, consistente, que tenha uma quantidade
razoável de sujeitos em cada nível de cada variável;
c) O experimento precisa ser minimamente balanceado, ou seja, todos os
possíveis cruzamentos necessitam ter um número de amostra parecido e
não muito pequeno.
Quando temos muitas variáveis dependentes usualmente realizam-se as
análises univariadas e para a análise multivariada selecionamos aquelas
que na análise univariada apresentaram um “p” menor que um valor préestabelecido (p ≤ 0.20 ou ≤ 0.10 ou ≤ 0.05) e as vars. que o pesquisador
acredita terem importância.
Na situação em que temos muitas vars. dependentes, ou mesmo poucas mas
o experimento não é balanceado (quando determinados níveis de uma ou
mais vars. não possuem amostra suficiente), utiliza-se a Anova mas sem
testar-se as interações, é a Anova somente com os efeitos principais.
Todos os testes vistos até agora (teste z, teste t para uma amostra,
teste t para amostras independentes, teste t para amostras pareadas e
Anova) possuem um ponto em comum e necessário para que possam
ser aplicados: NORMALIDADE, a variável que esta sendo
comparada necessita ter distribuição Normal
Mas e quando rejeitamos a normalidade ou está claro que os dados
não possuem distribuição Normal, o que fazer ?
Em 1o. Lugar podemos tentar aplicar uma transformação em nossos
dados originais. Algumas transformações são bastante conhecidas e
em boa parte das vezes levam nossos dados que não possuem
normalidade a uma distribuição normal. No Minitab na barra de
ferramentas na função Calc. E depois Calculator.
São elas : Log, Ln, Raiz quadrada, Arcseno, 1/x ...
Entretanto nem sempre as transformações funcionam e há o caso
de amostras muito pequenas, onde não é possível nem testar a
normalidade
Nestes casos iremos utilizar testes conhecidos por
NÃO-PARAMÉTRICOS
Os testes não-paramétricos também são conhecidos por testes de
distribuição livre (Free), pois não exigem nenhuma condição quanto à
forma da distribuição dos dados.
1 - O teste análogo ao teste t para duas amostras independentes é o teste
de MANN-WHITNEY, cujo objetivo é comparar se a média (mediana)
de uma amostra possui valor equivalente ao da outra amostra.
O tópico referente às variáveis envolvidas é equivalente ao do teste t
para duas amostras independentes, com ênfase que este método é
bastante utilizado com variáveis qualitativas ordinais.
O teste de hipótese associado é :
HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X
H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2.
Suposição: Não há suposição de normalidade, mas há a suposição
de independência entre as unidades amostrais (xi).
Procedimento: Exemplo: Desejamos comparar os scores de dois grupos
para um determinado teste psicológico:
Valores do grupo A: 5, 10, 2, 8 ,9, 1, 12
Valores do grupo B: 4, 3, 5, 0, 6, 7, 2
O 1o. passo é ordenar as duas amostras simultaneamente e atribuir
RANKS ( em português POSTOS) a ordenação
Valor Rank
Valor Rank
0
1
6
9
Após esta operação retornamos
1
2
7
10
aos grupos os valores dos ranks
2
3.5
8
11
2
3.5
9
12
Grupo A: 7.5, 13, 3.5, 11, 12, 2, 14
3
5
10
13
Grupo B: 6, 5, 7.5, 1, 9, 10, 3.5
4
6
12
14
5
7.5
Com este valores (ranks) é que
5
7.5
serão efetuados os cálculos do teste.
A estatística T = S - ni(ni+1)/2 onde S =  (Ranks de uma das
amostras tem uma distribuição tabelada.ni= Tamanho da amostra
escolhida.
Então S = 7.5 + 13 + ... + 14 = 63 e T = 63 - (7*8)/2 = 35 que equivale
na tabela específica a um p value = 0.20, logo não rejeitamos H0
(0.20 > 0.05).
Desejamos comparar a renda de
homens e mulheres numa determina
da função.
‘Stats’, daí vamos em “Nonparame
trics” e depois em “Mann-Whitney.
Observe que apesar das amostras
serem independentes elas estão
em colunas diferentes.
Aloco uma amostra em “First Sample”,
a outra amostra em “Second Sample”.
Observe que optei por um teste bicaudal
e OK
No output temos os tamanhos de
amostra, as medianas, um intervalo de confiança para a diferença
das medianas, a estatística
calculada teste de hipótese, seu
tipo e o p-value.
Mann-Whitney Test and CI: renmas; renfem
renmas
N = 13
Median =
518,1
renfem
N = 19
Median =
401,1
Point estimate for ETA1-ETA2 is
101,4
95,4 Percent CI for ETA1-ETA2 is (23,2;286,0)
W = 219,0
Test of ETA1 = ETA2 vs ETA1 not = ETA2
is significant at 0,0193
The test is significant at 0.0189 (adjusted for
ties
Portanto rejeitamos H0.
Para fugir de polêmicas,
conclua assim :
O sexo masc. apresentou valores significativamente superiores aos do fem.
2 - O teste análogo ao teste t para duas amostras pareadas é o teste de
WILCOXON, cujo objetivo é comparar as médias (medianas) de duas
amostras correlacionadas, pareadas, ou seja, não independentes .
Tudo o que foi visto anteriormente a respeito das duas medidas serem
realizadas na mesma unidade amostral contínua válido aqui.
O tópico referente às variáveis envolvidas é equivalente ao do teste t
para duas amostras pareadas, com ênfase que este método é bastante
utilizado com variáveis qualitativas ordinais.
O teste de hipótese associado é: HO: A diferença entre as medianas
(médias) = 0; X H1: A diferença entre as medianas (médias)  0
Observe que este teste é semelhante a testarmos , se a “variável” diferença
difere ou não significativamente de 0.
Suposição: A variável ‘DIFERENÇA’ não necessita ter distribuição
normal, a suposição de independência entre as diferenças é necessária..
Infelizmente o Minitab não possui um módulo específico para a
realização do teste de Wilcoxon para amostras pareadas.
Adotaremos um procedimento que fornecerá o mesmo resultado.
Procedimento:Exemplo: Desejamos comparar o % de resposta
de um tipo de tratamento em dois lotes de células tumorais:
Após calcular as diferenças entre a unidades
amostrais realizarei u m teste que verifica se
a mediana das diferenças é equivalente a 0
H0: Antes = Depois  Antes - Depois = 0
Diferença = Antes -Depois  H0:Diferença = 0
X H1 : Diferença  0
Após digitar meus grupos A e B nas colunas
C1 e C2, na barra de ferramentas vou em
“Calc” e daí em “Calculator”
Na tela resultante no espaço “Expression”
indico a operação que desejo, que é
var. A - var.B, e aviso que desejo
armazena-lá na coluna C6 em
“Store result ... “. E OK
Depois vamos em ‘Stat’, “Nonparametrics”
e daí em “1-Sample Wilcoxon”
Na tela do teste especificamos a variável
C6 (Diferença), ativamos “Test median”
e colocamos o valor 0
Wilcoxon Signed Rank Test: C6
Test of median = 0,000000 versus median not =
0,000000
N for
Wilcoxon
Estimated
N
Test Statistic
P
Median
C6 9
8
33,0
0,042
5,000
Na saída temos o teste de hipótese,
o p-value e a mediana estimada.
Rejeitamos H0, portanto a diferença entre
as amostras A e B e A > B, pois a mediana
estimada é positiva.
3 - O teste análogo ao teste para comparar mais de duas amostras
independentes (ANOVA) é o teste de KRUSKAL-WALLIS, também
conhecido por Análise de Variância Não-Paramétrica
O tópico referente às variáveis envolvidas é equivalente ao do teste t
para duas amostras independentes, com ênfase que este método é
bastante utilizado com variáveis qualitativas ordinais.
O teste de hipótese associado é :
HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X
H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2.
Suposição: Não há suposição de normalidade, mas há a suposição
de independência entre as unidades amostrais (xi)e entre as unidades das
diferentes amostras.
A estatística
onde Ri é o ranking
médio de cada amostra
K = número de amostras (fatores, grupos) , N = tamanho total da amostra
e ni = tamanho de cada amostra; tem distribuição Qui-Quadrado com k-1
graus de liberdade.
Exemplo da distribuição QuiQuadrado com g.l. = 4.
Exemplo direto no Minitab: Quero verificar se 3 tratamentos produzem
resultados equivalentes ou não.
‘Stats’, “Nonparametrics”, e daí em
“Kruskal-Wallis”
Na tela alocamos a var. X em”Response
e a var. dos grupos em “Factor”.
Kruskal-Wallis Test: X versus Trat
Kruskal-Wallis Test on X
Trat
N Median Ave Rank
1
10 1,882
8,8
2
10 3,903
24,0
3
10 2,289
13,7
Overall 30
15,5
H = 15,53 DF = 2 P = 0,000
Z
-2,95
3,74
-0,79
Na saída temos para cada fator o
n, a mediana, o rank médio, a esta
tística calculada, os g.l. e o p-value
< 0.001, portanto Rejeito H0, há
diferença entre os tratamentos.
Entretanto, quase sempre desejamos saber quais as diferenças
significativas entre os tratamentos. O Minitab não fornece nenhum teste
post hoc quando rejeitamos H0 em sua ANOVA não-paramétrica.
O teste post hoc utilizado é o de DUNN, portanto pesquise um programa
que faça este teste. Outro recomendado é o de Newman-Keuls, encontra
do nos módulos da ANOVA paramétrica, normal em alguns programas..
1) Comparar uma média (mediana) amostral
Normal
 Teste t para uma amostra
Não Normal  Teste de Wicoxon para uma amostra
2) Comparar duas médias medianas amostrais independentes
(unidades amostrais independentes)
Normal
 Teste t para amostras independentes
Não Normal  Teste de Mann-Whitney
3) Comparar duas médias amostrais pareadas ou correlacionadas
(mesma unidade amostral)
Normal
 Teste t para amostras pareadas ou correlacionadas
Não Normal  Teste de Wilcoxon para amostras pareadas
Normalidade da variável DIFERENÇA
4) Comparar mais de duas amostras independentes
Normal
 ANOVA (Análise de Variância)
Não Normal  Teste de Kruskal-Wallis.