andeva ii - estadipa

Download Report

Transcript andeva ii - estadipa

ANALISIS DE VARIANZA II
Pruebas después del ANDEVA
Contenido
 Introducción
 Pruebas después del análisis de varianza y su
selección.
 Pruebas de comparación de promedios
 Uso de JMP e Infostat para pruebas de comparación
de promedios
 Contrastes y su análisis
 Uso de JMP e Infostat para análisis de contrastes
 Regresión de tratamientos cuantitativos
 Polinomios ortogonales y uso de JMP e Infostat para
polinomios ortogonales
 Regresión de tratamientos y uso de JMP e Infostat
para su cálculo.
2
Objetivos
Describir las opciones de análisis de medias
después de realizar el ANDEVA.
Identificar los principios de las pruebas de
hipótesis de comparaciones múltiples de medias.
Describir la prueba de comparación de medias de
Tukey.
Describir las pruebas de hipótesis sobre contrastes
planeados y no-planeados.
Describir las pruebas de regresión de tratamientos
cuando éstos son cuantitativos.
3
Introducción
La prueba de F del análisis de
varianza en un modelo de clasificación
permite saber, en general, si hay
diferencias
entre
las
medias
de
tratamientos.
Esta prueba no especifica cuáles son
los tratamientos que son diferentes.
Es por ello que se pueden realizar
pruebas adicionales para contestar
algunas hipótesis específicas sobre las
medias de tratamientos.
4
Pruebas posteriores al análisis de
varianza
Las pruebas de hipótesis que se pueden hacer
después del análisis de varianza son de tres tipos:
a) Comparaciones planeadas (contrastes)
b) Comparaciones no planeadas:
1. Contrastes ortogonales
2. Comparaciones múltiples de promedios
c) Regresiones con medias de tratamientos
(cuantitativos) y/o contrastes ortogonales para
calcular regresión.
5
Pruebas posteriores al análisis
de varianza
Antes de ver las pruebas se harán comentarios
sobre cuándo se aplica cada prueba.
a) Si se quieren comparar tratamientos
específicos, es conveniente usar análisis de
contrastes. Pero se puede usar también la prueba de
Dunnet para comparar los tratamientos con un
testigo.
b) Si se quiere saber cual promedio (o grupo de
promedios) de tratamientos es mayor (o menor), la
prueba apropiada es la comparación múltiple de
medias.
6
Pruebas posteriores al análisis
de varianza
c) Si los tratamientos a analizar son niveles
cuantitativos de un factor, es conveniente emplear
el análisis de regresión (o los polinomios
ortogonales, que es una forma de regresión).
Se recomienda revisar detenidamente los
objetivos de su investigación o estudio, para
decidir cuales pruebas puede realizar después del
ANDEVA que le proporcionan la información
adecuada y que contestan a sus hipótesis de
trabajo.
Puede haber más de una prueba que interese
en el mismo estudio.
7
Pruebas posteriores al análisis
de varianza
Para el caso de regresión, de polinomios
ortogonales y de contrastes, no es necesario que
los tratamientos sean significativos en el análisis
de varianza.
Pero se debe recordar que generalmente la
significancia de tratamientos está asociada en la
práctica, con la regresión o el contraste que
deseamos analizar.
8
Pruebas de comparación de promedios
Para hacer pruebas de hipótesis sobre las medias de los
tratamientos se comparan dos medias por vez, usando los mismos
criterios que en la prueba de hipótesis para medias de dos
poblaciones.
En el caso de varios tratamientos (equivalente a varias
poblaciones), el error estándar de una media ( Yi ) será:
s Yi 
s 2
ni
donde s2 es el Cuadrado Medio del Error o varianza del error, y ni
es el número de repeticiones que tiene el promedio del tratamiento
i-ésimo.
9
Pruebas de comparación de promedios
La diferencia de dos medias, Yi y
estimarse por d =
Yj , puede
Yi  Yj , con un error estándar :
1
1
sd  [s (  )]
ni n j
2

donde ni y nj son las repeticiones que tiene
cada media respectivamente.
10
Pruebas de comparación de promedios
Cuando el número de repeticiones de las dos
medias sean iguales, la fórmula se simplifica:
sd =  [se2*(2/r)]
Donde r representa el número de observaciones que
contiene cada media (repeticiones)
La diferencia mínima significativa (llamada
DMS) entre dos medias con  de probabilidad de
error, será: DMS = sd×t[/2, (gl error)]
11
Comparación múltiple de medias
Ejemplo
Se realizó un experimento con 5 tratamientos y 3 repeticiones.
Los tratamientos están identificados con las letras A, B, C, D, y E.
Las repeticiones con los números 1, 2 y 3.
El análisis de varianza será como:
Fuente
g. l.
Suma
Cuadrados
Cuadrado
Medio
Fc
P{F >Fc}
TRAT
4
SC Tratamientos
SC Trat / 4
CM Trat./ CM Error
0.009
ERROR
10
SC Error =
SC Total –SC Trat.
SC Error/10
TOTAL
14
SC Total
La prueba de hipótesis general del ANDEVA es :
Ho: Todos los tratamientos tienen efectos iguales, versus
Ha: Al menos dos tratamientos son diferentes.
12
Comparación múltiple de medias
Ejemplo
Si la probabilidad de que haya un valor de F como el calculado
es menor que 0.01, entonces se rechaza la hipótesis nula y se concluye
que hay algunas diferencias entre tratamientos.
Si no se tiene programado comparar algún tratamiento particular
con otro u otros, la siguiente etapa en el ANDEVA es realizar pruebas de
comparación múltiple de promedios.
Las pruebas de comparación de promedios se realizan con dos
tratamientos a la vez, por ejemplo:
Ho: µA = µB versus Ha: µA ≠ µB
Una vez concluida esa prueba se sigue con la siguiente prueba, por
ejemplo:
Ho: µA = µC versus Ha: µA ≠ µC
Y así sucesivamente, hasta completar las 10 pruebas que se requieren
para comparar todos los pares de medias de tratamientos entre sí.
13
Comparación múltiple de medias
Ejemplo
Sin embargo, existe un problema:
La probabilidad de los errores de la segunda prueba (error tipo I
y error tipo 2) van a aumentar, debido a que ya se realizó la primera
prueba (y se tiene una probabilidad de haber cometido el error tipo I )
por lo que la probabilidad de cometer el error tipo I en la segunda
prueba será una probabilidad condicional: P{ Rechazar la hipótesis Ho:
µA = µC /Dado que ya se rechazó (o no) la hipótesis Ho: µA = µB ). Esta
probabilidad será ligeramente mayor que el valor de α (0.05 o 0.01)
fijado para la primera prueba.
Es así que si se partió de una valor de α de 0.05, con las 10
comparaciones que se van a realizar, se puede llegar a un nivel de α de
0.15, o sea, la última comparación va a tener un error de 0.15 en lugar
del de 0.05 inicial.
Es por este problema que se diseñaron e implementaron las
pruebas de comparación múltiple de promedios, para trabajar con
niveles controlados tanto del error tipo I, como del error tipo II.
14
Pruebas de comparación múltiple de
promedios
El error tipo I de las pruebas de hipótesis
consiste en rechazar la hipótesis nula, cuando ésta
es en realidad cierta. La máxima probabilidad de
cometer el error tipo I se puede fijar “a priori” con el
valor α.
En el caso de comparaciones múltiples entre
pares de medias en forma simultánea, las
probabilidades de cometer el error tipo I para todas
las pruebas aumenta en forma secuencial a medida
que se van realizando las pruebas entre pares de
medias.
15
Pruebas de comparación de promedios
La probabilidad de cometer el error tipo I en la
segunda comparación de promedios no es
independiente de la probabilidad de haberlo
cometido en la primera, de tal forma que las
probabilidades de error tienden a crecer.
En las pruebas de comparación múltiple de
promedios, también se afecta la probabilidad de
cometer el error tipo II, o sea, no rechazar una
hipótesis nula que es falsa.
16
Pruebas de comparación de promedios
Las pruebas de comparación múltiple de promedios suponen:
A. Que se rechazó la hipótesis nula en el ANDEVA con cierto
nivel de significancia α (Comúnmente α ≤ 0.05).
B. Que las desviaciones estándar dentro de cada tratamiento
son homogéneas para todos los tratamientos
Y como consecuencia de B,
C. Que la desviación estándar de una media se puede estimar
con la desviación estándar del error del análisis de varianza
(s2ε).
17
Pruebas de comparación de promedios
Prueba múltiple de t de Student o Prueba DMS
Es la prueba más simple, y consiste en comparar
cada par de medias (ordenadas o no).
DMS = sd  t[/2, (gl error)]
La prueba de DMS no toma en cuenta la
probabilidad de error acumulativo de las pruebas
simultáneas, por lo que no es una prueba
recomendada.
18
Pruebas de comparación de promedios
Las pruebas de comparación múltiple de
promedios son de dos tipos: Las que controlan la
probabilidad de cometer el error tipo I conjunto,
llamadas pruebas de “error por experimento”, y las
que controlan el “error por prueba”.
19
Pruebas de comparación de promedios
Las pruebas de Tukey y Scheffé, entre
otras, controlan el error por experimento.
Las pruebas de Duncan, Duncan-Waller,
Student-Newman-Keuls y otras similares,
controlan el error por prueba, y ponen mayor
énfasis en el control de la probabilidad de
cometer el error tipo II.
20
Prueba de Tukey
El juego de hipótesis es:
Ho: Media Trat i = Media Tratj
(para todos los pares de tratamientos)
Ha: Media Trat i difiere de Media trat j.
Se procede en la siguiente forma:
1. Se ordenan las medias de mayor a menor:
{Y(t),Y(t-1),..,Y(1)}
21
Prueba de Tukey
2. Se calcula el estadístico de prueba:
Tuk = Q[,(t,gl. error)]Sy
donde el valor de Q se encontrará en las
tablas de Rangos Estudentizados Máximos, con 
de probabilidad de rechazo, t tratamientos, y gl
grados de libertad del error. El valor de sY es la
desviación
estandar
de
las
medias
de
tratamientos, mencionada en párrafos anteriores.
22
Prueba de Tukey
3. Calcule la diferencia entre la media mayor con la menor: Y(t) -Y(1) =
d (t)
Compare esta diferencia con el valor Tuk. Si la diferencia es
mayor, entonces las dos medias difieren significativamente; si no,
ahí termina la prueba.**
4. Continúe comparando la media mayor con la siguiente menor y
repita la decisión del paso 3, hasta que llegue a la comparación de
las medias contiguas.
Continuará el proceso con la siguiente mayor comparada contra
la menor, hasta que no encuentre más diferencias significativas.
5. Resuma los resultados en una tabla con las medias ordenadas e
indicando con letras o con líneas las medias que son iguales
estadísticamente.
23
Prueba de Tukey
Ejemplo:
En un experimento de digestibilidad “in vivo” de 5
diferentes variedades de frijol (con 6 repeticiones), se
realizó el siguiente análisis de varianza:
Fuente
gl
Suma de
Cuadrados
Cuadrado
Medio
F calculada
Variedades
4
453.53
113.38
14.59**
Error
25
194.33
7.77
Total
29
647.87
24
Prueba de Tukey
Los estadísticos adicionales son:
R² =0.70, CV=3.53, s(Error) = 2.79, Media general=78.93.
El valor de Q de tablas, con 5 tratamientos, 25 gl error, y
=0.05, es de 4.153.
Sy = 2.79/6 = 1.139
Tuk= 4.153* 1.139 = 4.7275
VAR D
VAR B
VAR A
VAR E
VAR C
84.83
80.00
78.83
78.33
72.67
a
b
b
b
c
25
Prueba de Tukey en JMP
Prueba de Tukey usando el ejemplo de donas
26
Pruebas de comparación múltiple de medias en
Infostat (I)
Para realizar la prueba se usa el menú de análisis de varianza, donde se indica la variable
dependiente del modelo (Grasa), y las variables de clasificación (Trat, que son los tipos de masas).
Se oprime Aceptar, y aparecerán las tres ventanas opcionales: Modelo, Comparaciones y Contrastes.
Se escoge Comparaciones y en la lista de pruebas se escoge Tukey. Además, el nivel de
significación (0.05), la forma de presentación de las medias (Orden ascendente), y si se quiere un
gráfico de barras. Hay otras opciones que se explicarán en clase.
Prueba de Tukey usando el ejemplo de donas
27
Pruebas de comparación múltiple de medias en
Infostat (II)
Prueba de Tukey usando el ejemplo de donas
Los resultados serán: Un resumen del ajuste del modelo, un cuadro de Análisis
de Varianza y una prueba de Tukey con el cuadro de medias y las letras. Por
otro lado, aparecerá la gráfica de barras con las diferencia de Tukey.
28
Análisis de contrastes
Sean t medias de tratamientos que estamos
comparando en el Andeva.
Un contraste será: C = citi , donde las ti son los
efectos de tratamientos y las ci son constantes tales
que  ci=0.
Un estimador del contraste será:
Ce= (ciYi.)/ni,
donde Yi. es la suma de las observaciones del
tratamiento i-ésimo, ni es el número de observaciones
que tiene el tratamiento i-ésimo y ci son las constantes
de las que se habló arriba.
29
Análisis de Contrastes
Hipótesis para un contraste:
Ho: C = 0 ; Ha: C  0
Nivel de significancia :
El mismo que se usa para la prueba de F del análisis de
varianza ().
Estadísticos de prueba :
t = Ce / sCe , donde sCe = se (ci2/ni)
F = CMCe / CME
donde CMCe= (Ce)2 / (ci2/ni)
CME= Cuadrado Medio del Error en el ANDEVA, (se2).
30
Análisis de Contrastes
Sea un experimento donde se están probando
cuatro dietas, dos de las cuales contienen vitamina B12
y las otras dos contienen antibióticos, ambas en
diferentes dosis. Hay 5 pacientes por dieta, y se está
midiendo el contenido de hierro. Denominaremos a las
medias como ab11, ab12, ab21, y ab22 para antibióticos
y vitamina B12 respectivamente.
El análisis de la varianza nos reporta que el
cuadrado medio del error fue de 0.00366, y la suma de
cuadrados de tratamientos fue de 0.4124.
31
Análisis de Contrastes
Se desea comparar las dietas con vitamina B12
contra las dietas con antibióticos, y a su vez, las
dosis de vitamina B12, y las dosis de antibióticos.
C1= (AB11 + AB12) - (AB21 + AB22)
Compara las dos medias de antibióticos a la
dosis 1 contra las medias que contienen
antibióticos a la dosis 2.
32
Análisis de contrastes
C2= (AB11 - AB12) + (AB21 - AB22)
Compara las dos medias de vitamina B12 a la
dosis 1 contra las medias que contienen vitamina B
a la dosis 2.
C3= (AB11 - AB12 - AB21 + AB22)
Compara la media con vitamina B a la dosis 1
contra la media que contienen vitamina B a la dosis
2, en los tratamientos que tienen antibióticos a la
dosis 1; y hace la misma comparación para el nivel
2 de antibióticos (Este contraste estima la
interacción entre antibiótico y vitamina B).
33
Análisis de contrastes
Se desea comparar las dietas con vitamina B12
contra las dietas con antibióticos, y a su vez, las
dosis de vitamina B12, y las dosis de antibióticos.
C1= (AB11 + AB12) - (AB21 + AB22)
Compara las dos medias de antibióticos a la
dosis 1 contra las medias que contienen
antibióticos a la dosis 2.
34
Análisis de contrastes
El análisis planteado en forma manual será como
en el cuadro siguiente:
TRAT
AB11 AB12
AB21
AB22
Ce
Divisor
SC(Ce)=(Ce)²/ Div
Yi.
3.57
3.10
3.66
4.63
ni
3
3
3
3
C1
-1
-1
1
1
-0.54
1.33
0.2192
C2
-1
1
-1
1
-0.167
1.33
0.0210
C3
-1
1
1
-1
0.48
1.33
0.1732
Suma= 0.4134
La fórmula general es:
Ce = (cijYi.)/ni , DIV= (cij2/ni), y SC(Ce) = (Ce)2/DIV.
35
Análisis de Varianza de Contrastes
Fuente
gl
S. de
Cuadrados
Cuadrado
Medio
F calculada
Trat.
3
0.4134
0.1375
37.46**
C1
1
0.2192
0.2192
59.73**
C2
1
0.0210
0.0209
5.69*
C3
1
0.1732
0.1732
47.19**
Error
8
0.0293
Total
11
0.4427
0.00367
36
Procedimiento para analizar contrastes
(JMP)
1. Se realiza el ANDEVA en JMP usando Fit Model.
2. En la ventana de resultados se escoge “Effect
Details”. En ese submenú está la opción de
contrastes.
3. Se escoge adicionar contrastes, y aparecerá una
ventana con una tabla donde en las hileras están
los tratamientos, y consiste de tres columnas: Una
con coeficientes (al inicio serán todos 0) y las dos
siguientes serán signos de + y de -.
37
Procedimiento para analizar
contrastes (JMP)
4. Se oprime el mouse en la columna de +, si se
quiere poner signo positivo al tratamiento del
contraste, o en la columna de – si se quiere poner
signo negativo.
5. Se completan los signos de todos los tratamientos
que se van a incluir en el contraste. A los
tratamientos que no están incluidos en el
contraste no se les pone signo, así permanecerán
con un coeficiente de 0.
6. Los resultados del análisis del contraste
aparecerán en la parte inferior de la ventana del
efecto analizado.
38
Procedimiento para analizar
contrastes (JMP)
Este es un ejemplo con los datos de DONAS,
donde se realizó un contraste entre la masa 2 y la
masa 4.
39
Procedimiento para analizar
contrastes (Infostat)
El procedimiento es similar al del JMP, pero
está en las opciones del análisis de varianza en el
submenú “Contrastes”. El proceso se ilustra más
adelante con polinomios ortogonales.
40
Regresión de tratamientos
cuantitativos
En los casos en que los tratamientos son
cuantitativos, una prueba apropiada después del
análisis de varianza, consistirá en comprobar si
hay algún tipo de regresión entre la respuesta (Y)
y los niveles de los tratamientos.
Para esto se
procedimientos:
puede
optar
por
dos
 Estimar un modelo de regresión usando las
medias de tratamientos como Y, y los niveles de
tratamientos como X.
41
Regresión de tratamientos
cuantitativos

Estimar
polinomios
contrastes apropiados.
ortogonales
usando
Con el ejemplo siguiente veremos el uso de los
dos procedimientos.
42
Polinomios ortogonales
Los polinomios ortogonales son una forma de
contraste donde lo que se quiere saber es si existe
una regresión (lineal simple, cuadrática, de tercer
grado, etc..) entre la variable dependiente y los
niveles del tratamiento cuantitativo.
En lugar se los valores reales del tratamiento
cuantitativo se usan transformaciones lineales que
hacen independientes los términos de la regresión.
De esta forma se tienen contrastes para la
regresión lineal simple, para el término cuadrático,
cúbico, etc.
43
Polinomios ortogonales
Los valores de X para hacer contrastes del tipo
de polinomios ortogonales van a depender del
número de niveles que tiene el tratamiento
cuantitativo estudiado.
Estos valores se pueden obtener de tablas de
coeficientes para polinomios ortogonales (están en
las lecturas complementarias de este tema)
44
Regresión de tratamientos cuantitativos
Se realizó un experimento para comparar la
textura de 5 tipos de chocolate, clasificados en
cuanto a su contenido de manteca de cacao en
porcentaje: 35, 40, 45, 50, 55.
Se usaron 6 panelistas para evaluar
sensorialmente cada muestra de chocolate en
forma
ordenada de peor a mejor textura
(calificación de 1 a 5).
Los datos están en una escala de orden, y
fueron transformados para “normalizarlos”.
45
Regresión de tratamientos
cuantitativos
MUESTRA
45%
40%
55%
50%
35%
1
0
-0.5
1.16
0.5
-1.16
2
-0.5
0
0.5
1.16
-1.16
3
0
0.5
1.16
-0.5
-1.16
4
-1.16
-0.5
1.16
0.5
0
5
0
-0.5
0.5
1.16
-1.16
6
0
-1.16
1.16
0.5
-0.5
Medias
-0.277
-0.360
0.940
0.553
-0.857
46
Polinomios ortogonales
(JMP)
47
Polinomios ortogonales
(JMP)
48
Polinomios ortogonales
(Infostat)
49
Polinomios ortogonales
(Infostat)
50
Regresión de tratamientos
cuantitativos
Los datos y el modelo para estimar regresión serán
los siguientes:
Y  b X b X 
i
0
i
1
2
i
i
X
35
40
45
50
55
Y
-0.857
-0.360
-0.277
0.553
0.940
51
Regresión de tratamientos
cuantitativos
Se realizarán cálculos usando el JMP.
52
Regresión de tratamientos
cuantitativos
Se realizarán cálculos usando el JMP.
53
EJERCICIO
Compare los resultados de las dos
formas de estimar la regresión de
tratamiento.
a)
b)
Han cambiado los resultados?
Si cambiaron,
diferencias?
¿En
qué
estriban
las
54
Resumen
 Selección de las pruebas posteriores al ANDEVA
 Pruebas de comparación de promedios
 Uso de JMP e Infostat
comparación de promedios
para
pruebas
de
 Contrastes y su análisis
 Uso de JMP e Infostat para análisis de contrastes
 Regresión de tratamientos cuantitativos
 Polinomios ortogonales y uso de JMP e Infostat
para polinomios ortogonales
 Regresión de tratamientos y uso de JMP e
Infostat para su cálculo.
55