Prévia do material em texto
UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI
INSTITUTO DE CIÊNCIA E TECNOLOGIA
DISCIPLINA CTD 222 – ESTATÍSTICA
EXPERIMENTAL
Testinho II - 18/06/2019
Discentes: Álvaro Vitor Coelho Almeida;
Pedro Augusto Medeiros dos Santos;
Renan de Sousa Santos;
Vitor Lima de Oliveira.
> ##=======================================================
> # Testinho II – 18/06/2019
> ##=======================================================
> # Pacotes que possivelmente serão usados na prova:
> pkg <- c("fBasics", "lmtest","fdth", "BSDA","e1071" )
> install.packages(pkg, dependencies=TRUE, repos="http://cran-r.c3sl.ufpr.br")
>
> # carregar os pacotes
> require(fBasics)
> require(lmtest)
> require(fdth)
> require(BSDA)
> require(e1071)
1) DIC Trasnformação - Um engenheiro eletrônico está interessado no efeito sobre
a condutividade do tubo, de cinco tipos diferentes de recobrimento de tubos de
raios catódicos em uma tela de um sistema de telecomunicações. Os seguintes
dados de condutividade são obtidos:
Tipo de
Recobrimento
Condutividade
A 143 131 150 126
B 152 149 137 143
C 134 133 132 127
D 129 127 132 129
E 147 148 144 142
Pede-se:
a) Análise exploratória.
b) Análise das pressuposições. No caso de não atendimento, fazer a transformação.
c) Proceder à análise de variâncias.
d) Verificar se há qualquer diferença na condutividade devido ao tipo de recobrimento.
##=============================================================
> # Questão 1
##=============================================================
> # Entrando com os dados
> cond <- c(143,131,150,126,
+ 152,149,137,143,
+ 134,133,132,127,
+ 129,127,132,129,
+ 147,148,144,142)
>
> (dados = data.frame(trat = factor(rep(c('A','B','C','D','E'),
each=4)), cond))
trat cond
1 A 143
2 A 131
3 A 150
4 A 126
5 B 152
6 B 149
7 B 137
8 B 143
9 C 134
10 C 133
11 C 132
12 C 127
13 D 129
14 D 127
15 D 132
16 D 129
17 E 147
18 E 148
19 E 144
20 E 142
> attach(dados)
The following object is masked _by_ .GlobalEnv:
cond
The following objects are masked from dados (pos = 3):
cond, trat
>
> # análise exploratória
> (media = tapply(cond, trat, mean))
A B C D E
137.50 145.25 131.50 129.25 145.25
> boxplot(cond ~ trat, las=1, col='red',
+ ylab="Condutividade",
+ xlab="Tipo de Recobrimento",
+ names=c("A", "B", "C", "D", "E"))
> # verificando as pressuposições
> # modelo
> modelo.av <- aov(cond ~ trat)
>
> # 1- Independência dos erros
> par(mfrow=c(2,2))
> plot(modelo.av)
> residuos <- (modelo.av$residuals)
> preditos <- (modelo.av$fitted.values)
> plot(residuos,preditos)
> title("Resíduos vs Preditos")
> respad <- (residuos/sqrt(anova(modelo.av)$"Mean Sq"[2]))
> boxplot(respad)
> title("Resíduos Padronizados")
> hist(respad, main=NULL)
> title("Histograma dos resíduos padronizados")
> qqnorm(residuos,ylab="Residuos", main=NULL)
> qqline(residuos,ylab="Residuos", main=NULL)
> title("Gráfico Normal de Probabilidade dos Resíduos")
> par(mfrow = c(1,1))
>
> #ou pelo Teste de Durbin-Watson
> # H0: autocorrelação igual a zero (independência)
> # H1: autocorrelação diferente de zero (dependência)
> # instala e carrega o pacote lmtest
> require(lmtest)
> dwtest(cond ~ trat, alternative=c("two.sided"), data=dados)
Durbin-Watson test
data: cond ~ trat
DW = 3.1056, p-value = 0.05602
alternative hypothesis: true autocorrelation is not 0
>
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar
H0
> # Ou seja, a correlação é igual a zero, os erros são independentes
>
> # 2- Normalidade
> # H0: dados seguem ~N
> # H1: dados não seguem ~N
> shapiro.test(residuos)
Shapiro-Wilk normality test
data: residuos
W = 0.98367, p-value = 0.9723
>
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar
H0
> # Ou seja, os erros são normalmente distribuídos
>
> # 3- Homogeneidade de variâncias
> # H0: variâncias homogêneas
> # H1: variâncias heterogêneas
> bartlett.test(cond, trat)
Bartlett test of homogeneity of variances
data: cond and trat
Bartlett's K-squared = 9.9585, df = 4, p-value = 0.04113
>
> # Como p-valor foi menor que 0.05, rejeita-se H0
> # ou seja, as variâncias não são homogêneas
>
> # 4- Aditividade
> # não há necessidade para o DIC
>
> # a análise não é válida pois os pressupostos de homodedasticidade
não foram atendidos
>
> # NECESSIDADE DE TRANSFORMAÇÃO NOS DADOS
>
> # transformação de dados => Box-Cox
> # instala e carrega o pacote MASS
> require(MASS)
> boxcox(cond ~ trat, plotit=T)
> boxcox(cond ~ trat,lam=seq(-2.5,-1,1/10))
> boxcox(cond ~ trat,lam=seq(-2.4,-1.7,1/10))
> # Fazendo a trasnformação
> attach(dados)
The following object is masked _by_ .GlobalEnv:
cond
The following objects are masked from dados (pos = 3):
cond, trat
The following objects are masked from dados (pos = 4):
cond, trat
> condbc<-(cond^((-2.1)-1))/(-2.1)
>
> # modelo transformado
> modelot.av<-aov(condbc ~ trat)
>
> # 1- Independência dos erros
> par(mfrow=c(2,2))
> plot(modelot.av)
> residuos <- (modelot.av$residuals)
> preditos <- (modelot.av$fitted.values)
> plot(residuos,preditos)
> title("Resíduos vs Preditos")
> respad <- (residuos/sqrt(anova(modelot.av)$"Mean Sq"[2]))
> boxplot(respad)
> title("Resíduos Padronizados")
> hist(respad, main=NULL)
> title("Histograma dos resíduos padronizados")
> qqnorm(residuos,ylab="Residuos", main=NULL)
> qqline(residuos,ylab="Residuos", main=NULL)
> title("Gráfico Normal de Probabilidade dos Resíduos")
> par(mfrow = c(1,1))
> # Ou pelo Teste de Durbin-Watson
> # H0: autocorrelação igual a zero (independência)
> # H1: autocorrelação diferente de zero (dependência)
> # instala e carrega o pacote lmtest
> require(lmtest)
> dwtest(condbc ~ trat, alternative=c("two.sided"), data=dados)
Durbin-Watson test
data: condbc ~ trat
DW = 3.1002, p-value = 0.05823
alternative hypothesis: true autocorrelation is not 0
>
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar
H0
> # Ou seja, a correlação é igual a zero, os erros são independentes
>
> # 2- Normalidade
> # H0: dados seguem ~N
> # H1: dados não seguem ~N
> shapiro.test(residuos)
Shapiro-Wilk normality test
data: residuos
W = 0.97982, p-value = 0.9318
>
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar
H0
> # Ou seja, os erros são normalmente distribuídos
>
> # 3- Homogeneidade de variâncias
> # H0: variâncias homogêneas
> # H1: variâncias heterogêneas
> bartlett.test(condbc, trat)
Bartlett test of homogeneity of variances
data: condbc and trat
Bartlett's K-squared = 9.1787, df = 4, p-value = 0.05678
>
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar
H0
> # ou seja, as variâncias são homogêneas
>
> # análise de variância
> # H0: não há diferença entre os recobrimentos
> # H1: há diferença(s) entre os recobrimentos
> anova(modelot.av)
Analysis of Variance Table
Response: condbc
Df Sum Sq Mean Sq F value Pr(>F)
trat 4 5.6800e-15 1.4200e-15 6.173 0.003834 **
Residuals 15 3.4505e-15 2.3003e-16
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
>
> # Como o p-valor foi menor que o alfa, rejeita-se H0, ou seja,
> # há pelo menos uma diferença significativa entre os tipos de
recobrimento
>
> # Comparações Múltiplas
> require(agricolae)> teste.tukey = TukeyHSD(modelot.av, 'trat', ord=T)
> teste.tukey
Tukey multiple comparisons of means
95% family-wise confidence level
factor levels have been ordered
Fit: aov(formula = condbc ~ trat)
$trat
diff lwr upr p adj
C-D 6.874122e-09 -2.624265e-08 3.999089e-08 0.9657343
A-D 2.041967e-08 -1.269710e-08 5.353644e-08 0.3566294
B-D 4.036768e-08 7.250913e-09 7.348446e-08 0.0137580
E-D 4.117309e-08 8.056320e-09 7.428986e-08 0.0118942
A-C 1.354555e-08 -1.957122e-08 4.666232e-08 0.7163495
B-C 3.349356e-08 3.767915e-10 6.661033e-08 0.0468275
E-C 3.429897e-08 1.182198e-09 6.741574e-08 0.0406743
B-A 1.994801e-08 -1.316876e-08 5.306479e-08 0.3782381
E-A 2.075342e-08 -1.236335e-08 5.387019e-08 0.3418019
E-B 8.054063e-10 -3.231137e-08 3.392218e-08 0.9999919
> plot(teste.tukey)
> # Instalar e carregar o pacote "multcomp"
> require(multcomp)
> teste.duncan = duncan.test(modelot.av, "trat")
> duncan.test(modelot.av, "trat", alpha=0.01)
> teste.duncan
$statistics
MSerror Df Mean CV
2.300343e-16 15 -1.140231e-07 -13.30159
$parameters
test name.t ntr alpha
Duncan trat 5 0.05
$duncan
Table CriticalRange
2 3.014325 2.285895e-08
3 3.159826 2.396236e-08
4 3.250248 2.464807e-08
5 3.311848 2.511521e-08
$means
condbc std r Min Max
Q25 Q50 Q75
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08
$comparison
NULL
$groups
condbc groups
E -9.461689e-08 a
B -9.542229e-08 a
A -1.153703e-07 ab
C -1.289159e-07 b
D -1.357900e-07 b
attr(,"class")
[1] "group"
>
> teste.snk = SNK.test(modelot.av, "trat")
> SNK.test(modelot.av, "trat", group=FALSE)
> teste.snk
$statistics
MSerror Df Mean CV
2.300343e-16 15 -1.140231e-07 -13.30159
$parameters
test name.t ntr alpha
SNK trat 5 0.05
$snk
Table CriticalRange
2 3.014325 2.285895e-08
3 3.673378 2.785684e-08
4 4.075974 3.090991e-08
5 4.366985 3.311677e-08
$means
condbc std r Min Max
Q25 Q50 Q75
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08
$comparison
NULL
$groups
condbc groups
E -9.461689e-08 a
B -9.542229e-08 a
A -1.153703e-07 ab
C -1.289159e-07 b
D -1.357900e-07 b
attr(,"class")
[1] "group"
>
> teste.HSD = HSD.test(modelot.av, 'trat')
> teste.HSD
$statistics
MSerror Df Mean CV MSD
2.300343e-16 15 -1.140231e-07 -13.30159 3.311677e-08
$parameters
test name.t ntr StudentizedRange alpha
Tukey trat 5 4.366985 0.05
$means
condbc std r Min Max
Q25 Q50 Q75
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08
$comparison
NULL
$groups
condbc groups
E -9.461689e-08 a
B -9.542229e-08 a
A -1.153703e-07 ab
C -1.289159e-07 b
D -1.357900e-07 b
attr(,"class")
[1] "group"
>
> teste.scheffe = scheffe.test(modelot.av, "trat")
> teste.scheffe
$statistics
MSerror Df F Mean CV Scheffe
CriticalDifference
2.300343e-16 15 3.055568 -1.140231e-07 -13.30159 3.496037
3.749361e-08
$parameters
test name.t ntr alpha
Scheffe trat 5 0.05
$means
condbc std r Min Max
Q25 Q50 Q75
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08
$comparison
NULL
$groups
condbc groups
E -9.461689e-08 a
B -9.542229e-08 a
A -1.153703e-07 ab
C -1.289159e-07 ab
D -1.357900e-07 b
attr(,"class")
[1] "group"
>
> teste.bonferroni = LSD.test(modelot.av, "trat", p.adj="bonferroni")
> teste.bonferroni
$statistics
MSerror Df Mean CV t.value MSD
2.300343e-16 15 -1.140231e-07 -13.30159 3.286039 3.524147e-08
$parameters
test p.ajusted name.t ntr alpha
Fisher-LSD bonferroni trat 5 0.05
$means
condbc std r LCL UCL
Min Max Q25 Q50
A -1.153703e-07 2.804161e-08 4 -1.315340e-07 -9.920659e-08 -1.467682e-
07 -8.548655e-08 -1.342586e-07 -1.146132e-07
B -9.542229e-08 1.385643e-08 4 -1.115860e-07 -7.925857e-08 -1.132262e-
07 -8.204754e-08 -1.026599e-07 -9.320772e-08
C -1.289159e-07 9.821337e-09 4 -1.450796e-07 -1.127521e-07 -1.432152e-
07 -1.212707e-07 -1.310972e-07 -1.255888e-07
D -1.357900e-07 6.639231e-09 4 -1.519537e-07 -1.196263e-07 -1.432152e-
07 -1.270579e-07 -1.381364e-07 -1.364434e-07
E -9.461689e-08 5.594717e-09 4 -1.107806e-07 -7.845317e-08 -1.013181e-
07 -8.911881e-08 -9.809379e-08 -9.401534e-08
Q75
A -9.572494e-08
B -8.597016e-08
C -1.234074e-07
D -1.340970e-07
E -9.053844e-08
$comparison
NULL
$groups
condbc groups
E -9.461689e-08 a
B -9.542229e-08 a
A -1.153703e-07 ab
C -1.289159e-07 ab
D -1.357900e-07 b
attr(,"class")
[1] "group"
> # Uso do pacote ExpDes.pt
> require(ExpDes.pt)
> attach(dados)
> dic(trat,condbc,quali=TRUE, mcomp="tukey", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
------------------------------------------------------------------------
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste de Tukey
----------------------------------------------------------------------
--
Grupos Tratamentos Medias
a E -9.461689e-08
a B -9.542229e-08
ab A -1.153703e-07
b C -1.289159e-07
b D -1.3579e-07
----------------------------------------------------------------------
--
> dic(trat,condbc,quali=TRUE, mcomp="duncan", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
----------------------------------------------------------------------
--
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste de Duncan
----------------------------------------------------------------------
--
Grupos Tratamentos Medias
a E -9.461689e-08
a B -9.542229e-08
ab A -1.153703e-07
b C -1.289159e-07
b D -1.3579e-07
----------------------------------------------------------------------
--
> dic(trat,condbc,quali=TRUE, mcomp="snk", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
----------------------------------------------------------------------
--
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste de Student-Newman-Keuls (SNK)
----------------------------------------------------------------------
--
Grupos Tratamentos Medias
a E -9.461689e-08
a B -9.542229e-08
ab A -1.153703e-07
b C -1.289159e-07
b D -1.3579e-07
----------------------------------------------------------------------
--
> dic(trat,condbc,quali=TRUE, mcomp="lsd", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
----------------------------------------------------------------------
--
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste t (LSD)
----------------------------------------------------------------------
--
Grupos Tratamentos Medias
a E -9.461689e-08
a B -9.542229e-08
ab A -1.153703e-07
b C -1.289159e-07
b D -1.3579e-07
----------------------------------------------------------------------
--
> dic(trat,condbc,quali=TRUE, mcomp="sk", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
----------------------------------------------------------------------
--
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste de Scott-Knott
----------------------------------------------------------------------
--
Grupos Tratamentos Medias
1 a E -9.461689e-08
2 a B -9.542229e-08
3 b A -1.153703e-07
4 b C -1.289159e-07
5 b D -1.357900e-07
----------------------------------------------------------------------
--
> dic(trat,condbc,quali=TRUE, mcomp="ccboot", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
----------------------------------------------------------------------
--
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste de Comparacoes multiplas Bootstrap
----------------------------------------------------------------------
--
GruposTratamentos Medias
1 a E -9.461689e-08
2 a B -9.542229e-08
3 b A -1.153703e-07
4 b C -1.289159e-07
5 b D -1.357900e-07
----------------------------------------------------------------------
--
Obs.: O metodo de comparacoes multiplas bootstrap pode ter resultados
diferentes
a cada rodada por depender de simulacoes
----------------------------------------------------------------------
--
> dic(trat,condbc,quali=TRUE, mcomp="ccf", sigT=0.05, sigF=0.05)
----------------------------------------------------------------------
--
Quadro da analise de variancia
----------------------------------------------------------------------
--
GL SQ QM Fc Pr>Fc
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342
Residuo 15 3.4505e-15 2.3003e-16
Total 19 9.1305e-15
----------------------------------------------------------------------
--
CV = -13.3 %
----------------------------------------------------------------------
--
Teste de normalidade dos residuos
Valor-p: 0.9317678
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os
residuos podem ser considerados normais.
----------------------------------------------------------------------
--
----------------------------------------------------------------------
--
Teste de homogeneidade de variancia
valor-p: 0.05678457
De acordo com o teste de bartlett a 5% de significancia, as variancias
podem ser consideradas homogeneas.
----------------------------------------------------------------------
--
Teste de Calinski e Corsten baseado na distribuicao F
----------------------------------------------------------------------
--
Grupos Tratamentos Medias
5 a 5 -9.461689e-08
2 b 2 -9.542229e-08
1 c 1 -1.153703e-07
3 d 3 -1.289159e-07
4 e 4 -1.357900e-07
----------------------------------------------------------------------
--
> # Primeiramente como o teste de homogeneidade deu menor que 5%
rejeitou-se h0 ou seja os dados não eram homogêneos, sendo assim
necessário realizar a transformação de dados. Após a transformação
todos as pressuposições foram aceitas podendo assim ser feita a
comparação entre os tipos de Recobrimento. Com isso obtivemos que o
recobrimento D é diferente do recobrimento B e do recobrimento E e que
o recobrimento C é diferente do recobrimento B e do recobrimento E.
2) DBC - Um experimento foi planejado para determinar o efeito de quatro tipos
diferentes de ponteiras em um teste de dureza de uma liga metálica. Quatro
espécimes de liga foram obtidos e cada ponteira foi testada uma vez em cada
espécime (blocos), produzindo os seguintes dados de dureza:
Tipo de
ponteira
Espécimes (blocos)
I II III IV
A 9.3 9.4 9.6 10.0
B 9.4 9.3 9.8 9.9
C 9.2 9.4 9.5 9.7
D 9.7 9.6 10.0 10.2
Fazer a análise completa para verificar se há diferença entre os quatro tipos de
ponteiras.
##=============================================================
> # Questão 2
##=============================================================
> # entrando com os dados> ex <- read.table("C:/Experimental/ex.txt",
header=TRUE)
> ex
pont bloco dure
1 1 1 9.3
2 1 2 9.4
3 1 3 9.6
4 1 4 10.0
5 2 1 9.4
6 2 2 9.3
7 2 3 9.8
8 2 4 9.9
9 3 1 9.2
10 3 2 9.4
11 3 3 9.5
12 3 4 9.7
13 4 1 9.7
14 4 2 9.6
15 4 3 10.0
16 4 4 10.2
Entrada com o conjunto de dados. Onde temos 4 tipos de ponteiras (pont) sendo elas
representadas pelos números 1,2,3 e 4,com 4 tipos de blocos (bloco) representados por
1, 2, 3 e 4, com 16 valores de dureza(dure) o que representado na tabela acima.
> attach(ex)
> # definindo trat e bloco como fatores> ex$bloco=as.factor(ex$bloco)
> ex$pont=as.factor(ex$pont)
> # análise exploratória> summary(ex) pont bloco dure
1:4 1:4 Min. : 9.200
2:4 2:4 1st Qu.: 9.400
3:4 3:4 Median : 9.600
4:4 4:4 Mean : 9.625
3rd Qu.: 9.825
Max. :10.200
Entre os 16 valores de dureza o valor mínimo é 9.2, o valor do primeiro quartil é 9.4, o
valor da mediana é 9.6 o da media é 9.625 o valor do terceiro quartil é 9.825 e o valor
máximo é de 10.20. Pode se observar que os valores da média e da mediana são bem
próximos.
> plot(dure ~ pont + bloco, dados=ex)
Gráfico da distribuição dos valores de dureza relacionado aos tipos de ponteiras.
<- tapply(dure, bloco, mean)
medtrat
Gráfico da distribuição dos valores de dureza relacionado aos tipos de blocos.
> modelo.av <- aov(dure ~ pont + bloco)
> par(mfrow=c(2,2))
> plot(modelo.av)
> residuos <- (modelo.av$residuals)
> preditos <- (modelo.av$fitted.values)
> plot(residuos,preditos)
> title("Resíduos vs Preditos")
> respad <- (residuos/sqrt(anova(modelo.av)$"Mean Sq"[2]))
> boxplot(respad)
> title("Resíduos Padronizados")
> hist(respad, main=NULL)
> title("Histograma dos resíduos padronizados")
> qqnorm(residuos,ylab="Residuos", main=NULL)
> qqline(residuos,ylab="Residuos", main=NULL)
> title("Gráfico Normal de Probabilidade dos Resíduos")
> par(mfrow = c(1,1)
Pela análise gráfica percebe-se que a reta de independência no início ela
## e crescente depois decresce e continua coesa indicando independência dos
## dados e por seus pontos estarem bem espalhados. Aparentemente uma
## distribuição normal por os seus pontos estarem bem definidos sobre a reta.
## É pressupõe-se também a homogeneidade das variâncias.
> require(lmtest)
> dwtest(dure ~ bloco + pont, alternative=c("two.sided"), data=ex)
Durbin-Watson test
data: dure ~ bloco + pont
DW = 2.9531, p-value = 0.2015
alternative hypothesis: true autocorrelation is not 0
Como p-valor foi maior que 0.05, não há evidências para rejeitar H0.
Ou seja, a correlação é igual a zero, os erros são totalmente
independentes
> shapiro.test(residuos)
Shapiro-Wilk normality test
data: residuos
W = 0.93821, p-value = 0.3276
Como p-valor foi maior que 0.05, não há evidências para rejeitar H0.
Ou seja, os erros são normalmente distribuídos.
> bartlett.test(dure, bloco)
Bartlett test of homogeneity of variances
data: dure and bloco
Bartlett's K-squared = 0.94628, df = 3, p-value = 0.8142
como p-valor encontrado foi maior 0,05, não há razões para rejeitar H0,
ou seja, as variâncias são homogêneas.
> require (asbio)
> tukey.add.test(dure, bloco, pont)
Tukey's one df test for additivity
F = 0.4299577 Denom df = 8 p-value = 0.5304111
como p-valor encontado é maior que 0,05, não há razões para rejeitar H0
ou seja, aditividade no modelo, todas as pressuposições foram atendidas a
análise de variância é válida.
> anova(modelo.av)
Analysis of Variance Table
Response: dure
Df Sum Sq Mean Sq F value Pr(>F)
pont 1 0.1125 0.11250 3.5072 0.0837629 .
bloco 1 0.7605 0.76050 23.7086 0.0003065 ***
Residuals 13 0.4170 0.03208
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Como o p-valor foi menor que o alfa, rejeita-se H0, ou seja,
há pelo menos uma diferença significativa entre os tratamentos.
> require(ExpDes.pt)
> attach(ex)
> dbc(bloco, pont, dure, quali=TRUE, mcomp="tukey", sigT=0.05, sigF=0.05)
------------------------------------------------------------------------
Quadro da analise de variancia
------------------------------------------------------------------------
GL SQ QM Fc Pr>Fc
Tratamento 3 0.825 0.27500030.938 0.00004523
Bloco 3 0.385 0.128333 14.438 0.00087127
Residuo 9 0.080 0.008889
Total 15 1.290
------------------------------------------------------------------------
CV = 0.98 %
------------------------------------------------------------------------
Teste de normalidade dos residuos
valor-p: 0.3438405
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos
podem ser considerados normais.
------------------------------------------------------------------------
------------------------------------------------------------------------
Teste de homogeneidade de variancia
valor-p: 0.5456369
De acordo com o teste de oneillmathews a 5% de significancia, as
variancias podem ser consideradas homogeneas.
------------------------------------------------------------------------
Teste de Tukey
------------------------------------------------------------------------
Grupos Tratamentos Medias
a 4 9.95
b 3 9.725
c 2 9.425
c 1 9.4
------------------------------------------------------------------------
Temos 4 tratamentos( ponteiras) logo o grau de liberdade será 3, temos 4
blocos logo o grau de liberdade será 3, temos 16 residuos( dureza) o grau
de liberdade seria 15 mas como temos 3 tratamentos e 3 blocos o grau de
liberdade é 9.
Podemos concluir pela a análise de variância ou teste de variância que a
ponteira 1 é igual a ponteira 2. A ponteira 3 é diferente das ponteiras 1,
2 e 4. A ponteira 4 é diferente das ponteiras 1, 2 e 3.
3) Fatorial - Um engenheiro suspeita que o acabamento da superfície de uma
peça de metal seja influenciado pelo tipo de pintura usada (fator A) e pelo
tempo de secagem (fator B). Ele seleciona três tempos de secagem - 20, 25 e
30 minutos - e seleciona dois tipos de pintura dentre várias disponíveis. Ele
realiza um experimento e obtém os dados mostrados na Tabela 4.
Tabela 4. Força de aderência
Pintura
Tempo de secagem (min)
T20 T25 T30
P1
74 73 78
64 61 85
50 44 92
P2
92 98 66
86 73 45
68 88 85
Testar todas as pressuposições para validade da análise. No caso de validade,
proceder à análise de variância COMPLETA para verificar se há diferença entre os
níveis do fator A e do fator B e se há interação A*B. No caso de haver, identificar
onde está(ão) a(s) diferença(s).
##============================================================
> # Questão 3
##=============================================================
># entrada de dados> expin <- read.table("C:/Experimental/expin.txt",+
header=TRUE)> expin pin tem fad
1 p1 t20 74
2 p1 t20 64
3 p1 t20 50
4 p1 t25 73
5 p1 t25 61
6 p1 t25 44
7 p1 t30 78
8 p1 t30 85
9 p1 t30 92
10 p2 t20 92
11 p2 t20 86
12 p2 t20 68
13 p2 t25 98
14 p2 t25 73
15 p2 t25 88
16 p2 t30 66
17 p2 t30 45
18 p2 t30 85
> # inspeção no objeto
> dim(expin)
[1] 18 3
> names(expin)
[1] "pin" "tem" "fad"
> attach(expin)
> # confirmando os fatores
> is.factor(pin) #base
[1] TRUE
> is.factor(tem) #metodo
[1] TRUE
> is.factor(fad) #forca
[1] FALSE
> is.numeric(fad) #forca
[1] TRUE
> # análise exploratória
> summary(expin)
pin tem fad
p1:9 t20:6 Min. :44.00
p2:9 t25:6 1st Qu.:64.50
t30:6 Median :73.50
Mean :73.44
3rd Qu.:85.75
Max. :98.00
> fat.m <- tapply(fad, list(pin,tem), mean)
> fat.m
t20 t25 t30
p1 62.66667 59.33333 85.00000
p2 82.00000 86.33333 65.33333
> fat.mb <- tapply(fad, pin, mean)
> fat.mb
p1 p2
69.00000 77.88889
> fat.mm <- tapply(fad, tem, mean)
> fat.mm t20 t25 t30
72.33333 72.83333 75.16667
> # verificando as pressuposições
> # modelo
> modelo.av <- aov(fad ~ pin + tem + pin * tem)
> # ou
> modelo.av <- aov(fad ~ pin * tem)
> # 1.Independência dos erros
> par(mfrow=c(2,2))
> plot(modelo.av)
> O gráfico residuals vs fitted, apresenta uma reta horizontal
coesa que indica que os erros são independentes.
> Através da análise gráfica pressupõe-se que o conjunto de
dados segue a normalidade, pois os pontos estão bem
definidos sobre a reta, com a presença de possíveis
outliers(17 e 18)
> O gráfico Scale-Location indica homogeneidade das
variâncias por apresentar uma reta aparentemente horizontal
e pontos dispersos no gráfico.
> residuos <- (modelo.av$residuals)
> preditos <- (modelo.av$fitted.values)
> plot(residuos,preditos)
> title("Resíduos vs Preditos")
> respad <- (residuos/sqrt(anova(modelo.av)$"Mean Sq"[2]))
> boxplot(respad)> title("Resíduos Padronizados")
> hist(respad, main=NULL)> title("Histograma dos resíduos padronizados")
> qqnorm(residuos,ylab="Residuos", main=NULL)
> qqline(residuos,ylab="Residuos", main=NULL)
> title("Gráfico Normal de Probabilidade dos Resíduos")
> par(mfrow = c(1,1))
> No gráfico Residuos vs Preditos nota-se independência dos dados.
> No diagrama de caixa percebe-se sua média muito próxima do centro o que
indica normalidade dos erros.
> O histograma lembra a distribuição normal mesmo tendo algumas
barras mais altas em alguns pontos.
> O gráfico normal de probabilidade dos resíduos segue a distribuição normal,
indicando normalidade dos erros.
> # ou pelo Teste de Durbin-Watson
> # H0: autocorrelação igual a zero (independência)
> # H1: autocorrelação diferente de zero (dependência)
> # instala e carrega o pacote "lmtest"
> require(lmtest)
> dwtest(fad ~ pin * tem, alternative=c("two.sided"), data=expin)
Durbin-Watson test
data: fad ~ pin * tem
DW = 2.4567, p-value = 0.7649
alternative hypothesis: true autocorrelation is not 0
# Como p-valor>0,05, não há razões para rejeitar H0
# ou seja, os erros são independentes
> # 2.Normalidade
> # H0: os erros seguem uma distribuição normal
> # H1: os erros não seguem uma distribuição normal
> shapiro.test(residuos)
Shapiro-Wilk normality test
data: residuos
W = 0.95127, p-value = 0.4452
# Como p-valor>0,05, não há razões para rejeitar H0
# ou seja, os erros são normalmente distribuídos
> # 3.Homogeneidade de Variâncias
> # H0: variâncias homogêneas
> # H1: variâncias não homogêneas
> bartlett.test(residuals(modelo.av)~expin$pin)
Bartlett test of homogeneity of variances
data: residuals(modelo.av) by expin$pin
Bartlett's K-squared = 0.59063, df = 1, p-value = 0.4422
> bartlett.test(residuals(modelo.av)~expin$tem)
Bartlett test of homogeneity of variances
data: residuals(modelo.av) by expin$tem
Bartlett's K-squared = 0.18229, df = 2, p-value = 0.9129
# como p-valor>0,05, não há razões para rejeitar H0
# ou seja, as variâncias são homogêneas
> # 4.Aditividade
> # H0: modelo aditivo
> # H1: modelo não aditivo
> # instala e carrega o pacote "asbio"
> require(asbio)
> tukey.add.test(fad, pin, tem)
Tukey's one df test for additivity
F = 2.0624802 Denom df = 13 p-value = 0.1745896
# Como p-valor>0,05, não há razões para rejeitar H0
# ou seja, modelo aditivo
# todas as pressuposições foram atendidas
# a análise de variância é válida
> # análise de variância
> anova(modelo.av)
Analysis of Variance Table
Response: fad
Df Sum Sq Mean Sq F value Pr(>F)
pin 1 355.56 355.56 1.9025 0.19296
tem 2 27.44 13.72 0.0734 0.92962
pin:tem 2 1878.78 939.39 5.0265 0.02596 *
Residuals 12 2242.67 186.89
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# há diferença significativa entre os dois métodos
# há pelo menos uma diferença significativa entre as bases
# não há interação pin x tem
> expin.mt <- model.tables(modelo.av,ty="means")
> expin.mt
Tables of means
Grand mean
73.44444
pin
pin
p1 p2
69.00 77.89
tem
tem
t20 t25 t30
72.33 72.83 75.17
pin:tem
tem
pin t20 t25 t30
p1 62.67 59.33 85.00
p2 82.00 86.33 65.33
> par(mfrow=c(1,2))
> interaction.plot(pin, tem, fad)
> interaction.plot(tem, pin, fad)
> par(mfrow=c(1,1))
# há interação entre pin e tem
> # comparação de médias> expin.tk <- TukeyHSD(modelo.av)
> plot(expin.tk)
> expin.tk
Tukey multiple comparisons of means
95% family-wise confidence level
Fit: aov(formula = fad ~ pin * tem)
$pin
diff lwr upr p adj
p2-p1 8.888889 -5.152349 22.93013 0.1929626
$tem
diff lwr upr p adj
t25-t20 0.500000 -20.55691 21.55691 0.9977903
t30-t20 2.833333 -18.22358 23.89025 0.9318277
t30-t25 2.333333 -18.72358 23.39025 0.9531516
$`pin:tem`
diff lwr upr p adj
p2:t20-p1:t20 19.333333 -18.15929 56.82596 0.5380024
p1:t25-p1:t20 -3.333333 -40.82596 34.15929 0.9995886
p2:t25-p1:t20 23.666667 -13.82596 61.15929 0.3391004
p1:t30-p1:t20 22.333333 -15.15929 59.82596 0.3950884
p2:t30-p1:t20 2.666667 -34.82596 40.15929 0.9998618
p1:t25-p2:t20 -22.666667 -60.15929 14.82596 0.3805917
p2:t25-p2:t20 4.333333 -33.15929 41.82596 0.9985430
p1:t30-p2:t20 3.000000 -34.49263 40.49263 0.9997539
p2:t30-p2:t20 -16.666667 -54.15929 20.82596 0.6746500
p2:t25-p1:t25 27.000000 -10.49263 64.49263 0.2237483
p1:t30-p1:t25 25.666667 -11.82596 63.15929 0.2656101
p2:t30-p1:t25 6.000000 -31.49263 43.49263 0.9933183
p1:t30-p2:t25 -1.333333 -38.82596 36.15929 0.9999955
p2:t30-p2:t25 -21.000000 -58.49263 16.49263 0.4561169
p2:t30-p1:t30 -19.666667 -57.15929 17.82596 0.5212381
> # instalar e carregar o pacote “ExpDes.pt”
> require (ExpDes.pt)
> attach(expin)
> fat2.dic(pin, tem, fad, quali = c(TRUE, TRUE), mcomp = "tukey", +
fac.names = c("pin", "tem"), sigT = 0.05, sigF = 0.05)
------------------------------------------------------------------------
Legenda:
FATOR 1: pin
FATOR 2: tem
------------------------------------------------------------------------
Quadro da analise de variancia
------------------------------------------------------------------------
GL SQ QM Fc Pr>Fc
pin 1 355.6 355.56 1.9025 0.19296
tem 2 27.4 13.72 0.0734 0.92962
pin*tem 2 1878.8 939.39 5.0265 0.02596
Residuo 12 2242.7 186.89
Total 17 4504.4
------------------------------------------------------------------------
CV = 18.61 %
------------------------------------------------------------------------
Teste de normalidade dos residuos (Shapiro-Wilk)
valor-p: 0.4452399
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos
podem ser considerados normais.
------------------------------------------------------------------------
Interacao significativa: desdobrando a interacao
------------------------------------------------------------------------
Desdobrando pin dentro de cada nivel de tem
------------------------------------------------------------------------
------------------------------------------------------------------------
Quadro da analise de variancia
------------------------------------------------------------------------
GL SQ QM Fc Pr.Fc
tem 2 27.44444 13.72222 0.0734 0.9296
pin:tem t20 1 560.66667 560.66667 3 0.1089
pin:tem t25 1 1093.50000 1093.50000 5.8511 0.0324
pin:tem t30 1 580.16667 580.16667 3.1043 0.1035
Residuo 12 2242.66667 186.88889
Total 17 4504.44444 264.96732
------------------------------------------------------------------------
pin dentro do nivel t20 de tem
De acordo com o teste F, as medias desse fator sao estatisticamente
iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 62.66667
2 2 82.00000
------------------------------------------------------------------------
pin dentro do nivel t25 de tem
------------------------------------------------------------------------
Teste de Tukey
------------------------------------------------------------------------
Grupos Tratamentos Medias
a 2 86.33333
b 1 59.33333
------------------------------------------------------------------------
Pelo teste de tukey percebe-se que o tratamento 1 é diferente do
tratamento 2. O 2 é mais eficaz.
pin dentro do nivel t30 de tem
De acordo com o teste F, as medias desse fator sao estatisticamente
iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 85.00000
2 2 65.33333
------------------------------------------------------------------------
Desdobrando tem dentro de cada nivel de pin
------------------------------------------------------------------------
------------------------------------------------------------------------
Quadro da analise de variancia
------------------------------------------------------------------------
GL SQ QM Fc Pr.Fc
pin 1 355.5556 355.5556 1.9025 0.193
tem:pin p1 2 1168.6667 584.3333 3.1266 0.0807
tem:pin p2 2 737.5556 368.7778 1.9732 0.1816
Residuo 12 2242.6667 186.8889
Total 17 4504.4444 264.9673
------------------------------------------------------------------------
tem dentro do nivel p1 de pin
De acordo com o teste F, as medias desse fator sao estatisticamente
iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 62.66667
2 2 59.33333
3 3 85.00000
------------------------------------------------------------------------
tem dentro do nivel p2 de pin
De acordo com o teste F, as medias desse fator sao estatisticamente
iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 82.00000
2 2 86.33333
3 3 65.33333
4) Regressão - Um artigo apresenta dados sobre o desgaste abrasivo do aço doce e
a viscosidade do óleo. Dados representativos são mostrados na tabela a seguir,
com x sendo a viscosidade do óleo e y o volume desgastado (10-4 mm3):
y 240 181 193 155 172 110 113 75 94
x 1.6 9.4 15.5 20.0 22.0 35.5 43.0 40.5 33.0
Faça uma análise completa de regressão e indique a reta correspondente.
##=============================================================
> # Questão 4
##=============================================================
> # Entrada de dados
> x <- c(1.6, 9.4, 15.5, 20.0, 22.0, 35.5, 43.0, 40.5, 33.0)
> y <- c(240, 181, 193, 155, 172, 110, 113, 75, 94)
> plot(x, y)
> # Coeficiente de correlação (regressão linear)
> cor(x,y)
[1] -0.9377618
> # Como o coeficiente de correlação deu próximo de -1 temos uma
relação indireta, indicada pela reta decrescente apresentada acima.
> # Testando a correlação
> #H0: cor igual a 0
> #H1: cor diferente de 0
>
> cor.test(x,y)
Pearson's product-moment correlation
data: x and y
t = -7.1444, df = 7, p-value = 0.0001863
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
-0.9871182 -0.7254277
sample estimates:
cor
-0.9377618
>
> # Como p-valor menor que 5%, rejeita-se H0
> # Há correlação entre as variáveis x e y
> # Existe a correlação e ela é indireta ou negativa, pois x aumenta
enquanto y diminui.
> # Ajustando o modelo
> rq <- lm(y ~ x+I(x^2))
> rq
Call:
lm(formula = y ~ x + I(x^2))
Coefficients:(Intercept) x I(x^2)
244.66189 -4.88544 0.02953
> # o ~ significa o intercepto C da equação y=c+bx+ax2
> # I = matriz identidade
> # Termo linear não precisa escrever identidade
> # lm = linear model
> # y= 244.66189 – 4.88544x + 0.02953x^2
> fx <- function(x) 244.66189 - 4.88544*x+0.02953*x^2
> xx <- seq(min(x),max(x),by=0.01)
> plot(xx,fx(xx),type="l")
> # Encontrando e testando as estimativas dos parâmetros do modelo
> summary(rq)
Call:
lm(formula = y ~ x + I(x^2))
Residuals:
Min 1Q Median 3Q Max
-21.599 -20.235 1.558 16.968 23.814
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 244.66189 21.28263 11.496 2.6e-05 ***
x -4.88544 2.10980 -2.316 0.0598 .
I(x^2) 0.02953 0.04390 0.673 0.5262
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 20.79 on 6 degrees of freedom
Multiple R-squared: 0.8879, Adjusted R-squared: 0.8505
F-statistic: 23.75 on 2 and 6 DF, p-value: 0.00141
> # Como o p-valor de intercept foi menor que 5%, temos que não foi
significativo;
> # Como o p-valor de x e de I(x^2) foi maior que 5% temos que o
modelo está bem ajustado;
> # O Multiple R-squared 0,8879, significa q o modelo se ajusta a
88,79% dos pontos.
> # Análise de variância
> anova(rq)
Analysis of Variance Table
Response: y
Df Sum Sq Mean Sq F value Pr(>F)
x 1 20328.9 20328.9 47.0496 0.0004727 ***
I(x^2) 1 195.5 195.5 0.4525 0.5261931
Residuals 6 2592.4 432.1
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
> # Mostra que os termos x e y são significativos.