Logo Passei Direto
Buscar

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI 
INSTITUTO DE CIÊNCIA E TECNOLOGIA 
DISCIPLINA CTD 222 – ESTATÍSTICA 
EXPERIMENTAL 
 
 
Testinho II - 18/06/2019 
 
 
Discentes: Álvaro Vitor Coelho Almeida; 
 Pedro Augusto Medeiros dos Santos; 
 Renan de Sousa Santos; 
 Vitor Lima de Oliveira. 
 
> ##======================================================= 
> # Testinho II – 18/06/2019 
> ##======================================================= 
> # Pacotes que possivelmente serão usados na prova: 
> pkg <- c("fBasics", "lmtest","fdth", "BSDA","e1071" ) 
> install.packages(pkg, dependencies=TRUE, repos="http://cran-r.c3sl.ufpr.br") 
> 
> # carregar os pacotes 
> require(fBasics) 
> require(lmtest) 
> require(fdth) 
> require(BSDA) 
> require(e1071) 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1) DIC Trasnformação - Um engenheiro eletrônico está interessado no efeito sobre 
a condutividade do tubo, de cinco tipos diferentes de recobrimento de tubos de 
raios catódicos em uma tela de um sistema de telecomunicações. Os seguintes 
dados de condutividade são obtidos: 
 
 
Tipo de 
Recobrimento 
Condutividade 
A 143 131 150 126 
B 152 149 137 143 
C 134 133 132 127 
D 129 127 132 129 
E 147 148 144 142 
 
 
Pede-se: 
 
a) Análise exploratória. 
b) Análise das pressuposições. No caso de não atendimento, fazer a transformação. 
c) Proceder à análise de variâncias. 
d) Verificar se há qualquer diferença na condutividade devido ao tipo de recobrimento. 
 
 
 
 
##============================================================= 
> # Questão 1 
##============================================================= 
 
> # Entrando com os dados 
> cond <- c(143,131,150,126, 
+ 152,149,137,143, 
+ 134,133,132,127, 
+ 129,127,132,129, 
+ 147,148,144,142) 
> 
> (dados = data.frame(trat = factor(rep(c('A','B','C','D','E'), 
each=4)), cond)) 
 trat cond 
1 A 143 
2 A 131 
3 A 150 
4 A 126 
5 B 152 
6 B 149 
7 B 137 
8 B 143 
9 C 134 
10 C 133 
11 C 132 
12 C 127 
13 D 129 
14 D 127 
15 D 132 
16 D 129 
17 E 147 
18 E 148 
19 E 144 
20 E 142 
> attach(dados) 
The following object is masked _by_ .GlobalEnv: 
 
 cond 
 
The following objects are masked from dados (pos = 3): 
 
 cond, trat 
 
> 
> # análise exploratória 
> (media = tapply(cond, trat, mean)) 
 A B C D E 
137.50 145.25 131.50 129.25 145.25 
> boxplot(cond ~ trat, las=1, col='red', 
+ ylab="Condutividade", 
+ xlab="Tipo de Recobrimento", 
+ names=c("A", "B", "C", "D", "E")) 
 
 
 
> # verificando as pressuposições 
> # modelo 
> modelo.av <- aov(cond ~ trat) 
> 
> # 1- Independência dos erros 
> par(mfrow=c(2,2)) 
> plot(modelo.av) 
 
 
 
 
> residuos <- (modelo.av$residuals) 
> preditos <- (modelo.av$fitted.values) 
> plot(residuos,preditos) 
> title("Resíduos vs Preditos") 
> respad <- (residuos/sqrt(anova(modelo.av)$"Mean Sq"[2])) 
> boxplot(respad) 
> title("Resíduos Padronizados") 
> hist(respad, main=NULL) 
> title("Histograma dos resíduos padronizados") 
> qqnorm(residuos,ylab="Residuos", main=NULL) 
> qqline(residuos,ylab="Residuos", main=NULL) 
> title("Gráfico Normal de Probabilidade dos Resíduos") 
> par(mfrow = c(1,1)) 
> 
> #ou pelo Teste de Durbin-Watson 
> # H0: autocorrelação igual a zero (independência) 
> # H1: autocorrelação diferente de zero (dependência) 
> # instala e carrega o pacote lmtest 
 
 
 
 
> require(lmtest) 
> dwtest(cond ~ trat, alternative=c("two.sided"), data=dados) 
 
 Durbin-Watson test 
 
data: cond ~ trat 
DW = 3.1056, p-value = 0.05602 
alternative hypothesis: true autocorrelation is not 0 
 
> 
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar 
H0 
> # Ou seja, a correlação é igual a zero, os erros são independentes 
> 
> # 2- Normalidade 
> # H0: dados seguem ~N 
> # H1: dados não seguem ~N 
> shapiro.test(residuos) 
 
 Shapiro-Wilk normality test 
 
data: residuos 
W = 0.98367, p-value = 0.9723 
 
> 
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar 
H0 
> # Ou seja, os erros são normalmente distribuídos 
> 
> # 3- Homogeneidade de variâncias 
> # H0: variâncias homogêneas 
> # H1: variâncias heterogêneas 
> bartlett.test(cond, trat) 
 
 Bartlett test of homogeneity of variances 
 
data: cond and trat 
Bartlett's K-squared = 9.9585, df = 4, p-value = 0.04113 
 
> 
> # Como p-valor foi menor que 0.05, rejeita-se H0 
> # ou seja, as variâncias não são homogêneas 
> 
> # 4- Aditividade 
> # não há necessidade para o DIC 
> 
> # a análise não é válida pois os pressupostos de homodedasticidade 
não foram atendidos 
> 
> # NECESSIDADE DE TRANSFORMAÇÃO NOS DADOS 
> 
> # transformação de dados => Box-Cox 
> # instala e carrega o pacote MASS 
> require(MASS) 
> boxcox(cond ~ trat, plotit=T) 
> boxcox(cond ~ trat,lam=seq(-2.5,-1,1/10)) 
> boxcox(cond ~ trat,lam=seq(-2.4,-1.7,1/10)) 
 
 
 
 
 
> # Fazendo a trasnformação 
 
> attach(dados) 
The following object is masked _by_ .GlobalEnv: 
 
 cond 
 
The following objects are masked from dados (pos = 3): 
 
 cond, trat 
 
The following objects are masked from dados (pos = 4): 
 
 cond, trat 
 
> condbc<-(cond^((-2.1)-1))/(-2.1) 
> 
> # modelo transformado 
> modelot.av<-aov(condbc ~ trat) 
> 
> # 1- Independência dos erros 
> par(mfrow=c(2,2)) 
> plot(modelot.av) 
 
 
 
> residuos <- (modelot.av$residuals) 
> preditos <- (modelot.av$fitted.values) 
> plot(residuos,preditos) 
> title("Resíduos vs Preditos") 
> respad <- (residuos/sqrt(anova(modelot.av)$"Mean Sq"[2])) 
> boxplot(respad) 
> title("Resíduos Padronizados") 
> hist(respad, main=NULL) 
> title("Histograma dos resíduos padronizados") 
> qqnorm(residuos,ylab="Residuos", main=NULL) 
> qqline(residuos,ylab="Residuos", main=NULL) 
> title("Gráfico Normal de Probabilidade dos Resíduos") 
> par(mfrow = c(1,1)) 
 
 
 
> # Ou pelo Teste de Durbin-Watson 
 
> # H0: autocorrelação igual a zero (independência) 
> # H1: autocorrelação diferente de zero (dependência) 
> # instala e carrega o pacote lmtest 
> require(lmtest) 
> dwtest(condbc ~ trat, alternative=c("two.sided"), data=dados) 
 
 Durbin-Watson test 
 
data: condbc ~ trat 
DW = 3.1002, p-value = 0.05823 
alternative hypothesis: true autocorrelation is not 0 
 
> 
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar 
H0 
> # Ou seja, a correlação é igual a zero, os erros são independentes 
> 
> # 2- Normalidade 
> # H0: dados seguem ~N 
> # H1: dados não seguem ~N 
> shapiro.test(residuos) 
 
 Shapiro-Wilk normality test 
 
data: residuos 
W = 0.97982, p-value = 0.9318 
 
> 
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar 
H0 
> # Ou seja, os erros são normalmente distribuídos 
> 
> # 3- Homogeneidade de variâncias 
> # H0: variâncias homogêneas 
> # H1: variâncias heterogêneas 
> bartlett.test(condbc, trat) 
 
 Bartlett test of homogeneity of variances 
 
data: condbc and trat 
Bartlett's K-squared = 9.1787, df = 4, p-value = 0.05678 
 
> 
> # Como p-valor foi maior que 0.05, não há evidências para rejeitar 
H0 
> # ou seja, as variâncias são homogêneas 
> 
> # análise de variância 
> # H0: não há diferença entre os recobrimentos 
> # H1: há diferença(s) entre os recobrimentos 
 
> anova(modelot.av) 
Analysis of Variance Table 
 
Response: condbc 
 Df Sum Sq Mean Sq F value Pr(>F) 
trat 4 5.6800e-15 1.4200e-15 6.173 0.003834 ** 
Residuals 15 3.4505e-15 2.3003e-16 
--- 
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
> 
> # Como o p-valor foi menor que o alfa, rejeita-se H0, ou seja, 
> # há pelo menos uma diferença significativa entre os tipos de 
recobrimento 
> 
> # Comparações Múltiplas 
> require(agricolae)> teste.tukey = TukeyHSD(modelot.av, 'trat', ord=T) 
> teste.tukey 
 Tukey multiple comparisons of means 
 95% family-wise confidence level 
 factor levels have been ordered 
 
Fit: aov(formula = condbc ~ trat) 
 
$trat 
 diff lwr upr p adj 
C-D 6.874122e-09 -2.624265e-08 3.999089e-08 0.9657343 
A-D 2.041967e-08 -1.269710e-08 5.353644e-08 0.3566294 
B-D 4.036768e-08 7.250913e-09 7.348446e-08 0.0137580 
E-D 4.117309e-08 8.056320e-09 7.428986e-08 0.0118942 
A-C 1.354555e-08 -1.957122e-08 4.666232e-08 0.7163495 
B-C 3.349356e-08 3.767915e-10 6.661033e-08 0.0468275 
E-C 3.429897e-08 1.182198e-09 6.741574e-08 0.0406743 
B-A 1.994801e-08 -1.316876e-08 5.306479e-08 0.3782381 
E-A 2.075342e-08 -1.236335e-08 5.387019e-08 0.3418019 
E-B 8.054063e-10 -3.231137e-08 3.392218e-08 0.9999919 
 
> plot(teste.tukey) 
 
 
 
 
> # Instalar e carregar o pacote "multcomp" 
 
> require(multcomp) 
> teste.duncan = duncan.test(modelot.av, "trat") 
> duncan.test(modelot.av, "trat", alpha=0.01) 
> teste.duncan 
$statistics 
 MSerror Df Mean CV 
 2.300343e-16 15 -1.140231e-07 -13.30159 
 
$parameters 
 test name.t ntr alpha 
 Duncan trat 5 0.05 
 
$duncan 
 Table CriticalRange 
2 3.014325 2.285895e-08 
3 3.159826 2.396236e-08 
4 3.250248 2.464807e-08 
5 3.311848 2.511521e-08 
 
$means 
 condbc std r Min Max 
Q25 Q50 Q75 
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08 
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08 
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07 
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07 
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08 
 
$comparison 
NULL 
 
$groups 
 condbc groups 
E -9.461689e-08 a 
B -9.542229e-08 a 
A -1.153703e-07 ab 
C -1.289159e-07 b 
D -1.357900e-07 b 
 
attr(,"class") 
[1] "group" 
> 
> teste.snk = SNK.test(modelot.av, "trat") 
> SNK.test(modelot.av, "trat", group=FALSE) 
> teste.snk 
$statistics 
 MSerror Df Mean CV 
 2.300343e-16 15 -1.140231e-07 -13.30159 
 
$parameters 
 test name.t ntr alpha 
 SNK trat 5 0.05 
 
$snk 
 Table CriticalRange 
2 3.014325 2.285895e-08 
3 3.673378 2.785684e-08 
4 4.075974 3.090991e-08 
5 4.366985 3.311677e-08 
 
$means 
 condbc std r Min Max 
Q25 Q50 Q75 
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08 
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08 
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07 
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07 
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08 
 
$comparison 
NULL 
 
$groups 
 condbc groups 
E -9.461689e-08 a 
B -9.542229e-08 a 
A -1.153703e-07 ab 
C -1.289159e-07 b 
D -1.357900e-07 b 
 
attr(,"class") 
[1] "group" 
> 
> teste.HSD = HSD.test(modelot.av, 'trat') 
> teste.HSD 
$statistics 
 MSerror Df Mean CV MSD 
 2.300343e-16 15 -1.140231e-07 -13.30159 3.311677e-08 
 
$parameters 
 test name.t ntr StudentizedRange alpha 
 Tukey trat 5 4.366985 0.05 
 
$means 
 condbc std r Min Max 
Q25 Q50 Q75 
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08 
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08 
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07 
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07 
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08 
 
$comparison 
NULL 
 
$groups 
 condbc groups 
E -9.461689e-08 a 
B -9.542229e-08 a 
A -1.153703e-07 ab 
C -1.289159e-07 b 
D -1.357900e-07 b 
 
attr(,"class") 
[1] "group" 
> 
> teste.scheffe = scheffe.test(modelot.av, "trat") 
> teste.scheffe 
$statistics 
 MSerror Df F Mean CV Scheffe 
CriticalDifference 
 2.300343e-16 15 3.055568 -1.140231e-07 -13.30159 3.496037 
3.749361e-08 
 
$parameters 
 test name.t ntr alpha 
 Scheffe trat 5 0.05 
 
$means 
 condbc std r Min Max 
Q25 Q50 Q75 
A -1.153703e-07 2.804161e-08 4 -1.467682e-07 -8.548655e-08 -1.342586e-
07 -1.146132e-07 -9.572494e-08 
B -9.542229e-08 1.385643e-08 4 -1.132262e-07 -8.204754e-08 -1.026599e-
07 -9.320772e-08 -8.597016e-08 
C -1.289159e-07 9.821337e-09 4 -1.432152e-07 -1.212707e-07 -1.310972e-
07 -1.255888e-07 -1.234074e-07 
D -1.357900e-07 6.639231e-09 4 -1.432152e-07 -1.270579e-07 -1.381364e-
07 -1.364434e-07 -1.340970e-07 
E -9.461689e-08 5.594717e-09 4 -1.013181e-07 -8.911881e-08 -9.809379e-
08 -9.401534e-08 -9.053844e-08 
 
$comparison 
NULL 
 
$groups 
 condbc groups 
E -9.461689e-08 a 
B -9.542229e-08 a 
A -1.153703e-07 ab 
C -1.289159e-07 ab 
D -1.357900e-07 b 
 
attr(,"class") 
[1] "group" 
> 
> teste.bonferroni = LSD.test(modelot.av, "trat", p.adj="bonferroni") 
> teste.bonferroni 
$statistics 
 MSerror Df Mean CV t.value MSD 
 2.300343e-16 15 -1.140231e-07 -13.30159 3.286039 3.524147e-08 
 
$parameters 
 test p.ajusted name.t ntr alpha 
 Fisher-LSD bonferroni trat 5 0.05 
 
$means 
 condbc std r LCL UCL 
Min Max Q25 Q50 
A -1.153703e-07 2.804161e-08 4 -1.315340e-07 -9.920659e-08 -1.467682e-
07 -8.548655e-08 -1.342586e-07 -1.146132e-07 
B -9.542229e-08 1.385643e-08 4 -1.115860e-07 -7.925857e-08 -1.132262e-
07 -8.204754e-08 -1.026599e-07 -9.320772e-08 
C -1.289159e-07 9.821337e-09 4 -1.450796e-07 -1.127521e-07 -1.432152e-
07 -1.212707e-07 -1.310972e-07 -1.255888e-07 
D -1.357900e-07 6.639231e-09 4 -1.519537e-07 -1.196263e-07 -1.432152e-
07 -1.270579e-07 -1.381364e-07 -1.364434e-07 
E -9.461689e-08 5.594717e-09 4 -1.107806e-07 -7.845317e-08 -1.013181e-
07 -8.911881e-08 -9.809379e-08 -9.401534e-08 
 Q75 
A -9.572494e-08 
B -8.597016e-08 
C -1.234074e-07 
D -1.340970e-07 
E -9.053844e-08 
 
$comparison 
NULL 
 
$groups 
 condbc groups 
E -9.461689e-08 a 
B -9.542229e-08 a 
A -1.153703e-07 ab 
C -1.289159e-07 ab 
D -1.357900e-07 b 
 
attr(,"class") 
[1] "group" 
 
> # Uso do pacote ExpDes.pt 
 
> require(ExpDes.pt) 
> attach(dados) 
 
> dic(trat,condbc,quali=TRUE, mcomp="tukey", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
------------------------------------------------------------------------ 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste de Tukey 
----------------------------------------------------------------------
-- 
Grupos Tratamentos Medias 
a E -9.461689e-08 
a B -9.542229e-08 
ab A -1.153703e-07 
 b C -1.289159e-07 
 b D -1.3579e-07 
----------------------------------------------------------------------
-- 
> dic(trat,condbc,quali=TRUE, mcomp="duncan", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
----------------------------------------------------------------------
-- 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste de Duncan 
----------------------------------------------------------------------
-- 
Grupos Tratamentos Medias 
a E -9.461689e-08 
a B -9.542229e-08 
ab A -1.153703e-07 
 b C -1.289159e-07 
 b D -1.3579e-07 
----------------------------------------------------------------------
-- 
> dic(trat,condbc,quali=TRUE, mcomp="snk", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
----------------------------------------------------------------------
-- 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste de Student-Newman-Keuls (SNK) 
----------------------------------------------------------------------
-- 
Grupos Tratamentos Medias 
a E -9.461689e-08 
a B -9.542229e-08 
ab A -1.153703e-07 
 b C -1.289159e-07 
 b D -1.3579e-07 
----------------------------------------------------------------------
-- 
> dic(trat,condbc,quali=TRUE, mcomp="lsd", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
----------------------------------------------------------------------
-- 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste t (LSD) 
----------------------------------------------------------------------
-- 
Grupos Tratamentos Medias 
a E -9.461689e-08 
a B -9.542229e-08 
ab A -1.153703e-07 
 b C -1.289159e-07 
 b D -1.3579e-07 
----------------------------------------------------------------------
-- 
> dic(trat,condbc,quali=TRUE, mcomp="sk", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
----------------------------------------------------------------------
-- 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste de Scott-Knott 
----------------------------------------------------------------------
-- 
 Grupos Tratamentos Medias 
1 a E -9.461689e-08 
2 a B -9.542229e-08 
3 b A -1.153703e-07 
4 b C -1.289159e-07 
5 b D -1.357900e-07 
----------------------------------------------------------------------
-- 
> dic(trat,condbc,quali=TRUE, mcomp="ccboot", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
----------------------------------------------------------------------
-- 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste de Comparacoes multiplas Bootstrap 
----------------------------------------------------------------------
-- 
 GruposTratamentos Medias 
1 a E -9.461689e-08 
2 a B -9.542229e-08 
3 b A -1.153703e-07 
4 b C -1.289159e-07 
5 b D -1.357900e-07 
----------------------------------------------------------------------
-- 
 Obs.: O metodo de comparacoes multiplas bootstrap pode ter resultados 
diferentes 
 a cada rodada por depender de simulacoes 
----------------------------------------------------------------------
-- 
> dic(trat,condbc,quali=TRUE, mcomp="ccf", sigT=0.05, sigF=0.05) 
----------------------------------------------------------------------
-- 
Quadro da analise de variancia 
----------------------------------------------------------------------
-- 
 GL SQ QM Fc Pr>Fc 
Tratamento 4 5.6800e-15 1.4200e-15 6.173 0.0038342 
Residuo 15 3.4505e-15 2.3003e-16 
Total 19 9.1305e-15 
----------------------------------------------------------------------
-- 
CV = -13.3 % 
 
----------------------------------------------------------------------
-- 
Teste de normalidade dos residuos 
Valor-p: 0.9317678 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os 
residuos podem ser considerados normais. 
----------------------------------------------------------------------
-- 
 
----------------------------------------------------------------------
-- 
Teste de homogeneidade de variancia 
valor-p: 0.05678457 
De acordo com o teste de bartlett a 5% de significancia, as variancias 
podem ser consideradas homogeneas. 
----------------------------------------------------------------------
-- 
 
Teste de Calinski e Corsten baseado na distribuicao F 
----------------------------------------------------------------------
-- 
 Grupos Tratamentos Medias 
5 a 5 -9.461689e-08 
2 b 2 -9.542229e-08 
1 c 1 -1.153703e-07 
3 d 3 -1.289159e-07 
4 e 4 -1.357900e-07 
----------------------------------------------------------------------
-- 
 
 
> # Primeiramente como o teste de homogeneidade deu menor que 5% 
rejeitou-se h0 ou seja os dados não eram homogêneos, sendo assim 
necessário realizar a transformação de dados. Após a transformação 
todos as pressuposições foram aceitas podendo assim ser feita a 
comparação entre os tipos de Recobrimento. Com isso obtivemos que o 
recobrimento D é diferente do recobrimento B e do recobrimento E e que 
o recobrimento C é diferente do recobrimento B e do recobrimento E. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2) DBC - Um experimento foi planejado para determinar o efeito de quatro tipos 
diferentes de ponteiras em um teste de dureza de uma liga metálica. Quatro 
espécimes de liga foram obtidos e cada ponteira foi testada uma vez em cada 
espécime (blocos), produzindo os seguintes dados de dureza: 
 
 
Tipo de 
ponteira 
Espécimes (blocos) 
I II III IV 
A 9.3 9.4 9.6 10.0 
B 9.4 9.3 9.8 9.9 
C 9.2 9.4 9.5 9.7 
D 9.7 9.6 10.0 10.2 
 
 
Fazer a análise completa para verificar se há diferença entre os quatro tipos de 
ponteiras. 
 
 
##============================================================= 
> # Questão 2 
##============================================================= 
 
> # entrando com os dados> ex <- read.table("C:/Experimental/ex.txt", 
header=TRUE) 
> ex 
 pont bloco dure 
1 1 1 9.3 
2 1 2 9.4 
3 1 3 9.6 
4 1 4 10.0 
5 2 1 9.4 
6 2 2 9.3 
7 2 3 9.8 
8 2 4 9.9 
9 3 1 9.2 
10 3 2 9.4 
11 3 3 9.5 
12 3 4 9.7 
13 4 1 9.7 
14 4 2 9.6 
15 4 3 10.0 
16 4 4 10.2 
 
Entrada com o conjunto de dados. Onde temos 4 tipos de ponteiras (pont) sendo elas 
representadas pelos números 1,2,3 e 4,com 4 tipos de blocos (bloco) representados por 
1, 2, 3 e 4, com 16 valores de dureza(dure) o que representado na tabela acima. 
 
> attach(ex) 
> # definindo trat e bloco como fatores> ex$bloco=as.factor(ex$bloco) 
 > ex$pont=as.factor(ex$pont) 
 > # análise exploratória> summary(ex) pont bloco dure 
 1:4 1:4 Min. : 9.200 
 2:4 2:4 1st Qu.: 9.400 
 3:4 3:4 Median : 9.600 
 4:4 4:4 Mean : 9.625 
 3rd Qu.: 9.825 
 Max. :10.200 
 
Entre os 16 valores de dureza o valor mínimo é 9.2, o valor do primeiro quartil é 9.4, o 
valor da mediana é 9.6 o da media é 9.625 o valor do terceiro quartil é 9.825 e o valor 
máximo é de 10.20. Pode se observar que os valores da média e da mediana são bem 
próximos. 
 
> plot(dure ~ pont + bloco, dados=ex) 
 
 
Gráfico da distribuição dos valores de dureza relacionado aos tipos de ponteiras. 
<- tapply(dure, bloco, mean) 
medtrat 
 
Gráfico da distribuição dos valores de dureza relacionado aos tipos de blocos. 
> modelo.av <- aov(dure ~ pont + bloco) 
> par(mfrow=c(2,2)) 
> plot(modelo.av) 
> residuos <- (modelo.av$residuals) 
> preditos <- (modelo.av$fitted.values) 
> plot(residuos,preditos) 
> title("Resíduos vs Preditos") 
> respad <- (residuos/sqrt(anova(modelo.av)$"Mean Sq"[2])) 
> boxplot(respad) 
> title("Resíduos Padronizados") 
> hist(respad, main=NULL) 
> title("Histograma dos resíduos padronizados") 
> qqnorm(residuos,ylab="Residuos", main=NULL) 
> qqline(residuos,ylab="Residuos", main=NULL) 
> title("Gráfico Normal de Probabilidade dos Resíduos") 
> par(mfrow = c(1,1) 
 
 
 
Pela análise gráfica percebe-se que a reta de independência no início ela 
## e crescente depois decresce e continua coesa indicando independência dos 
## dados e por seus pontos estarem bem espalhados. Aparentemente uma 
## distribuição normal por os seus pontos estarem bem definidos sobre a reta. 
## É pressupõe-se também a homogeneidade das variâncias. 
 
> require(lmtest) 
> dwtest(dure ~ bloco + pont, alternative=c("two.sided"), data=ex) 
 
Durbin-Watson test 
 
data: dure ~ bloco + pont 
DW = 2.9531, p-value = 0.2015 
alternative hypothesis: true autocorrelation is not 0 
 
Como p-valor foi maior que 0.05, não há evidências para rejeitar H0. 
Ou seja, a correlação é igual a zero, os erros são totalmente 
independentes 
> shapiro.test(residuos) 
 
Shapiro-Wilk normality test 
 
data: residuos 
W = 0.93821, p-value = 0.3276 
 
Como p-valor foi maior que 0.05, não há evidências para rejeitar H0. 
Ou seja, os erros são normalmente distribuídos. 
 
> bartlett.test(dure, bloco) 
 
Bartlett test of homogeneity of variances 
 
data: dure and bloco 
Bartlett's K-squared = 0.94628, df = 3, p-value = 0.8142 
 
como p-valor encontrado foi maior 0,05, não há razões para rejeitar H0, 
 ou seja, as variâncias são homogêneas. 
 
> require (asbio) 
> tukey.add.test(dure, bloco, pont) 
 
Tukey's one df test for additivity 
F = 0.4299577 Denom df = 8 p-value = 0.5304111 
 
como p-valor encontado é maior que 0,05, não há razões para rejeitar H0 
ou seja, aditividade no modelo, todas as pressuposições foram atendidas a 
análise de variância é válida. 
 
> anova(modelo.av) 
 
Analysis of Variance Table 
 
Response: dure 
 Df Sum Sq Mean Sq F value Pr(>F) 
pont 1 0.1125 0.11250 3.5072 0.0837629 . 
bloco 1 0.7605 0.76050 23.7086 0.0003065 *** 
Residuals 13 0.4170 0.03208 
--- 
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
 
Como o p-valor foi menor que o alfa, rejeita-se H0, ou seja, 
há pelo menos uma diferença significativa entre os tratamentos. 
 
> require(ExpDes.pt) 
> attach(ex) 
> dbc(bloco, pont, dure, quali=TRUE, mcomp="tukey", sigT=0.05, sigF=0.05) 
 
------------------------------------------------------------------------ 
Quadro da analise de variancia 
------------------------------------------------------------------------ 
 GL SQ QM Fc Pr>Fc 
Tratamento 3 0.825 0.27500030.938 0.00004523 
Bloco 3 0.385 0.128333 14.438 0.00087127 
Residuo 9 0.080 0.008889 
Total 15 1.290 
------------------------------------------------------------------------ 
CV = 0.98 % 
 
------------------------------------------------------------------------ 
Teste de normalidade dos residuos 
valor-p: 0.3438405 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos 
podem ser considerados normais. 
------------------------------------------------------------------------ 
 
------------------------------------------------------------------------ 
Teste de homogeneidade de variancia 
valor-p: 0.5456369 
De acordo com o teste de oneillmathews a 5% de significancia, as 
variancias podem ser consideradas homogeneas. 
------------------------------------------------------------------------ 
 
Teste de Tukey 
------------------------------------------------------------------------ 
Grupos Tratamentos Medias 
a 4 9.95 
 b 3 9.725 
 c 2 9.425 
 c 1 9.4 
------------------------------------------------------------------------ 
 
Temos 4 tratamentos( ponteiras) logo o grau de liberdade será 3, temos 4 
blocos logo o grau de liberdade será 3, temos 16 residuos( dureza) o grau 
de liberdade seria 15 mas como temos 3 tratamentos e 3 blocos o grau de 
liberdade é 9. 
Podemos concluir pela a análise de variância ou teste de variância que a 
ponteira 1 é igual a ponteira 2. A ponteira 3 é diferente das ponteiras 1, 
2 e 4. A ponteira 4 é diferente das ponteiras 1, 2 e 3. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3) Fatorial - Um engenheiro suspeita que o acabamento da superfície de uma 
peça de metal seja influenciado pelo tipo de pintura usada (fator A) e pelo 
tempo de secagem (fator B). Ele seleciona três tempos de secagem - 20, 25 e 
30 minutos - e seleciona dois tipos de pintura dentre várias disponíveis. Ele 
realiza um experimento e obtém os dados mostrados na Tabela 4. 
 
Tabela 4. Força de aderência 
 
Pintura 
Tempo de secagem (min) 
T20 T25 T30 
P1 
74 73 78 
64 61 85 
50 44 92 
P2 
92 98 66 
86 73 45 
68 88 85 
 
Testar todas as pressuposições para validade da análise. No caso de validade, 
proceder à análise de variância COMPLETA para verificar se há diferença entre os 
níveis do fator A e do fator B e se há interação A*B. No caso de haver, identificar 
onde está(ão) a(s) diferença(s). 
 
 
 ##============================================================ 
> # Questão 3 
##============================================================= 
 
 
># entrada de dados> expin <- read.table("C:/Experimental/expin.txt",+ 
header=TRUE)> expin pin tem fad 
1 p1 t20 74 
2 p1 t20 64 
3 p1 t20 50 
4 p1 t25 73 
5 p1 t25 61 
6 p1 t25 44 
7 p1 t30 78 
8 p1 t30 85 
9 p1 t30 92 
10 p2 t20 92 
11 p2 t20 86 
12 p2 t20 68 
13 p2 t25 98 
14 p2 t25 73 
15 p2 t25 88 
16 p2 t30 66 
17 p2 t30 45 
18 p2 t30 85 
 
> # inspeção no objeto 
> dim(expin) 
[1] 18 3 
> names(expin) 
[1] "pin" "tem" "fad" 
> attach(expin) 
 
> # confirmando os fatores 
> is.factor(pin) #base 
[1] TRUE 
> is.factor(tem) #metodo 
[1] TRUE 
> is.factor(fad) #forca 
[1] FALSE 
> is.numeric(fad) #forca 
[1] TRUE 
> # análise exploratória 
> summary(expin) 
 pin tem fad 
 p1:9 t20:6 Min. :44.00 
 p2:9 t25:6 1st Qu.:64.50 
 t30:6 Median :73.50 
 Mean :73.44 
 3rd Qu.:85.75 
 Max. :98.00 
> fat.m <- tapply(fad, list(pin,tem), mean) 
> fat.m 
 t20 t25 t30 
p1 62.66667 59.33333 85.00000 
p2 82.00000 86.33333 65.33333 
> fat.mb <- tapply(fad, pin, mean) 
> fat.mb 
 p1 p2 
69.00000 77.88889 
> fat.mm <- tapply(fad, tem, mean) 
> fat.mm t20 t25 t30 
72.33333 72.83333 75.16667 
> # verificando as pressuposições 
> # modelo 
> modelo.av <- aov(fad ~ pin + tem + pin * tem) 
> # ou 
> modelo.av <- aov(fad ~ pin * tem) 
 
 
> # 1.Independência dos erros 
> par(mfrow=c(2,2)) 
> plot(modelo.av) 
 
 
> O gráfico residuals vs fitted, apresenta uma reta horizontal 
coesa que indica que os erros são independentes. 
> Através da análise gráfica pressupõe-se que o conjunto de 
dados segue a normalidade, pois os pontos estão bem 
definidos sobre a reta, com a presença de possíveis 
outliers(17 e 18) 
> O gráfico Scale-Location indica homogeneidade das 
variâncias por apresentar uma reta aparentemente horizontal 
e pontos dispersos no gráfico. 
 
> residuos <- (modelo.av$residuals) 
> preditos <- (modelo.av$fitted.values) 
> plot(residuos,preditos) 
> title("Resíduos vs Preditos") 
> respad <- (residuos/sqrt(anova(modelo.av)$"Mean Sq"[2])) 
> boxplot(respad)> title("Resíduos Padronizados") 
> hist(respad, main=NULL)> title("Histograma dos resíduos padronizados") 
> qqnorm(residuos,ylab="Residuos", main=NULL) 
> qqline(residuos,ylab="Residuos", main=NULL) 
> title("Gráfico Normal de Probabilidade dos Resíduos") 
> par(mfrow = c(1,1)) 
 
> No gráfico Residuos vs Preditos nota-se independência dos dados. 
> No diagrama de caixa percebe-se sua média muito próxima do centro o que 
indica normalidade dos erros. 
> O histograma lembra a distribuição normal mesmo tendo algumas 
barras mais altas em alguns pontos. 
> O gráfico normal de probabilidade dos resíduos segue a distribuição normal, 
indicando normalidade dos erros. 
 
 
> # ou pelo Teste de Durbin-Watson 
> # H0: autocorrelação igual a zero (independência) 
> # H1: autocorrelação diferente de zero (dependência) 
> # instala e carrega o pacote "lmtest" 
> require(lmtest) 
> dwtest(fad ~ pin * tem, alternative=c("two.sided"), data=expin) 
 
 Durbin-Watson test 
 
data: fad ~ pin * tem 
DW = 2.4567, p-value = 0.7649 
alternative hypothesis: true autocorrelation is not 0 
 
# Como p-valor>0,05, não há razões para rejeitar H0 
# ou seja, os erros são independentes 
 
> # 2.Normalidade 
> # H0: os erros seguem uma distribuição normal 
> # H1: os erros não seguem uma distribuição normal 
> shapiro.test(residuos) 
 
 Shapiro-Wilk normality test 
 
data: residuos 
W = 0.95127, p-value = 0.4452 
 
# Como p-valor>0,05, não há razões para rejeitar H0 
# ou seja, os erros são normalmente distribuídos 
 
 
> # 3.Homogeneidade de Variâncias 
> # H0: variâncias homogêneas 
> # H1: variâncias não homogêneas 
> bartlett.test(residuals(modelo.av)~expin$pin) 
 
 Bartlett test of homogeneity of variances 
 
data: residuals(modelo.av) by expin$pin 
Bartlett's K-squared = 0.59063, df = 1, p-value = 0.4422 
 
> bartlett.test(residuals(modelo.av)~expin$tem) 
 
 Bartlett test of homogeneity of variances 
 
data: residuals(modelo.av) by expin$tem 
Bartlett's K-squared = 0.18229, df = 2, p-value = 0.9129 
 
# como p-valor>0,05, não há razões para rejeitar H0 
# ou seja, as variâncias são homogêneas 
 
> # 4.Aditividade 
> # H0: modelo aditivo 
> # H1: modelo não aditivo 
> # instala e carrega o pacote "asbio" 
> require(asbio) 
> tukey.add.test(fad, pin, tem) 
 
Tukey's one df test for additivity 
F = 2.0624802 Denom df = 13 p-value = 0.1745896 
 
# Como p-valor>0,05, não há razões para rejeitar H0 
# ou seja, modelo aditivo 
 
# todas as pressuposições foram atendidas 
# a análise de variância é válida 
 
 
> # análise de variância 
> anova(modelo.av) 
 
Analysis of Variance Table 
 
Response: fad 
 Df Sum Sq Mean Sq F value Pr(>F) 
pin 1 355.56 355.56 1.9025 0.19296 
tem 2 27.44 13.72 0.0734 0.92962 
pin:tem 2 1878.78 939.39 5.0265 0.02596 * 
Residuals 12 2242.67 186.89 
--- 
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
 
# há diferença significativa entre os dois métodos 
# há pelo menos uma diferença significativa entre as bases 
# não há interação pin x tem 
 
> expin.mt <- model.tables(modelo.av,ty="means") 
> expin.mt 
 
Tables of means 
Grand mean 
 
73.44444 
 
 pin 
pin 
 p1 p2 
69.00 77.89 
 
 tem 
tem 
 t20 t25 t30 
72.33 72.83 75.17 
 
 pin:tem 
 tem 
pin t20 t25 t30 
 p1 62.67 59.33 85.00 
 p2 82.00 86.33 65.33 
 
 
 
> par(mfrow=c(1,2)) 
> interaction.plot(pin, tem, fad) 
> interaction.plot(tem, pin, fad) 
> par(mfrow=c(1,1)) 
 
 
# há interação entre pin e tem 
 
 
 
> # comparação de médias> expin.tk <- TukeyHSD(modelo.av) 
> plot(expin.tk) 
> expin.tk 
 
Tukey multiple comparisons of means 
 95% family-wise confidence level 
 
Fit: aov(formula = fad ~ pin * tem) 
 
$pin 
 diff lwr upr p adj 
p2-p1 8.888889 -5.152349 22.93013 0.1929626 
 
$tem 
 diff lwr upr p adj 
t25-t20 0.500000 -20.55691 21.55691 0.9977903 
t30-t20 2.833333 -18.22358 23.89025 0.9318277 
t30-t25 2.333333 -18.72358 23.39025 0.9531516 
 
$`pin:tem` 
 diff lwr upr p adj 
p2:t20-p1:t20 19.333333 -18.15929 56.82596 0.5380024 
p1:t25-p1:t20 -3.333333 -40.82596 34.15929 0.9995886 
p2:t25-p1:t20 23.666667 -13.82596 61.15929 0.3391004 
p1:t30-p1:t20 22.333333 -15.15929 59.82596 0.3950884 
p2:t30-p1:t20 2.666667 -34.82596 40.15929 0.9998618 
p1:t25-p2:t20 -22.666667 -60.15929 14.82596 0.3805917 
p2:t25-p2:t20 4.333333 -33.15929 41.82596 0.9985430 
p1:t30-p2:t20 3.000000 -34.49263 40.49263 0.9997539 
p2:t30-p2:t20 -16.666667 -54.15929 20.82596 0.6746500 
p2:t25-p1:t25 27.000000 -10.49263 64.49263 0.2237483 
p1:t30-p1:t25 25.666667 -11.82596 63.15929 0.2656101 
p2:t30-p1:t25 6.000000 -31.49263 43.49263 0.9933183 
p1:t30-p2:t25 -1.333333 -38.82596 36.15929 0.9999955 
p2:t30-p2:t25 -21.000000 -58.49263 16.49263 0.4561169 
p2:t30-p1:t30 -19.666667 -57.15929 17.82596 0.5212381 
 
 
 
 
 
 
> # instalar e carregar o pacote “ExpDes.pt” 
> require (ExpDes.pt) 
> attach(expin) 
> fat2.dic(pin, tem, fad, quali = c(TRUE, TRUE), mcomp = "tukey", + 
fac.names = c("pin", "tem"), sigT = 0.05, sigF = 0.05) 
------------------------------------------------------------------------ 
Legenda: 
FATOR 1: pin 
FATOR 2: tem 
------------------------------------------------------------------------ 
 
 
Quadro da analise de variancia 
------------------------------------------------------------------------ 
 GL SQ QM Fc Pr>Fc 
pin 1 355.6 355.56 1.9025 0.19296 
tem 2 27.4 13.72 0.0734 0.92962 
pin*tem 2 1878.8 939.39 5.0265 0.02596 
Residuo 12 2242.7 186.89 
Total 17 4504.4 
------------------------------------------------------------------------ 
CV = 18.61 % 
 
------------------------------------------------------------------------ 
Teste de normalidade dos residuos (Shapiro-Wilk) 
valor-p: 0.4452399 
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos 
podem ser considerados normais. 
------------------------------------------------------------------------ 
 
 
 
Interacao significativa: desdobrando a interacao 
------------------------------------------------------------------------ 
 
Desdobrando pin dentro de cada nivel de tem 
------------------------------------------------------------------------ 
------------------------------------------------------------------------ 
Quadro da analise de variancia 
------------------------------------------------------------------------ 
 GL SQ QM Fc Pr.Fc 
tem 2 27.44444 13.72222 0.0734 0.9296 
pin:tem t20 1 560.66667 560.66667 3 0.1089 
pin:tem t25 1 1093.50000 1093.50000 5.8511 0.0324 
pin:tem t30 1 580.16667 580.16667 3.1043 0.1035 
Residuo 12 2242.66667 186.88889 
Total 17 4504.44444 264.96732 
------------------------------------------------------------------------ 
 
 
 
 pin dentro do nivel t20 de tem 
 
De acordo com o teste F, as medias desse fator sao estatisticamente 
iguais. 
------------------------------------------------------------------------ 
 Niveis Medias 
1 1 62.66667 
2 2 82.00000 
------------------------------------------------------------------------ 
 
 
 pin dentro do nivel t25 de tem 
------------------------------------------------------------------------ 
Teste de Tukey 
------------------------------------------------------------------------ 
Grupos Tratamentos Medias 
a 2 86.33333 
 b 1 59.33333 
------------------------------------------------------------------------ 
 
Pelo teste de tukey percebe-se que o tratamento 1 é diferente do 
tratamento 2. O 2 é mais eficaz. 
 
 pin dentro do nivel t30 de tem 
 
De acordo com o teste F, as medias desse fator sao estatisticamente 
iguais. 
------------------------------------------------------------------------ 
 Niveis Medias 
1 1 85.00000 
2 2 65.33333 
------------------------------------------------------------------------ 
 
 
 
Desdobrando tem dentro de cada nivel de pin 
------------------------------------------------------------------------ 
------------------------------------------------------------------------ 
Quadro da analise de variancia 
------------------------------------------------------------------------ 
 GL SQ QM Fc Pr.Fc 
pin 1 355.5556 355.5556 1.9025 0.193 
tem:pin p1 2 1168.6667 584.3333 3.1266 0.0807 
tem:pin p2 2 737.5556 368.7778 1.9732 0.1816 
Residuo 12 2242.6667 186.8889 
Total 17 4504.4444 264.9673 
------------------------------------------------------------------------ 
 
 
 
 tem dentro do nivel p1 de pin 
 
De acordo com o teste F, as medias desse fator sao estatisticamente 
iguais. 
------------------------------------------------------------------------ 
 Niveis Medias 
1 1 62.66667 
2 2 59.33333 
3 3 85.00000 
------------------------------------------------------------------------ 
 
 
 tem dentro do nivel p2 de pin 
 
De acordo com o teste F, as medias desse fator sao estatisticamente 
iguais. 
------------------------------------------------------------------------ 
 Niveis Medias 
1 1 82.00000 
2 2 86.33333 
3 3 65.33333 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4) Regressão - Um artigo apresenta dados sobre o desgaste abrasivo do aço doce e 
a viscosidade do óleo. Dados representativos são mostrados na tabela a seguir, 
com x sendo a viscosidade do óleo e y o volume desgastado (10-4 mm3): 
 
y 240 181 193 155 172 110 113 75 94 
x 1.6 9.4 15.5 20.0 22.0 35.5 43.0 40.5 33.0 
 
Faça uma análise completa de regressão e indique a reta correspondente. 
 
 
 
##============================================================= 
> # Questão 4 
##============================================================= 
 
> # Entrada de dados 
 
> x <- c(1.6, 9.4, 15.5, 20.0, 22.0, 35.5, 43.0, 40.5, 33.0) 
> y <- c(240, 181, 193, 155, 172, 110, 113, 75, 94) 
> plot(x, y) 
 
 
 
> # Coeficiente de correlação (regressão linear) 
 
> cor(x,y) 
[1] -0.9377618 
 
> # Como o coeficiente de correlação deu próximo de -1 temos uma 
relação indireta, indicada pela reta decrescente apresentada acima. 
 
 
 
> # Testando a correlação 
 
> #H0: cor igual a 0 
> #H1: cor diferente de 0 
> 
> cor.test(x,y) 
 
 Pearson's product-moment correlation 
 
data: x and y 
t = -7.1444, df = 7, p-value = 0.0001863 
alternative hypothesis: true correlation is not equal to 0 
95 percent confidence interval: 
 -0.9871182 -0.7254277 
sample estimates: 
 cor 
-0.9377618 
 
> 
> # Como p-valor menor que 5%, rejeita-se H0 
> # Há correlação entre as variáveis x e y 
 
> # Existe a correlação e ela é indireta ou negativa, pois x aumenta 
enquanto y diminui. 
 
 
> # Ajustando o modelo 
 
> rq <- lm(y ~ x+I(x^2)) 
> rq 
 
Call: 
lm(formula = y ~ x + I(x^2)) 
 
Coefficients:(Intercept) x I(x^2) 
 244.66189 -4.88544 0.02953 
 
> # o ~ significa o intercepto C da equação y=c+bx+ax2 
> # I = matriz identidade 
> # Termo linear não precisa escrever identidade 
> # lm = linear model 
 
> # y= 244.66189 – 4.88544x + 0.02953x^2 
 
> fx <- function(x) 244.66189 - 4.88544*x+0.02953*x^2 
> xx <- seq(min(x),max(x),by=0.01) 
> plot(xx,fx(xx),type="l") 
 
 
 
 
> # Encontrando e testando as estimativas dos parâmetros do modelo 
 
 
> summary(rq) 
 
Call: 
lm(formula = y ~ x + I(x^2)) 
 
Residuals: 
 Min 1Q Median 3Q Max 
-21.599 -20.235 1.558 16.968 23.814 
 
Coefficients: 
 Estimate Std. Error t value Pr(>|t|) 
(Intercept) 244.66189 21.28263 11.496 2.6e-05 *** 
x -4.88544 2.10980 -2.316 0.0598 . 
I(x^2) 0.02953 0.04390 0.673 0.5262 
--- 
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
 
Residual standard error: 20.79 on 6 degrees of freedom 
Multiple R-squared: 0.8879, Adjusted R-squared: 0.8505 
F-statistic: 23.75 on 2 and 6 DF, p-value: 0.00141 
 
> # Como o p-valor de intercept foi menor que 5%, temos que não foi 
significativo; 
 
> # Como o p-valor de x e de I(x^2) foi maior que 5% temos que o 
modelo está bem ajustado; 
 
> # O Multiple R-squared 0,8879, significa q o modelo se ajusta a 
88,79% dos pontos. 
 
 
 
> # Análise de variância 
 
> anova(rq) 
Analysis of Variance Table 
 
Response: y 
 Df Sum Sq Mean Sq F value Pr(>F) 
x 1 20328.9 20328.9 47.0496 0.0004727 *** 
I(x^2) 1 195.5 195.5 0.4525 0.5261931 
Residuals 6 2592.4 432.1 
--- 
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
 
> # Mostra que os termos x e y são significativos.

Mais conteúdos dessa disciplina