A maior rede de estudos do Brasil

Grátis
57 pág.
Apostila de Probabilidade e Estatistica_ESA_2009_2

Pré-visualização | Página 5 de 10

Para duas séries de dados, X 
(X1, X2,.) e Y(Y1,Y2... ), a covariância fornece uma medida não padronizada do grau no qual 
elas se movem juntas, e é estimada tomando o produto dos desvios da média para cada 
variável em cada período. 
COVARÂNCIA: 
     xxxx bbaa
N
i
ba
ii
N
 
1
,
1 
 O sinal na covariância indica o tipo de relação que as duas variáveis têm. Um sinal 
positivo indica que elas movem juntas e um negativo que elas movem em direções opostas. 
Enquanto a covariância cresce com o poder do relacionamento, ainda é relativamente difícil 
fazer julgamentos sobre o poder do relacionamento entre as duas variáveis observando a 
covariância, pois ela não é padronizada. 
 A correlação é a medida padronizada da relação entre duas variáveis. Ela pode ser 
calculada a partir da covariância. 
CORRELAÇÃO:   
   2
0
1
20
1
0
1
. . yyxx
yyxx
i
i
i
i
i
i
ii
i
i
yx
xy
xy











 
 O coeficiente de variação é uma grandeza que varia de –1 a +1, valores estes que 
traduzem a correlação perfeita entre a variação de uma variável em relação à variação da 
outra. Por conseguinte, a ausência completa de correlação entre as variáveis confrontadas é 
indicada pelo valor zero do coeficiente de correlação (p = 0). Uma correlação próxima à zero 
indica que as duas variáveis não estão relacionadas. Uma correlação positiva indica que as 
duas variáveis movem juntas, e a relação é forte quanto mais à correlação se aproxima de um. 
Uma correlação negativa indica que as duas variáveis movem-se em direções opostas, e que a 
relação também fica mais forte quanto mais próxima de menos 1 a correlação ficar. Duas 
variáveis que estão perfeitamente correlacionadas positivamente (r = 1) movem-se 
essencialmente em perfeita proporção na mesma direção, enquanto dois conjuntos que estão 
perfeitamente correlacionados negativamente movem-se em perfeita proporção em direções 
opostas. 
 23 
Exemplo1: 
xa xb 
xa
 
xb
 (xa – 
x
) (xb – 
x
)      xxxx bbaa ii 
 
2 3 6 6.2 – 4 – 3.2 12.8 
4 4 6 6.2 – 2 – 2.2 4.4 
6 7 6 6.2 0 +0.8 0 
8 8 6 6.2 + 2 + 1.8 3.6 
10 9 6 6.2 + 4 + 2.8 11.2 
30 31 0 0 32 
 
  4.632
5
1
1
,
 

N
i
ba   4.6325
1
1
,
 

N
i
ba 
9773,0
7414,32
32
8,26.40
32
.
 

yx
xy
xy
 
 
Exemplo2: 
xa xb 
xa
 
xb
 (xa – 
x
) (xb – 
x
)      xxxx bbaa ii 
 
2
0
1











 yyi
i
i
 
2
0
1











 yyi
i
i
 
2 7 6 12 – 4 – 5 20 16 25 
4 9 6 12 – 2 – 3 6 4 9 
6 12 6 12 0 0 0 0 0 
8 14 6 12 + 2 + 2 4 4 4 
10 18 6 12 + 4 + 6 24 16 36 
30 60 0 0 54 40 74 
 
 
 
 24 
6. TESTES DE HIPÓTESES 
 
5.1 INTRODUÇÃO 
 
Muitas situações práticas no dia-a-dia requerem a tomada de decisões em função dos 
valores observados acerca dos parâmetros (ou de outros aspectos) da população. 
 
Exemplo: Máquina de encher pacotes de açúcar. 
O peso de cada pacote deve ser ≈ 8g (isto é, µ = 8). Será que a máquina está funcionando 
corretamente? 
Definição: Uma hipótese estatística é uma afirmação acerca dos parâmetros de uma ou mais 
populações (testes paramétricos) ou acerca da distribuição da população (testes de 
ajustamento). 
Vamos estudar em primeiro lugar os testes paramétricos. 
Temos duas hipóteses: a máquina funciona corretamente (µ = 8) ou a máquina não funciona 
corretamente (µ ≠ 8): 
 
 H0: µ = 8 versus H1: µ ≠ 8 
(hipótese nula) (hipótese alternativa) 
 
Hipótese simples: é especificado apenas um valor para o parâmetro. 
Hipótese composta: é especificado mais de um valor para o parâmetro. 
Vamos considerar sempre H0 como hipótese simples. 
A hipótese alternativa ( H1) é, em geral, uma das três seguintes: 
 
H1: µ ≠ 8 - hipótese alternativa bilateral 
H1: µ > 8 - hipótese alternativa unilateral (superior) 
H1: µ < 8 - hipótese alternativa unilateral (inferior) 
 
Nota: os valores especificados nas hipóteses não devem ter nada a ver com valores 
observados na amostra. 
 
Definição: Teste de hipóteses é um procedimento que conduz a uma decisão acerca das 
hipóteses (com base numa amostra). 
 
Exemplo: Dispomos de uma amostra de 10 observações: X1, ........ , X10 
Faz sentido decidir com base em 
X
 , aceitando H0 se X estiver próxima de 8 e rejeitando H0 
se 
X
 estiver longe de 8. 
 
 
região crítica a região de 
aceitação 
região crítica 
 
"Aceitar" H1 "Aceitar" H0 "Aceitar" H1 
 
Rejeitar H0 Não rejeitar H0 Rejeitar H0 
 
 
 8 – fc 8 8 + fc 
 
 25 
7. COMPARAÇÃO ENTRE TRATAMENTOS 
 
7.1 TESTE t PARA DUAS AMOSTRAS PAREADAS 
 
O chamado teste t é apropriado para comparar dois conjuntos de dados quantitativos, 
em termos de seus valores médios. 
 
H0: µ1 = µ2 e H1: µ1 ≠ µ2 
 
Onde: µ1 é o valor esperado da resposta sob o tratamento 1, e 
 µ2 é o valor esperado da resposta sob o tratamento 2. 
 
Na abordagem unilateral, a hipótese alternativa é do tipo H1‟: µ1 > µ2 ou H1”: µ1 < µ2. 
 
Exemplo 1: Seja o problema de verificar se um novo algoritmo de busca em um banco de 
dados é mais rápido que o atualmente utilizado. Para fazer o teste de comparação, planeja-se 
uma amostra aleatória de dez buscas experimentais (ensaios). Em cada ensaio, uma dada 
busca é realizada pelos dois algoritmos, o antigo e o novo, e o tempo de resposta de cada 
algoritmo é anotado. Observamos que em cada ensaio os dois algoritmos são usados em 
condições idênticas, caracterizando dez pares de observações. 
 
As hipóteses podem ser formuladas da seguinte maneira: 
 
H0: em média, os dois algoritmos são igualmente rápidos, e 
H1: em média, o algoritmo novo é mais rápido que o em uso. 
 
Ou 
 
H0: µ2 = µ1 e H1: µ2 > µ1 
 
Onde: µ2 é o tempo esperado de resposta do algoritmo novo, e 
 µ1 é o tempo esperado de resposta do algoritmo atual. 
 
Tabela 1: Tempos de resposta dos algoritmos de busca 1 e 2, em dez ensaios pareados. 
ENSAIO TEMPO DE RESPOSTA 
ANTIGO X1 NOVO X2 DIFERENÇA D = X2 – X1 
1 22 25 3 
2 21 28 7 
3 28 26 - 2 
4 30 36 6 
5 33 32 - 1 
6 33 39 6 
7 26 28 2 
8 24 33 9 
9 31 30 - 1 
10 22 27 5 
Fonte: Barbeta, P. A. et al – p. 236 
 
 
 
 26 
Como os dados são pareados, podemos verificar em cada ensaio o quanto um tratamento foi 
melhor que o outro, ou seja, analisar a variável: 
 
D = X2 – X1 
 
Em termos da variável D, as hipóteses são descritas como: 
 
H0: µD = 0 e H1: µ D > 0 
 
Onde µD é o valor esperado de D. Dada a mostra, calcula-se a estatística do teste por: 
 
sd
nd
t
.

 
 
onde: n é o tamanho da amostra (n
o
 de pares); 
 
d
 é a média das diferenças observadas; e 
 
sd
 é o desvio padrão das diferenças observadas. 
 
 
Supondo que os valores de D provenham de distribuição aproximadamente normal, o teste 
pode ser realizado com a distribuição t de Student com gl = n – 1 graus de liberdade. 
 
Valores de D (última coluna da Tabela 1): 
3, 7, -2, 6, -1, 6, 2, 9, -1, 5 
 
Donde: 
4,3,10  dn
 e 
 
     81,3
9
4,310246
..
1
1
2
22




  dn
n
ds iid
 
 
E, portanto: 
 

sd
nd
t
. 
82,2
81,3
10.4,3

 
 
 
 
Abordagem do valor p: como n = 10, temos gl = 9 graus de liberdade. Tomemos então 
a linha gl = 9 (Tabela