Buscar

VI. Teste de hipoteses

Prévia do material em texto

�PAGE �5�
�PAGE �135�
VI. Teste de hipóteses
VI. TESTE DE HIPÓTESES
6.1 A estatística como ferramenta auxiliar na tomada de decisões
A maioria das situações de tomada de decisões ocorrem em situação de incerteza, porque é baseada nos dados de uma amostra proveniente de uma população. Nesses casos, a estatística fornece um poderoso instrumento para a tomada de decisões. Tentaremos, através de um exemplo, explorar a lógica desse tipo de tomada de decisão estatística. 
Suponha que você tem R$20.000,00 (vinte mil reais) na poupança e está pensando investir esse capital na construção e funcionamento de um posto de gasolina, em um ponto movimentado de São Paulo. Suponha, também, que para o posto ser rentável (pagar o investimento inicial e dar um lucro maior do que a poupança), o número médio (() de veículos que passam por aquele ponto por dia (parâmetro) deve ser maior a 2000 (hipótese estatística, chamada de hipótese nula Ho).
Este é um problema clássico de teste de hipóteses, pois você decidirá aceitar ou rejeitar a hipótese nula, em função dos resultados de uma amostra. Isto porque seria impossível examinar o número de veículos que passam todos os dias por aquele ponto (população), além da disponibilidade de recursos financeiros, entre outros. Ao pegarmos uma amostra de uma população estamos lidando com leis de probabilidades, logo você não tem condição de saber se sua hipótese nula é verdadeira ou falsa, você apenas pode medir as probabilidades envolvidas na sua tomada de decisão.
No nosso exemplo, aceitar a hipótese nula, de que o número de veículos que passam pelo ponto é maior de 2000, implicará em você tirar o dinheiro da poupança e investir no posto de gasolina; mas, a hipótese nula pode ser falsa, e aí, todo o empreendimento estará fadado ao fracasso, você perderá seu capital. O custo de uma decisão errada pode ser muito grande, em termos financeiros, de vidas humanas, etc. Vejamos como é o quadro decisório:
Aceitar a hipótese nula (Ho) quando ela é verdadeira é uma decisão correta. No nosso exemplo significa construir o posto e realmente passam 2000 ou mais veículos por dia, logo o investimento será rentável, você recuperará seu capital e terá um retorno financeiro acima do rendimento da caderneta de poupança. Rejeitar uma hipótese falsa, também, é uma decisão correta, no caso, significa não construir o posto, deixar o dinheiro na poupança, uma vez que o posto não tinha chances de ser rentável.
Entretanto, existem dois tipos de erro ao tomarmos esse tipo de decisão. O primeiro erro é rejeitar a hipótese nula (Ho) quando ela é verdadeira, chamado de erro de tipo I; no nosso exemplo, significa deixar de construir o posto quando ele seria rentável, neste caso, a perda não inclui valores físicos financeiros, apenas o valor fictício que se deixou de ganhar. O segundo erro é aceitar a hipótese nula (Ho) quando ela é falsa, chamado de erro de tipo II, no exemplo significa construir o posto, quando por aquele ponto passam menos do que 2000 veículos, o que implicaria a perda do capital.
Tabela 8. Quadro de decisão em condição de incerteza
(Postura inovadora)
Hipótese nula Ho
passam mais de 2000 veículos por dia: Ho: ( > 2000
Decisão
Hipótese (Ho) ser verdadeira:
Ho: ( > 2000
(o posto será rentável)
Hipótese (Ho) ser falsa
Ho: ( < 2000
(o posto está fadado ao fracasso)
Aceitar a hipótese
(construir o posto)
Constrói o posto e é rentável
Decisão correta
(1-()
Constrói o posto e ele não é rentável. Perde o capital
Erro de tipo II
Beta (()
Rejeitar a hipótese
(deixar o dinheiro na poupança)
Não constrói o posto, porém seria rentável (deixa de lucrar)
Erro de tipo I
Alfa (()
Não constrói o posto e não era rentável
Decisão correta 
(1-()
A teoria estatística nos possibilita medir todas as probabilidades envolvidas na questão, logo podemos nos prevenir, controlando a probabilidade de cometer o erro mais grave. A probabilidade de cometer o erro de tipo I (rejeitar a hipótese nula Ho quando ela é verdadeira) é simbolizada por alfa ((), também, conhecida como nível de significância. 
( = nível de significância ( erro de tipo I
( = P (Rejeitar Ho / Ho é verdadeira)
 Já a probabilidade de cometer o erro de tipo II (aceitar a hipótese nula Ho quando ela é falsa) é simbolizada por beta ((), que está relacionado com o poder do teste.
 
= P (Aceitar Ho / Ho é falsa) ( erro de tipo II
Essas probabilidades, alfa e beta, se relacionam inversamente, quando diminuímos alfa, beta cresce e vice-versa, e não dá para controlar as duas simultaneamente, a menos que se aumente o tamanho da amostra, o que implica no aumento de custos operacionais e de tempo, o que pode inviabilizar a pesquisa (ver Figura 32).
 
Todos os testes estatísticos foram delineados para controlar alfa (() o nível de significância, sendo que beta (() é deixado livre. Por essa razão, a formulação da hipótese nula deve ser feita de tal forma que o erro mais grave recaia em alfa. No nosso exemplo analisando os dois tipos de erros, verificamos que o erro mais grave recai em beta. A pergunta é: como devemos formular a hipótese nula Ho, de tal forma que o pior erro caia em alfa? Neste caso, é só trocar a hipótese, negando a afirmação inicial. Vejamos o que acontece no quadro decisório:
Tabela 9. Mudança no quadro decissório ao mudar a hipótese
(Postura conservadora)
Hipótese nula Ho
passam 2000 ou menos veículos por dia: Ho: ( < 2000
Decisão
Hipótese (Ho) ser verdadeira:
Ho: ( < 2000
(o posto está fadado ao fracasso)
Hipótese (Ho) ser falsa
Ho: ( > 2000
(o posto será rentável)
Aceitar a hipótese
(deixar o dinheiro na poupança)
Não constrói o posto e não era rentável 
Decisão correta
 (1-()
Deixa de construir o posto quando seria rentável (deixa de lucrar)
Erro de tipo II
Beta (()
Rejeitar a hipótese
(construir o posto)
Constrói o posto e ele não é rentável (perde o capital)
Erro de tipo I
Alfa (()
Constrói o posto e é rentável
Decisão correta 
( 1- ()
Verificamos que ao negarmos a hipótese que desejamos testar asseguramos que o pior erro recaia em alfa, que é controlado pelo pesquisador. Este tipo de formulação é conhecida como postura conservadora. Ou seja, estamos mais propensos a deixar o dinheiro na poupança (ou deixar do jeito que está) do que investir no risco (mudar para o novo) e, arriscaremos, somente, quando houver evidências da amostra muito fortes a favor do novo.
Portanto, devemos ser cuidadosos na formulação de hipóteses para saber qual é o tipo de erro que estamos controlando. O nível de significância é fixada pelo pesquisador. É convencional trabalhar com alfa igual a 1%, 5% ou 10%, sendo que em alguns casos podemos usar níveis maiores. A escolha do nível de significância (() estará de acordo com a margem de segurança e da gravidade das conseqüências de vir a ocorrer o erro de tipo I.
A formulação de hipóteses:
Em todo processo de decisão estatística, além da hipótese nula Ho existe a hipótese alternativa H1. Todo o processo decisório será feito em função de Ho, ou seja, aceitar ou rejeitar Ho. Logo, aceitaremos H1 só se a hipótese nula for rejeitada. É convenção se colocar na Hipótese nula Ho o sinal de igualdade, embora, via de regra, é a negação da hipótese alternativa. Observamos que a maioria dos testes já tem as hipóteses formuladas.
A hipótese nula Ho coloca-se com o expresso propósito de ser rejeitada, se for rejeitada, pode-se aceitar a hipótese alternativa (na postura conservadora é a negação do que se quer provar). A hipótese alternativa H1 é a definição operacional da hipótese de pesquisa, que é a predição deduzida da teoria que está sendo testada (na postura conservadora é a afirmação do novo, do que se quer mostrar).
Tabela 10. Os erros em função da formulação das hipóteses
Postura conservadora
Postura inovadora
Hipótese nula
Hipótese alternativa
Ho: ( = 2000
H1: ( > 2000
Ho: ( = 2000
H1: ( < 2000
Erro de tipo I 
Alfa (()
Construir o posto e o número médio é inferior a 2000, logo perderemos o capital
Não construiro posto e o número médio é maior do que 2000, deixamos de lucrar
Erro de tipo II
Beta (()
Não construir o posto e o número médio é maior do que 2000, deixamos de lucrar
Construir o posto é o número médio é inferior a 2000, logo perderemos o capital
A construção da região crítica ou de rejeição:
Uma vez decidida as hipóteses nula e alternativa e o nível de significância, decide-se a estatística a ser utilizada para operacionalizar a hipótese. Essa estatística depende do parâmetro que está sendo testado. No caso da média populacional a estatística será a média amostral, que segue uma distribuição normal, pelo Teorema Central do Limite. Com essas informações se constrói a região crítica.
A região crítica ou de rejeição depende da hipótese alternativa e seu tamanho é o mesmo do nível de significância, o complemento é chamado de região de aceitação. A localização da região crítica depende da hipótese alternativa (ver Figura 32).
O processo decisório 
A decisão de rejeitar ou aceitar a hipótese nula depende dos resultados da amostra. Calculada a estatística apropriada é só verificar em qual das duas regiões ela cai. Se cair na região de aceitação, aceitaremos a hipótese nula, caso contrário, a rejeitaremos. Se a hipótese nula for rejeitada então aceitaremos a hipótese alternativa. Observamos que todo processo decisório é feito com a hipótese nula, a decisão em relação à hipótese alternativa é mera conseqüência:
 maior

Aceita Ho
p-valor10
 menor

Rejeita Ho ( Aceita H1
�
Figura 32. Região de rejeição e de aceitação da hipótese nula e relação entre alfa e beta,
no caso da postura conservadora
 ( = 2500 X
Região de rejeição e de aceitação da hipótese nula
 Unilateral Bilateral Unilateral
 Cauda inferior Bicaudal Cauda superior
 H1: ( < 2000	 H1: ( ( 2000 H1: ( > 2000
��� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p �� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p 
Operacionalizando a tomada de decisão
A construção da estatística da amostra depende do parâmetro que está sendo testado, se for a média populacional, a estatística estará baseada na distribuição da média amostral, se for a proporção populacional, a estatística usará a proporção amostral e assim por diante.
6.2 Teste de hipótese para a média populacional
Suponhamos que você selecionou uma amostra de 30 dias, em meses diferentes (tendo cuidado de representar os dias da semana, bem como os finais de semana) e, que a média amostral seja 2050 veículos, com um desvio padrão de 200.
Como n=30 podemos fazer uso do Teorema Central do Limite (ver quadro, página 101), estimando o desvio padrão populacional com o desvio padrão da amostra, sob a hipótese nula:
 -( 0 +(
 Zamostra=1,37 Z = 1,645 
Como Zamostra é menor que Z, então aceita-se Ho, ou seja, devemos deixar o dinheiro na poupança.
Em geral, a regra de decisão será: Rejeita-se a hipótese nula Ho se:
 Cauda inferior Bicaudal Cauda superior
 H1: ( < (o 	 	 H1: ( ( (o 			 H1: ( > (o 
�� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p �� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p 
 VC 			 VC1 	 VC2 				VC
 VA < VC VA < VC1 ou VA > VC2	 VA > VC11
Este procedimento é trabalhoso, pois você tem que ter a tabela da distribuição da estatística (normal, t-student, etc.), o que só se justifica se você não tiver a mão um pacote estatístico.
Para evitar o fato de ter que procurar os valores em tabelas, a maioria dos pacotes estatísticos fornece, além do valor da estatística da amostra, o p-valor (p-value ou significance), conhecido, também, como nível de significância observado ou da amostra. Este valor deve ser comparado com o nível de significância () escolhido pelo pesquisador, neste caso é só comparar os dois valores. Se o p-valor for menor que alfa, rejeita-se a hipótese nula; caso contrário, aceita-se ( ver página 110).
Como calcular o p-valor:
O p-valor é a probabilidade que a estatística supere o valor observado na amostra, maior se for da cauda superior, menor se for da cauda inferior, ou a probabilidade de rejeitar a hipótese nula quando ela é verdadeira, com os valores daquela amostra.
Se for cauda superior
Ho: ( = 2000
H1: ( > 2000
p-valor = P( Z > Zamostra)
Se for cauda inferior
Ho: ( = 2000
H1: ( < 2000
p-valor = P( Z < Zamostra)
Se for bicaudal
Ho: ( = 2000
H1: ( ( 2000
p-valor = P( Z > Zamostra) se Zamostra for +
ou
p-valor = P( Z < Zamostra) se Zamostra for –
Este valor deve ser multiplicado por 2
No nosso exemplo:
p-valor = P ( Z ( Zamostra)
p-valor = P ( Z ( 1,37) = 0,08534 ( ou 8,5%
Como essa probabilidade é maior que =0,05 cai na região de aceitação. Logo aceita-se Ho.
Resumindo: passos para construção de um teste de hipótese:
Passo No 1: Formular as hipóteses nula e alternativa
Passo No 2: Usando a teoria estatística e as informações disponíveis decida qual estatística (estimador) será usada para julgar a hipótese Ho. Não esqueça dos pressupostos implícitos na construção desta estatística
Passo No 3: Fixar o nível de significância e construir a Região Crítica 
Passo Nº 4: Calcular a estatística da amostra
Passo No 5: Tomar a decisão
6.2.1 Teste de hipóteses para a média populacional: pequenas amostras
O exemplo dos tomates
Suponha que você é fiscal sanitarista da CEASA e que está inspecionando um carregamento de tomates. Segundo as normas, a quantidade tolerada pelo corpo humano de uma substância tóxica e de até no máximo 10 unidades. Para decidir se você deve liberar ou não o carregamento, seleciona uma amostra de tomates e com base nos dados, tomará a decisão. Analisemos o processo de formulação das hipóteses, o nível de significância e a tomada decisão.
Conceitos
Notação
Definição
População
Está formado por todos os tomates do carregamento
Amostra
Os tomates que caírem na amostra
Variável
X
Quantidade de tóxico por tomate
Parâmetro
média populacional (
Quantidade média da substância tóxica por tomate naquele carregamento
Estimador
média amostral 
X barra
Quantidade média da substância tóxica por tomate da amostra
Estimativa
Valor da média daquela amostra
Tabela 11. Quadro de decisão em condição de incerteza
(Postura “ética”)
Decisão
Hipótese nula Ho : ( > 10
A quantidade média de substância tóxica é superior a 10 unidades
Ho: ( > 10 ser verdadeira
(os tomates estão contaminados)
Ho: ( > 10 ser falso
 (os tomates estão aptos para o consumo)
Aceitar a hipótese
(incinerar o carregamento)
Incinera o carregamento e os tomates estavam contaminados
Decisão correta
( 1 - ( )
Incinera, porém os tomates estavam aptos para o consumo
O produtor perdeu sua colheita
Erro de tipo II
Beta ( ( )
Rejeitar a hipótese
(liberar para o consumo humano)
Libera o carregamento e os tomates estavam contaminados
As pessoas serão contaminadas
Erro de tipo I
( ( )
Libera e os tomates estavam aptos para o consumo
Decisão correta 
( 1 - ( )
No caso da postura “ética”, o nível de significância alfa (() significa o risco de liberar o carregamento quando ele está contaminado e, consequentemente, colocar em risco vida humanas, porém, você controla esse tipo de erro.
Certamente, o produtor não vai aceitar este tipo de formulação da hipótese, pois para ele o carregamento de tomates não está contaminado. Vejamos com seria a formulação das hipóteses neste caso.
Tabela 12. Quadro comparativo da formulação de hipóteses do 
 ponto devista do consumidor e do produtor
Postura “ética”
(Postura do consumidor)
Postura produtor
Hipótese nula
Hipótese alternativa
 Ho: ( = 10 (*)
 H1: ( < 10
Ho: ( = 10
H1: ( > 10
Erro de tipo I 
Alfa (()
Liberar o carregamento de tomates quando eles estavam contaminados
Incinerar o carregamento de tomates quando eles estavam aptos para o consumo humano
Erro de tipo II
Beta (()
Incinerar o carregamento de tomates quando eles estavam aptos para o consumo humano
Liberar o carregamento de tomates quando eles estavam contaminados
(*) Lembrar que é convenção colocar o sinal da igualdade na hipótese nula.
A final, você deve estar se perguntando, como isso influência na tomada de decisões, se a estatística calculada da amostra sempre é única. Vejamos através do exemplo, calculando as regiões críticas para as duas formulações. 
Suponha que esta variável siga uma distribuição normal e que você seleciona uma amostra de 16 tomates, cuja média é 9 unidades, com um desvio padrão de 2.
Operacionalizando a postura “ética”:
Passo 1: Formular as hipóteses:
 Ho: ( = 10
 H1: ( < 10
Passo 2: A estatística a ser utilizada será a média amostral, estimando a variância
 populacional pela amostral, ou seja, devemos utilizar a distribuição t-student, com
 15 graus de liberdade, lembre-se que esta distribuição pressupõe normalidade para
 a distribuição da variável.
Passo 3: Para =5%, determinar a região de rejeição e aceitação. O valor t
	A região crítica estará formada por todos os valores menores ou iguais a –1,753
Passo 4: Calcular a estatística (observe que isto independe das hipóteses)
 n=16, média amostral = 9, desvio padrão da amostra =2
Passo 5: Tomar a decisão
 Como o valor da amostra foi –2 (tamostraé menor que o valor crítico
 (t), rejeita-se Ho
Ou seja, liberamos o carregamento de tomates. 
Contudo, você está com muito receio de liberar o carregamento e este estar contaminado. Você pode diminuir  de 5% para 1%. Vejamos o que acontece:
-( 0 +(
t t
 tamostra
A única mudança será no Valor Crítico, que de tcaíra para tNeste caso, aceitaremos Ho, ou seja, mandaremos incinerar o carregamento de tomates.
Operacionalizando a postura do produtor:
Passo 1: Formular as hipóteses:
 Ho: ( = 10
 H1: ( > 10
Passo 2: é a mesma da postura ética, pois independe da formulação das hipóteses:
Passo 3: Para =5%, determinar a região de rejeição e aceitação. O valor t
	A região crítica estará formada por todos os valores maiores ou iguais a +1,753
	 (o único que muda é a cauda, que passa de ser inferior, para superior)
Passo 4: Calcular a estatística (idem postura ética, observe que isto independe das
 hipóteses)
	 tamostra
Passo 5: Tomar a decisão
 Como o valor da amostra foi –2 (tamostraé menor que o valor crítico
 (t), aceita-se Ho
logo libera o carregamento para o consumo humano, decisão que coincide com a decisão da postura ética. Porém, vejamos o que acontece se diminuirmos  de 5% para 1%. Neste caso, t e, consequentemente, a decisão não muda, ou seja, continuamos liberando o carregamento, ao contrário da postura ética, e isso porque neste caso,  está protegendo o produtor, ou seja, do risco de incinerar o carregamento, quando os tomates estão sadios.
Figura 33. Região Crítica na postura do produtor
-( 0 +(
 tamostra 			 t t
Mas você deve estar intrigado como essas duas posturas agem na regra decisão. Tentaremos apresentar aqui a lógica das duas posturas.
Sabemos que sob a hipótese nula, a média amostral se distribui segundo uma t-student com n-1 graus de liberdade (não esqueça que está implícito que X: quantidade de tóxico por tomate segue uma distribuição normal, além das amostras independentes)
Logo podemos perguntar a partir de que valores da média amostral rejeitaremos Ho, fixado o nível de significância.
Logo no nosso exemplo, substituindo os valores: o=10, =2 e n=16
Xc < 10 – 1,753*2/4 ( Xc < 10-0,8765 ( Xc < 9,1235
Logo todas as amostras cujas médias forem menores ou iguais a 9,1235 terão suas cargas liberadas.
Logo, substituindo os valores: 
Xc > 10 +1,753*2/4 ( Xc > 10+0,8765 ( Xc > 10,8765
Logo todas as amostras cujas médias forem maiores ou iguais a 10,8765 terão suas cargas incineradas.
Comparemos graficamente as regras de decisão em cada caso. Para simplificar a comparação suponhamos que a variância é conhecida é igual a 4:
X: quantidade de tóxico por tomate ( X ~N(10,22) (supondo =2, conhecido)
								
							
X~ N(10, ½ ) uma vez que a variância amostral é 2/n =22/16 =1/2 ( erro padrão=0,71
		 7,9 8,6 9,3 10 10,7 11,4 12,1
Na postura ética 			Rejeita-se Ho ( Liberar para o consumo se:
Ho:  10 			se a média amostral for menor que
H1: 10			/Vn = 10 – 1,645*0,71
						 =	 10 – 1,16795( 8,83205
 Rejeita-se Ho	 Aceita-se Ho
Libera o carregamento Incinera o carregamento
		 7,9 8,6 9,3 10 10,7 11,4 12,1
Na postura do produtor 		Rejeita-se Ho ( Incinerar o carregamento se:
Ho: = 10 			se a média amostral for maior que
H1: 10			Vn = 10 + 1,645*0,71
						 = 10 + 1,16795( 11,16795
 					 Aceita-se Ho Rejeita-se Ho		
Libera o carregamento Incinera o carregamento
		 7,9 8,6 9,3 10 10,7 11,4 12,1
Veja que na postura “ética” mandaremos incinerar o carregamento se a média da amostra for maior ou igual a 8,83205, enquanto que na postura do produtor, só faremos isso quando a média da amostra for maior ou igual a 11,16795. Neste exemplo supomos conhecer a variância só com fins didáticos. A lógica é a mesma, quando tivermos que estimar a variância, apenas mudaremos de distribuição.
6.3 Teste de hipóteses para a proporção populacional: 
O exemplo da eleição de um candidato 
Suponha que você é assessor de um grupo financeiro forte, que está interessado em saber se o candidato XYZ, ao governo do estado de São Paulo, tem chances de ser eleito, ainda no primeiro turno, uma vez que o grupo está estudando a possibilidade de financiar sua campanha. Neste caso, novamente, você selecionará uma amostra e decidirá com base nos dados dessa amostra. Vejamos o quadro decisório neste caso: 
Conceitos
Notação
Definição
População
Os eleitores do estado de São Paulo
Amostra
Os eleitores que forem sorteados para compor a amostra
Parâmetro
Proporção populacional (
Porcentagem ou proporção de eleitores do estado que votarão no candidato XYZ
Estimador
Proporção amostral 
P barra
Porcentagem ou proporção de eleitores da amostra que votarão no candidato XYZ
Estimativa
Valor da proporção daquela amostra
Tabela 13. Quadro de decisão em condição de incerteza
(Postura “otimista”)
Hipótese nula Ho : ( > 0,50
O candidato XYZ se elege no primeiro turno
Decisão
Ho : ( > 0,50 ser verdadeira
(o candidato se elege)
Ho : ( > 0,50 ser falsa
(o candidato não se elege)
Aceitar a hipótese
(investir na campanha do candidato)
Investe na campanha do candidato XYZ e este se elege 
Decisão correta
(1-()
Investe na campanha do candidato XYZ e este não se elege 
Erro de Tipo II
(()
Rejeitar a hipótese
(não investir na campanha do candidato)
Não investe na campanha do candidato XYZ e este se elege 
Erro de tipo I
(()
Não investe na campanha do candidato XYZ e estenão se elege 
Decisão correta
(1-()
Tabela 14. Quadro comparativo da formulação de hipóteses
Postura otimista
Postura pessimista
Hipótese nula
Hipótese alternativa
Ho : ( = 0,50
H1 : ( < 0,50
Ho : ( = 0,50
H1 : ( > 0,50
Erro de tipo I 
Alfa (()
Não investe na campanha do candidato XYZ e este se elege 
Investe na campanha do candidato XYZ e este não se elege 
Erro de tipo II
Beta (()
Investe na campanha do candidato XYZ e este não se elege 
Não investe na campanha do candidato XYZ e este se elege 
Da forma como foram formuladas as hipóteses, o pior erro seria investir na campanha e o candidato não se eleger e, neste caso, a postura pessimista é mais adequada, posto que o controla.
Operacionalizando a postura pessimista:
Passo 1: Formular as hipóteses:
 Ho:  = 0,5 			(
 H1:  > 0,5			
Passo 2: A estatística a ser utilizada será a proporção amostral, onde o cuidado deve ser
	 trabalhar com grandes amostras. Sob a hipótese de nulidade
Passo 3: Para =5%, determinar a região de rejeição e aceitação. O valor Z
	A região crítica estará formada por todos os valores maiores ou iguais a +1,645
Passo 4: Calcular a estatística da amostra. Suponha que você tenha entrevistado 900 pessoas, das quais 459 eleitores afirmaram que votariam no candidato XYZ. Logo, p barra é igual a 0,51, substituindo na fórmula:
Passo 5: Tomar a decisão. Como o valor da amostra foi 0,60 (Zamostraé menor que o valor crítico (Z), aceita-se Ho. Ou seja, você como assessor do grupo financeiro, recomendará não investir no candidato XYZ
 -( 0 +(
 ZamostraZ
Ou seja, apesar do candidato ter 51% dos votos, essa margem não é suficiente para decidir apoiá-lo. 
Agora, raciocinemos ao contrário: qual teria que ser o valor da proporção amostral tal que rejeitemos Ho , ou seja, decidir apoiar o candidato, com um nível de 5%.
pc=? tal que P( p > pc ) = 
Podemos mostrar que ( pc >  + Z* n
No nosso exemplo	 ( 	pc > 0,5 + 1,645* 0,5*0,5
pc > 0,5 + 0,0274
pc > 0,5274
Ou seja, em uma amostra de 900 eleitores, o candidato XYZ teria que ter pelo menos 52,74% das intenções de votos, o que equivale a 475 eleitores.
A relação entre teste de hipóteses e intervalos de confiança
Você já deve ter reparado que sempre estamos usando a mesma formula, tanto para testar uma hipótese, quanto para construir intervalos de confiança, para um parâmetro determinado. 
IC em função de média amostral IC sob a hipótese de nulidade 
��LINK SPSSCHRT "C:\\SPSSWIN\\CURSO98\\NORMAL.CHT" "Contents" \p
X-Z/2/Vn X 	 X-Z/2/Vn o-Z/2/Vn o 	 o -Z/2/Vn
 Checar se o está contido no intervalo Checar se X está contida no intervalo
Construamos um intervalo de confiança, de 95% para o caso da lanchonete (página 115):
Ho  = 2000 ( Não construir o posto (o= 2000
H1  > 2000 ( Construir o posto
Neste caso, como a hipótese alternativa é maior, o intervalo de confiança é unicaudal, logo:
Li = -(
Ls = o + Z* s / n		( Ls = 2000 + 1.645*200 / 5,47723	( Ls = 2060
Como o intervalo de confiança [- ( ; 2060] inclui o valor da média da amostra que é 2050, logo aceitamos Ho, ou seja, deixamos o dinheiro na poupança.
6.4 Teste de hipótese para a diferença de duas médias
Muitas vezes desejamos saber se um novo método de ensino é mais eficaz que o método tradicional, ou se os homens tem desempenho e atitudes mais favoráveis frente a Matemática do que as mulheres, entre outros. Neste caso, estamos interessados em comparar se a diferença entre duas médias é estatisticamente significativa ou se essa diferença se deve apenas ao acaso. 
Por exemplo, suponha que desejamos testar se o desempenho dos alunos da escola 1 e 3 podem ser considerados iguais ou não (exemplo da pág. 27, retomado nas páginas 88 e 89).
A variável em estudo
X: notas dos alunos da 5ª série na prova de Matemática
Hipótese nula
Hipótese alternativa
Ho: (1 = ( 3
H1: (1 ( ( 3
Erro de tipo I 
Alfa (()
Dizer que existe diferença no desempenho por escola, 
quando na realidade não existe diferença
Erro de tipo II
Beta (()
Dizer que não existe diferença de desempenho,
 quando na realidade existe diferença
Poderíamos, também, querer saber se o desempenho superior mostrado na escola 2 em relação ao desempenho da escola 1 é estatisticamente significativa ou não, neste caso, as hipóteses serão:
Ho: (1 = ( 2
H1: (1 < ( 2
Suponha, ainda, que o baixo desempenho dos alunos da escola 1 se deva a influência de suas atitudes frente a Matemática, que tendem ao negativo e que uma alternativa para desbloquear essa influência seria o uso de jogos matemáticos no ensino. Como você poderia propor um estudo da eficácia da proposta? Analisemos:
No caso das escolas, cada uma se constitui em uma população e de cada uma delas foi escolhida uma amostra, logo podemos afirmar que as amostras são independentes, pois vem de populações independentes. A seleção da amostra na escola 1 não interfere na seleção das outras escolas e assim por diante.
No caso da proposta, o ensino da Matemática, via jogos, você tem dois tratamentos, um é o método tradicional - controle-, e o outro é a proposta de introduzir os jogos durante as aulas – experimental ou tratamento - . Observe que você tem uma única população. Você pode delinear o experimento de duas formas:
Amostras independentes: alocar aleatoriamente os alunos ao grupo controle e ao grupo experimental.
Amostras emparelhadas: selecionar uma única amostra, fazer um pré-teste para saber o nível de partida, aplica o novo método e ao final da “experiência” aplicar um pós-teste para analisar se houve um ganho significativo. Neste caso, cada aluno atua como seu próprio controle.
Caso 1: amostras independentes porque vem de populações independentes
População 1				 Amostra 1		
								
População 2 		 Amostra 2									
Caso 2: amostras independentes de uma mesma população porque você aloca aleatoriamente os elementos ao tratamento ou ao grupo controle
				 Amostra 1 (tratamento		
População 1
				
									
				 Amostra 2 ( controle		
Caso 3: amostras emparelhadas, uma única amostra de uma população, os sujeitos são submetidos aos dois tratamentos, via de regra, cada sujeito é seu próprio controle:
 População 1		Amostra 1
				
																
 antes	 depois
						 tratamento
Qual é o melhor delineamento, depende do que você está trabalhando e das condições de “experimentação”.
O problema de trabalhar com amostras independentes é que corremos o risco de que no grupo experimental seja composto por alunos brilhantes e o grupo controle por alunos “normais”, ou vice-versa. Neste caso, você não saberá se o melhor desempenho do grupo experimental se deve ao método ou a amostra. A aleatorização minimiza este risco, porém, nem sempre você tem condições ideais de “experimentação”, uma vez que existem fatores alheios ao seu controle, como, por exemplo, as turmas já estão formadas desde o início do ano, a influência do professor da turma, turmas com melhor desempenho que outras, enfim, inúmeros fatores que podem “contaminar” ou “confundir” o experimento.
O problema de trabalhar com amostras emparelhadas é que você nunca saberá se o melhor desempenho se deve ao novo método ou se apenas é efeito do próprio desenvolvimento cognitivo do aluno. Por essas razões existem várias modelos para o delineamento experimental (ver Tabela 15).
Segundo Costa Neto (1977) uma amostra é emparelhada quando os resultados estão relacionados dois a dois segundo algum critério que introduz uma influência marcante entre os diversos pares, que supomos, porém, influir igualmente sobre os valoresde cada par.
O exemplo dado pelo autor é muito ilustrativo: 20 cobaias foram submetidas durante uma semana a uma dieta com certo tipo de ração. Os pesos das cobaias são medidos no início e no fim do tratamento, e desejamos tirar conclusões sobre o aumento médio de peso verificado. Se os animais forem perfeitamente idênticos, teremos duas amostras do tipo “antes e depois”, e os dados serão emparelhados, pois cada valor da primeira amostra estará perfeitamente associado ao respectivo valor da segunda amostra. O critério que garante o emparelhamento é a identidade de cada cobaia. Note-se que é razoável esperar que a identidade de cada animal tenha influência nos valores observados de seu peso, porém essa influência deve exercer-se de forma aproximadamente igual dentro de cada par de valores “antes e depois”; logo, ao se tomarem as diferenças entre os vários pares de valores, a influência individual de cada animal tende a desaparecer, restando apenas os efeitos produzidos pela ração. Neste exemplo, se os animais não fossem identificados, não haveria como associar os valores de duas amostras 
Este exemplo é clássico dos delineamentos experimentais, onde o pesquisador pode controlar fatores externos ao experimento, de tal forma a garantir que o ganho de peso seja apenas fruto da ração. Observe que em teoria, as cobaias não devem alterar seu comportamento para agradar o experimentador, nem o experimentador pode influenciar nas “respostas” das cobaias. O experimentador pode escolher cobaias com peso inicial “similar”, esta variável é fácil de ser medida e de ser isolada de outros fatores, etc.
Isto não acontece na pesquisa com alunos, onde esses podem tentar agradar ou prejudicar o professor, o experimentador pode influenciar nas respostas dos alunos, o instrumento de medida pode não estar medindo o que se deseja, os alunos de um grupo podem interagir, ou seja, uma série de elementos podem influenciar a validade interna do delineamento (ver Tabelas 15 e 16).
Tabela 15. Os modelos da Pesquisa Experimental: experimentação provocada12
(quando o pesquisador tem um controle muito grande sobre a variável independente)
Modelos experimentais
Viesses podendo afetar a validade interna
Viesses podendo afetar a validade externa
Pré-teste, pós-teste com grupo controle aleatório
R:O1 X O2 (Exp)
R:O1 O2 (Cont)
4. Mortalidade experimental
Teste t - amostras emparelhadas
(dentro do grupo)
Teste t - amostras independentes
(entre grupos)
9. Contaminação
10. Reações compensatórias
11. Desejo de agradar o examinador
13. Intervenções compensatórias
14. Expectativa do experimentador
15. Interação entre a intervenção e a situação 
 experimental
16. Interação entre os diferentes componentes 
 de uma intervenção
17. Interação entre as observações e a intervenção
18. Interação entre a seleção dos indivíduos e a
 intervenção
Modelo de Solomon com quatro grupos
R: O1 X O2 (Exp)
R: O1 O2 (Cont)
R: X O2 (Exp)
R: O2 (Cont)
4. Mortalidade experimental
Teste t - amostras emparelhadas
(dentro do grupo)
Teste F – ANOVA
(entre grupos)
Idem ao primeiro modelo, menos 17
Pós-teste somente com grupo-controle aleatório
R: X O2 (Exp)
R: O2 (Cont)
4. Mortalidade experimental
Teste t - amostras independentes
(entre grupos)
Idem ao primeiro modelo, menos 17
R: aleatório, X: intervenção, Oi: Observação da ou das variáveis dependentes do período
Modelos quase-experimentais
Viesses podendo afetar a validade interna
Viesses podendo afetar a validade externa
Pré-teste, pós-teste com grupo controle não equivalente
O1 X O2
6. Seleção
7. Interação
Teste t - amostras independentes
(entre grupos)
Idem ao primeiro modelo
Experimentação contra-balanceada ou quadrado latino
G1: Xa O1 Xb O2 Xc O3 Xd O4
G2: Xb O1 Xd O2 Xa O3 Xc O4
G3: Xc O1 Xa O2 Xd O3 Xb O4
G4: Xd O1 Xc O2 Xb O3 Xa O4
Interações
Teste F – ANOVA
(entre grupos)
(medidas repetidas -MANOVA)
Idem ao primeiro modelo
Ciclo institucional com análise transversal/longitudinal
G1: X O2 O3 O4 (Exp1)
G2: O2 X O3 O4 (Exp2)
G3: O3 O4 (Cont)
A validade do modelo para cada grupo é fraca. A validade do modelo resulta da coerência dos resultados obtidos para diferentes grupos.
Teste F – ANOVA
(entre grupos, medidas repetidas-MANOVA)
11. Desejo de agradar o examinador
14. Expectativa do experimentador
15. Interação entre a intervenção e a 
 situação experimental
16. Interação entre os diferentes 
 componentes de uma intervenção
18. Interação entre a seleção dos
 indivíduos e a intervenção
Gi: Grupos não aleatórios, Xi: intervenção, Oi: Observação da(s) variáveis dependentes do período
Tabela 16. Os modelos da Pesquisa Experimental: experimentação invocada13
Estudos comparativos ex-post
Viesses podendo afetar a validade interna
Viesses podendo afetar a validade externa
Somente pós-teste 
 X O2 (Exp)
1.História
2. Maturação
3. Familiarização com o teste
4. Mortalidade experimental
6. Seleção
Teste para uma média
12. Relação casual ambígua
14. Expectativa do experimentador
15. Interação entre a intervenção e a situação 
 experimental
16. Interação entre os diferentes componentes 
 de uma intervenção
18. Interação entre a seleção dos indivíduos e a
 intervenção
Somente pós-teste com grupo controle não
Equivalente
 X O2 (Exp)
 O2 (Controle)
2. Maturação
4. Mortalidade experimental
6. Seleção
7. Interações
Teste t - amostras independentes
(entre grupos)
Idem ao modelo anterior
Estudo pré/pós 
 O1 X O2 (Exp)
1. História
2. Maturação
3. Familiarização com o teste
7. Interações
8. Medição dos efeitos
Teste t – amostra emparelhada
(dentro do grupo)
Idem ao modelo anterior +
17. Interação entre a seleção dos indivíduos e a intervenção
Pré-teste, pós-teste com grupo controle não
equivalente
O1 X O2 (Exp)
O1 O2 (Controle)
4. Mortalidade experimental
5. Regressão até a média
7. Interações
Teste t - amostras emparelhadas
(dentro dos grupos)
Teste t - amostras independentes
(entre grupos)
11. Desejo de agradar o examinador
14. Expectativa do experimentador
15. Interação entre a intervenção e a situação 
 experimental
16. Interação entre os diferentes componentes 
 de uma intervenção
18. Interação entre a seleção dos indivíduos e a
 intervenção
Grupos não aleatórios, X: intervenção, Oi: Observação da(s) variáveis dependentes do período, ___ o grupo controle não é criado por distribuição aleatória.
Portanto, antes de levantar os dados examinar qual é o modelo mais conveniente para sua pesquisa.
O Teste F – ANOVA (Análise de variância) é utilizado quando vamos comparar três ou mais médias.
Fatores a serem levados em consideração para a escolha do teste adequado para o teste de diferença de duas médias:
Emparelhadas
(Paired-samples)
Amostras
Desvios padrões
Conhecidos:1, 2
Independentes
(Independent-samples)
Podem ser considera-
dos iguais1= 2
Desvio padrão
desconhecidos
1=? e 2=?
Não podem ser conside-
rados iguais: 1( 2
6.4.1 Amostras emparelhadas.
Dez cobaias adultas foram submetidas ao tratamento com uma nova ração durante uma semana. Os animais foram perfeitamente identificados, tendo sido mantidos, para tanto, em gaiolas individuais, obtendo-se os pesos, em gramas, no princípio (X) e no fim (Y) de semana. O que desejamos saber é se a nova ração aumenta significativamente o peso das cobaias, logo podemos formular as hipóteses da seguinte forma:
Conceitos
Notação
Definição
População
Cobaias
Amostra
As cobaias selecionadas
Variável
X, Y
 d = X - Y
X: Peso inicial das cobaias, Y: peso final das cobaias 
d = diferença do peso final e peso inicial
Parâmetros
Média Populacional 
 d
 d: média da diferença entre o peso final e inicial
Estimador
d barra, média da diferença do peso final e inicial da amostra
Estimativa
valor da média das diferenças daquelaamostra
Formulando as hipóteses:
Ho: x = y 	( Ho: x - y = 0	
H1: x < y 	( H1: x - y < 0	 
Para evitar ter que trabalhar com a cauda inferior e com muitas diferenças negativas, é aconselhável fazer a diferença do peso final e o peso inicial, assim você trabalhará sempre com a cauda superior e terá menos diferenças negativas. Cuidado ao calcular a média e os desvios, o sinal não pode ser esquecido.
Neste caso as hipóteses serão:
	Ho: d = 0 		onde 	d = Y - X
	H1: d > 0
A estatística a ser utilizada será:
Onde:
tamostra tem uma distribuição t-student com n-1 graus de liberdade, 
n é o número de sujeitos (pares)
d barra é a média da diferença
sd é o desvio padrão da diferença
 é em geral é igual a zero, mas pode tomar qualquer valor
A região de rejeição será determinada por uma t-student com 9 graus de liberdade, para =5%, t=1,833
	-( 	0 		 +(
			 t t
Operacionalizando a estatística da amostra:					tamostra
d barra = 6,6 
sd=7,043 (
Como tamostra cai na região de rejeição, concluímos que a ração aumenta o peso das cobaias.
Tabela de dados:
										
Cobaia
I
Peso antes
Xi
Peso depois
Yi
Diferença
di=Yi-Xi
1
635
640
5
2
704
712
8
3
662
681
19
4
560
558
-2
5
603
610
7
6
745
740
-5
7
698
707
9
8
575
585
10
9
633
635
2
10
669
682
13
Soma
-
-
66
No SPSS criar um banco de dados contendo apenas o número da cobaia, o peso antes e o peso depois, logo executar os seguintes comandos:
(Statistics
	(Compare means
		(Paired samples T- test		
Saída do SPSS:
- - - t-tests for paired samples - - -
 Number of 2-tail 
 Variable pairs Corr Sig Mean SD SE of Mean 
-------------------------------------------------------------------------- 
 X 655,0000 59,200 18,721 
 10 ,993 ,000 
 Y 648,4000 58,852 18,611 
 -------------------------------------------------------------------------- 
 Paired Differences | 
 Mean SD SE of Mean | t-value df 2-tail Sig 
 ----------------------------------|------------------------------------- 
 6,6000 7,043 2,227 | 2,96 9 ,016 
 95% CI (1,561; 11,639) | 
Calculando o p-valor ou o nível de significância observado na amostra:
p-valor = P(t9 > 2,96) = 0,007983 	(Calculado com o MINITAB, infelizmente o SPSS
	 não disponibiliza para o usuário estas funções)
Vejamos como o SPSS calcula o 2-tail Sig:
2-tail Sig = 2*p-valor = 2*0,007983 = 0,015966 = 0,016
Logo o SPSS já fornece o valor para testar igualdade versus diferença, isso significa que se desejarmos testar hipóteses unilaterais, devemos dividir o 2-tail Sig por dois 
Observe que o SPSS nos fornece uma análise completa da relação entre as duas variáveis. Ele calcula o coeficiente de correlação corr, que mede o grau de associação entre duas variáveis. É recomendável fazer o gráfico, pois o ganho de peso pode ser diferenciado e isso pode ser melhor apreciado pelo gráfico.
Figura 34. Relação entre o peso inicial e final das cobaias
O exemplo das cobaias enfrenta um grave problema, que é a passagem do tempo. Se as cobaias estiverem em pleno processo de crescimento, o efeito crescimento natural estará confundindo o efeito da ração no crescimento. Nesse caso, o experimentador teria que ter cuidado de trabalhar com cobaias adultas, onde esse fator é mínimo, ou usar um grupo controle.
6.4.2 Amostras independentes
Um exemplo, muito ilustrativo, é a luta dos cientistas contra a AIDS. Até hoje não foi descoberta uma vacina capaz de prevenir a doença. A luta dos pesquisadores se centra em prolongar o tempo de vida dos pacientes (X) e, nesse sentido, o AZT é um medicamento conhecido, suficientemente testado cuja eficácia está comprovada, porém é um medicamento limitado. Suponha que os cientistas que descobriram o “coquetel” chegam até você, que é o diretor do centro de pesquisas, e afirmam que “ baseado nos resultados dos experimentos de laboratório e em alguns pacientes voluntários, o coquetel é mais eficaz do que o AZT”. Você deverá tomar a decisão de liberar ou não o “coquetel” para o consumo pelos pacientes portadores da doença.
Este é um exemplo de amostras independentes, pois um grupo receberá o “coquetel” (grupo experimental) e o outro grupo continuará tomando AZT (grupo controle), os sujeitos deverão ser alocados a cada grupo aleatoriamente e cada sujeito não deve saber o medicamento que está tomando, bem como os examinadores também não devem saber qual tratamento o sujeito está recebendo. Este procedimento é chamado de duplo cego e é recomendado para evitar a interferência de fatores espúrios na experimentação.
Conceitos
Notação
Definição
População
Pessoas contaminadas pelo vírus HIV
Amostra
As pessoas voluntárias que se dispõem a participar do experimento
Variável
X
Tempo de sobrevivência após a contaminação
Parâmetros
Média
 populacional
 C: tempo médio de sobrevivência com o coquetel (experimental)
AZT: tempo médio de sobrevivência com o AZT (controle)
Estimadores
Médias amostrais e variâncias amostrais (corrigidas)
Estimativa
valor dos estimadores naquela amostra
Analisemos a situação usando a postura conservadora e a postura inovadora:
Postura conservadora
Postura Inovadora
Hipótese nula
Hipótese alternativa
Ho: (C = ( AZT
H1: (C > (AZT
Ho: (C = (AZT
H1: (C > ( AZT
Erro de tipo I
Alfa (()
Liberar o coquetel, porém ele não era tão eficaz quanto o AZT: como o coquetel ainda não foi suficientemente testado, não se sabe que problemas colaterais podem ser causados(*)
Não liberar o coquetel, quando ele era mais eficaz do que o AZT: poderia ter melhorado a qualidade de vida dos pacientes
Erro de tipo II
Beta (()
Não liberar o coquetel, quando ele era mais eficaz do que o AZT: poderia ter melhorado a qualidade de vida dos pacientes
Liberar o coquetel, porém ele não era tão eficaz quanto o AZT: como o coquetel ainda não foi suficientemente testado, não se sabe que problemas colaterais podem ser causados
(*) Devemos lembrar o caso da Talidomida que foi liberado para o uso de enxaqueca em mulheres grávidas, cujos fetos sofreram graves deformações físicas. Portanto, a liberação de remédios deve ter necessariamente o maior tempo de maturação possível, pois muitos efeitos colaterais só podem ser percebidos no longo prazo.
Este é um caso muito sério na tomada de decisões, uma vez que, de um lado, a tomada de decisões pode implicar na morte de pessoas, na qualidade de vidas delas e, de outro lado, a dificuldade de ampliação dos testes experimentais.
Formulando as hipóteses:
 
Ho: (1 = ( 2 ( Ho: (1 - ( 2 = 0 em geral : Ho: (1 - ( 2 = 
H1: (1 ( ( 2 ( H1: (1 - ( 2 ( 0		 H1: (1 - ( 2 ( 
Caso 1: População normal e com variâncias conhecidas:
Variâncias diferentes				variâncias iguais
Caso 2: População normal e com variâncias desconhecidas:
Variâncias iguais Estimativa da variância (combinada) 
gl = n1 + n2 - 2
Caso 3: População normal e com variâncias desconhecidas:
Variâncias diferentes Estimativa dos graus de liberdade 
Onde w1=s12/n1 e w1=s22/n2
Como a estatística depende da natureza das variâncias envolvidas devemos testar se as variâncias são iguais ou não:
Formulando as hipóteses: Teste de homogeneidade de variâncias
 
Ho: 12 = 22	A estatística F = max (s12, s22) 	rejeitando Ho se F > Fv1,v2,/2
H1: 12 ( 22			 min (s12, s22)	onde v1 é o gl do numerador e
 v2 é o gl do denominador
Este teste é baseado no pressuposto de normalidade da variável, o que nem sempre pode ser sustentado. O SPSS calcula o Levene Test que não depende da suposição de normalidade. Este teste será apresentado junto com ANOVA – Análise de variância, no próximo item.
Observa-se que quando à suposição de normalidade não é válida, o tamanho das amostras deve ser suficientemente grandes, a fim de garantir a convergência para a normalidade.
Exemplo 1:
A quantidade de um certo elemento no sangue varia segundo o sexo. Para os homens o desvio padrão é de 14,1 ppm e para as mulheres é 9,5 ppm. Amostras aleatórias de 75 homens e 50 mulheres forneceram média de 28 e 33 ppm respectivamente. Pode-se afirmar que a médias de concentração do elemento no sangue é o mesma para ambos sexos?
Estatísticas
Homens
Mulheres
n
75
50
Média
28
33
variância
1=14,1
2=9,5
Ho: (H = ( M ( Ho: (H - ( M = 0 ( 
H1: (H ( ( M ( H1: (H - ( M ( 0		
Para =5%, Z= ( 1,96
Figura 35. Região Crítica 
 -( 0 +(
 Zamostra 	Z=-1,96 				Z=-1,96	
Como Zamostra < -Z, rejeita-se Ho, ou seja as médias não podem ser consideradas iguais. 
Calculando o nível de significância da amostra:
2-tail sig = 2*p-valor = 2*P(Z < - Z)= 2* P(Z < - 2,37)=2*0,0089=0,0178 ( 1,8%
Logo será rejeitado ao nível de 5%, mas não ao nível de 1%
Exemplo 2:
Suponha que você está estudando a influência dos jogos matemáticos na aprendizagem da matemática na 5ª série, para isto você escolhe duas escolas, com as mesmas características sócio-econômicas. Em cada escola você escolhe a melhor turma em matemática. Em uma das escolas, sorteada aleatoriamente, você trabalha com jogos – grupo experimental (certamente você deverá se cercar de todos os cuidados para que as crianças não vejam você como um agente estranho) e na outra não – grupo controle. No início do período letivo você passa um teste - pré-teste - nos dois grupos e ao longo do primeiro semestre você trabalha junto com a professora na escola experimental. Encerrado o semestre letivo você passa o mesmo teste do início do ano - pós-teste -. 
Estrutura do delineamento:
								( corte longitudinal
G.Experimental pré-teste inter- pós-teste ( dif ( amostra emparelhada
G.Controle	 pré-teste 	 venção pós-teste ( dif ( amostra emparelhada
Corte		 Amostras		 amostras
Transversal	 independentes	 independentes	
Os dados (imaginários se encontram no banco de dados MEDIAS.SAV)
Grupo: 1=Experimental, 2=Controle
Aluno: código de identificação do aluno
Pos: Nota no pós-teste
Pre: nota no pré-teste
Dif: é a diferença das notas no pós-teste e pre-teste, calculado com o comando compute
Variacao: é a taxa de variação definido como a diferença dividido pela nota inicial e multiplicado por 100, para expressar em porcentagem, também criado pelo comando compute
Pre_1: é o valor predito para a reta de regressão linear, calculado pelo próprio SPSS
Deve-se ter cuidado ao criar o Banco de da Dados, uma vez que o SPSS precisa da variável a ser testada em uma colunas e os grupos em linhas. Já o MINITAB (outro software estatístico) da opções para trabalhar com grupos em colunas.
Estrutura do Banco de Dados MEDIAS.SAV
GRUPO ALUNO POS PRE DIF VARIACAO PRE_1
 1 1 8,50 6,00 2,50 41,67 8,04167
 1 2 8,00 5,00 3,00 60,00 7,70833
 1 3 9,00 7,00 2,00 28,57 8,37500
 1 4 8,50 5,00 3,50 70,00 7,70833
 1 5 8,00 6,00 2,00 33,33 8,04167
 1 6 9,00 7,50 1,50 20,00 8,54167
 1 7 7,50 4,50 3,00 66,67 7,54167
 1 8 8,50 7,00 1,50 21,43 8,37500
 1 9 7,50 5,00 2,50 50,00 7,70833
 1 10 7,00 6,00 1,00 16,67 8,04167
 1 11 7,00 7,00 ,00 ,00 8,37500
 1 12 6,50 2,00 4,50 225,00 6,70833
 1 13 7,50 3,00 4,50 150,00 7,04167
 1 14 7,00 4,00 3,00 75,00 7,37500
 1 15 8,00 5,00 3,00 60,00 7,70833
 1 16 6,50 2,00 4,50 225,00 6,70833
 2 1 7,50 6,00 1,50 25,00 7,16745
 2 2 7,00 5,00 2,00 40,00 6,37500
 2 3 8,00 7,00 1,00 14,29 7,95991
 2 4 7,50 5,00 2,50 50,00 6,37500
 2 5 8,00 7,50 ,50 6,67 8,35613
 2 6 7,00 4,50 2,50 55,56 5,97877
 2 7 6,50 5,00 1,50 30,00 6,37500
 2 8 6,00 6,00 ,00 ,00 7,16745
 2 9 4,00 3,00 1,00 33,33 4,79009
 2 10 5,00 4,00 1,00 25,00 5,58255
 2 11 6,00 5,00 1,00 20,00 6,37500
 2 12 4,00 2,00 2,00 100,00 3,99764
Coloquemos as principais estatísticas:
Grupo
n
Estatística
Pré-teste
Pós-teste
Diferença
Experimental
16
média
desvio padrão 
5,13
1,72
7,75
0,82
2,63
1,28
Controle
12
média
desvio padrão
5,00
1,55
6,38
1,42
1,38
0,77
Geral
28
média
desvio padrão
5,07
1,62
7,16
1,29
2,09
1,25
Como o tamanho da amostra é relativamente pequeno, devemos checar a suposição de normalidade da nota dos alunos no pré-teste, que devem ter um desempenho similar, como ponto de partida. Assim devemos fazer uma análise exploratória dos dados (EXPLORE), incluindo o teste de normalidade e o gráfico de box-plot para ajudar nosso trabalho exploratório.
Saída do comando Statistics ( Summarize ( Explore 
 PRE
 Valid cases: 28,0 Missing cases: ,0 Percent missing: ,0
 Mean 5,0714 Std Err ,3061 Min 2,0000 Skewness -,4334
 Median 5,0000 Variance 2,6243 Max 7,5000 S E Skew ,4405
 5% Trim 5,1071 Std Dev 1,6200 Range 5,5000 Kurtosis -,4404
 IQR 1,8750 S E Kurt ,8583
 Frequency Stem & Leaf
 3,00 2 . 000
 2,00 3 . 00
 4,00 4 . 0055
 8,00 5 . 00000000
 5,00 6 . 00000
 6,00 7 . 000055
 Stem width: 1,00
 Each leaf: 1 case(s)
 Statistic df Significance
 Shapiro-Wilks ,9249 28 ,0538		
 K-S (Lilliefors) ,1247 28 > ,2000														
Uma vez que a suposição de normalidade foi aceita, agora devemos testar a igualdade no ponto de partida. Neste caso estamos frente a comparação de duas médias de amostras independentes, fazendo isto com o SPSS:
Figura 36. Distribuição das notas no pré-teste
(Statistics
	(Compare means
		(Independent-Samples T-test
			Test variable ( selecionar as variáveis a serem testadas (pré)
				Grouping variable ( selecionar grupo
							Group 1: 1
							Group 2: 2	
Saída do SPSS
t-tests for independent samples of GRUPO
 Number
 Variable of Cases Mean SD SE of Mean
 PRE
 Experimental 16 5,1250 1,718 ,429
 Controle 12 5,0000 1,552 ,448
 Mean Difference = ,1250
 
Levene's Test for Equality of Variances: F= ,376 P= ,545
 t-test for Equality of Means 95%
 Variances t-value df 2-Tail Sig SE of Diff CI for Diff
 Equal ,20 26 ,844 ,630 (-1,170; 1,420) Aceitamos Ho
 Unequal ,20 25,01,842 ,621 (-1,153; 1,403) 
Logo podemos considerar as médias das notas no pré-teste iguais. Agora estamos prontos para analisar como evoluíram os dois grupos. Se quisermos testar simultaneamente as médias emparelhadas para os dois grupos, dividir o arquivo com o comando SPLIT:
(Data
	(Split file
		(Repeat analysis for each group
			Group based on ( Selecionar a variável grupo
(Statistics 
	(Compare means
		(Paired-Samples T – Test
			Paired variables ( selecionar as variáveis pos e pre
	
Saída do SPSS:
GRUPO: 1 Experimental
 - - - t-tests for paired samples - - -
 Number of 2-tail
 Variable pairs Corr Sig Mean SD SE of Mean
 POS1 7,7500 ,816 ,204
 16 ,701 ,002
 PRE 5,1250 1,718 ,429
 Paired Differences 
 Mean SD SE of Mean t-value df 2-tail Sig
 
 2,6250 1,285 ,321 8,17 15 ,000
 95% CI (1,940; 3,310) 
Ho: (pos = ( pre	Ho: (pos- pre = 0	Logo rejeitamos Ho( logo são diferentes
H1: (pos ( ( pre 	H1: (pos-pre ( 0
O SPSS sempre fornece o teste bilateral, que não é o nosso caso, tendo em vista que estamos pressupondo que o trabalho com jogos aumenta o desempenho dos alunos e mesmo que isso não se confirme existe o efeito do desenvolvimento cognitivo da criança. Logo, as nossas hipóteses serão:
Ho: (pos = ( pre	Ho: (pos- pre = 0	
H1: (pos > ( pre 	H1: (pos-pre >0
Logo devemos dividir por dois o valor 2-tail significance, que dará um valor próximo de zero, o que nos leva a conclusão de que o desempenho no pós-teste é superior ao desempenho no pré-teste.
GRUPO: 2 Controle
 - - - t-tests for paired samples - - -
 Number of 2-tail
 Variable pairs Corr Sig Mean SD SE of Mean
 POS1 6,3750 1,416 ,409
 12 ,868 ,000
 PRE 5,0000 1,552 ,448
 Paired Differences 
 Mean SD SE of Mean t-value df 2-tail Sig
 1,3750 ,772 ,223 6,17 11 ,000
 95% CI (,884; 1,866) 
Chegamos a mesma conclusão que no grupo experimental, ou seja, também houve um crescimento no grupo controle. Agora, a pergunta é em qual dos dois grupos o desempenho foi melhor, ou o ganho foi superior? 
Figura 37. Distribuição da diferença das notas (pós-pré)
Aqui devemos fazer o teste para amostras independentes trabalhando com a diferença entre o pós-teste e pré-teste.
 Variable of Cases Mean SD SE of Mean
 
 DIF
 Experimental 16 2,6250 1,285 ,321
 Controle 12 1,3750 ,772 ,223
 Mean Difference = 1,2500
 Levene's Test for Equality of Variances: F= 2,360 P= ,137
 t-test for Equality of Means 95%
 Variances t-value df 2-Tail Sig SE of Diff CI for Diff
 Equal 2,98 26 ,006 ,419 (,388; 2,112)
 Unequal 3,20 25,02 ,004 ,391 (,445; 2,055)
Ho: (dife = ( difc		
H1: (dife > ( difc		
Onde:
(dife = média das diferenças entre o pós e pre do grupo experimental	
(difc = média das diferenças entre o pós e pre do grupo controle
Como as variâncias podem ser consideradas iguais, o valor a ser lido é 2-tail sig=0,006, o que significa que o p-valor é igual a 0,003, ou seja rejeitamos a hipótese nula, permitindo concluir que o desempenho no grupo experimental foi superior ao do grupo controle.
Analisando com mais detalhe essa relação, vejamos como se relacionam as duas variáveis por grupo, utilizando a análise de correlação e regressão, que serão estudados com maior detalhe proximamente. Aqui faremos apenas uma apresentação intuitiva dessa técnica.
Grupo
Experimental
Controle
Coeficiente de correlação
0,701
0,868
R Square ( R2
49,2%
86,9%
Adjusted R Square ( R2a
45,5%
75,4%
Signif F (p-valor)
0,0025
0,0002
Intercepto (contant) / Sig (p-valor)
6,04
0,0000
2,41
0,0090
Slope (Pré) / Sig (p-valor)
0,33
0,0025
0,79
0,0002
A Figura 38 mostra como se relaciona o desempenho no pré-teste e no pós-teste, por grupo, tendo já ajustado uma função linear, com os seguintes resultados:
Grupo Experimental: Pós = 6,04 + 0,33*Pré ( R2 = 49,2%
Grupo Controle: 	 Pós = 2,41 + 0,79*Pré ( R2 = 75,4%
Geral Pós = 4,52 + 0,52*Pré ( R2 = 42,7% (p-valor=0,0002)
Observe que as duas linhas são diferentes, enquanto que a linha do grupo experimental tem uma inclinação menor e um intercepto maior, a linha do grupo controle tem uma inclinação maior e um intercepto menor. Essas linhas mostram a superioridade do desempenho do grupo experimental. A menor inclinação da linha do grupo experimental mostra que os grandes beneficiados da introdução dos jogos no ensino de matemática foram as crianças que apresentavam maior dificuldade, no início do semestre. 
Figura 38. Relação entre o desempenho nos testes, por grupo
6.5 Testando a igualdade de mais de duas médias ANOVA
Muitas vezes nos deparamos com a análise de desempenho de mais de dois grupos, como, por exemplo, no caso da pesquisa de Paulínia, temos as atitudes de Matemática por gênero, série, período, turma, entre outras variáveis relevantes para entender o relacionamento dos alunos em relação a Matemática. Suponhamos que gostaríamos de saber se as atitudes em relação à Matemática varia em relação a série, neste caso as hipóteses serão:
Variável dependente ( X: Atitude em relação à Matemática (quantitativa, contínua)
				que toma valores entre 20 e 80
Variável independente ( Y: série (qualitativa, ordinal)
				Que toma valores de 3 a 9, onde 3=5ª, 4=6ª,...
		
Ho: 3 = 4 = 5 = 6 = 7 = 8 = 9 ( igualdade de médias ( a atitude não varia por série
Ho: i ( j, para algum i (j ( existe pelo menos duas séries diferentes
Com fins didáticos apresentaremos um exemplo pequeno e simples (JOGOS.SAV). Suponha que desejamos testar a validade da introdução dos jogos matemáticos e do uso do computador com softwares matemáticos no ensino de matemática. Para isto delineamos o seguinte experimento: escolhemos aleatoriamente alunos de uma turma e os alocamos nos três grupos: 
Grupo controle: Somente as aulas tradicionais ( controle=1
Grupo experimental 1: As aulas tradicionais, mais jogos matemáticos( jogos =2
Grupo experimental 2: As aulas tradicionais, mais o uso do computador (computador=3
A variável dependente será X, nota no teste de avaliação (valores de 0 a 10), no final da intervenção.
As hipóteses:
Ho: 1 = 2 = 3			 ( Não existe diferença entre grupos
H1: 1 ( 2 ou 1 ( 3 ou 2 ( 3	 ( Existe pelo menos uma diferença
Suponha que os resultados foram:
Alunos (repetições)
Grupos
Controle
Jogos
computador
1
8
7
10
2
7
8
9
3
6
8
9
4
7
9
8
5
7
8
9
Média
7
8
9
Soma de quadrados dos desvios
2
2
2
Variância sem corrigir
2/5
2/5
2/5
Média geral
8
Soma de quadrados dos desvios total
16
Variância geral sem corrigir
16/15
Trabalhando com os desvios:
Nota
Controle
Jogos
Computador
Geral
6
1
-1
1
-2
7
3
0
1
-1
4
-1
8
1
+1
3
0
1
-1
5
0
SQTotal
9
1
+1
3
0
4
1
=16
10
1
+1
1
2
Média
7
8
9
8
Soma dos desvios 
dentro de cada grupo
2
2
2
SQDentro=6
Desvio da média do grupo
 em relação a média total
-1
0
1
Soma dos quadrados dos 
desvios entre grupos 
5
0
5
SQEntre=10
É fácil mostrar que a variância total pode ser escrita como sendo a soma da variância dentro dos grupos e a variância entre os grupos:Variância geral = variância entre os grupos + variância dentro dos grupos
							 (média das variâncias dos grupos)	
16/15 = 2/3 + 2/5 = 10/15 + 6/15 
ou ainda:
Soma dos Quadrados
Total
=
Soma de Quadrados
Entre Grupos
+
Soma de Quadrados
Dentro dos Grupos
SQTotal
=
SQGrupos
+
SQErro
Em geral, sob os seguintes pressupostos:
As k amostras representam amostras independentes provenientes de k populações com médias 1, 2 ... k
Cada uma das k populações é normal
Cada uma das k populações tem a mesma variância (homocedasticidade)
Pode-se mostrar que as somas de quadrados seguem uma distribuição chi-quadrado com os seguintes graus de liberdade:
SQTotal ~(2n-1
=
SQGrupo ~(2k-1
+
SQErro ~(2n-k
De outro lado sabemos que uma distribuição F é o quociente de duas distribuições qui-quadrados divididos pelos seus graus de liberdade respectivamente, logo:
A pergunta é como a estatística F pode ser usada para testar a hipótese nula de igualdade de médias? Pode-se mostrar que a esperança matemática dos quadrados médios devidos ao Grupo e ao Erro tem o seguinte forma:
Logo sob a hipótese nula de igualdade de médias
Se a hipótese nula for falsa então este valor deve ser positivo (soma de quadrados). Ou seja, sob a hipótese nula de igualdade de variâncias devemos esperar que os quadrados médios entre grupos e devido ao erro estejam próximos , assim a estatística F deve ser próxima de 1, se a hipótese for falsa esperamos que o QMGrupos seja maior que o QMErro:
Se Ho: 1 = 2 = 3 (não existe diferença entre grupos) for verdadeira ( F( entre 0 e 1
Se Ho: for falsa ( QMGrupos > QMErro ( F > 1
A estatística F terá apenas uma região de rejeição, a cauda superior. Assim podemos construir a Tabela de Análise de Variância
Tabela de Análise de Variância – ANOVA (um critério de classificação – ONE WAY)
Fonte de variação
Graus de liberdade
Soma de quadrados
Quadrados médios
F
F prob
p-valor
Entre grupos
k-1
SQGrupo
QMGrupo
Fa
P(F > Fa)
Dentro dos grupos
n-k
SQErro
QMErro
Total
n-1
SQTotal
Fa é o valor encontrado na amostra, a estatística F terá uma distribuição F de Snedecor com k-1 graus de liberdade (número de grupos menos um) no numerador e n-k graus de liberdade no denominador (número de sujeitos menos o número de grupos).
Analisando a estatística F:
Se tivéssemos k grupos diferentes, porém perfeitamente homogêneos dentro de si, a variância dentro dos grupos será igual a zero e a variância total estaria explicada apenas pela diferença entre os grupos - variância entre grupos -, logo a estatística F tenderia para infinito, concluindo que a variância se devia a diferença entre grupos.
E, se ao contrário, todos os grupos tivessem exatamente a mesma média, então a variância entre grupos seria igual a zero, logo a estatística F tomaria o valor zero, concluindo que a variância total se devia a variação interna dos grupos e não a diferença entre grupos.
Assim a estatística F varia de zero até infinito e quanto mais próximo de zero e de um, menor a evidência de diferenças entre os grupos e quanto maior que 1, maior a evidência da diferença entre grupos.
Calculemos a ANOVA no nosso exemplo dos três grupos:
Tabela de Análise de Variância – ANOVA (um critério de classificação – ONE WAY)
Fonte de variação
Graus de liberdade
Soma de quadrados
Quadrados médios
F
F prob
p-valor
Entre grupos
2
10
5,0
10
0,0028
Dentro dos grupos
12
6
0,5
Total
14
16
Logo rejeitamos Ho, concluindo que existe diferença entre os grupos. Agora só falta saber entre quais grupos existe diferença, para isso temos que fazer as comparações múltiplas. 
Use o Banco de Dados JOGOS.SAV
Statisticis
	Compare means
		One-Way ANOVA
			Dependent list ( selecionar a variável dependente ( nota
				Factor ( selecionar a variável indpendente ( grupo(*)
				Define range: Minimum: 1
						Maximum: 3 
					Post Hoc ( Comparações multiplas( Tuckey...
					Options ( Descritive 
						 Homogeneity of variances ( Levene test
Saída do SPSS
 - - - - - - - - - - - - - - - - - - - - O N E W A Y - - - - - - - - - - - - - - - - -
 
 Variable NOTA 
 By Variable GRUPO 
 
 Analysis of Variance 
 
 Sum of Mean F F 
 Source D.F. Squares Squares Ratio Prob. 
 
Between Groups 2 10,0000 5,0000 10,0000 ,0028 
Within Groups 12 6,0000 ,5000 
Total 14 16,0000 
 
 
 
 Standard Standard 
Group Count Mean Deviation Error Minimum Maximum 95 Pct Conf Int for Mean 
 
Grp 1		5 7,0 ,7071 ,3162 6,0 8,0 6,1220 TO 7,8780 
Grp 2 		5 8,0 ,7071 ,3162 7,0 9,0 7,1220 TO 8,8780 
Grp 3 		5 9,0 ,7071 ,3162 8,0 10,0 8,1220 TO 9,8780 
 
Total 	 15 8,0 1,0690 ,2760 6,0 10,0 7,4080 TO 8,5920 
 
 
Levene Test for Homogeneity of Variances 
 
 Statistic df1 df2 2-tail Sig. 
 ,0000 2 12 1,000 
_____________ 
(*) Por esta razão, que a variável dependente deve ser colocada no SPSS de forma numérica, de preferência utilizando números consecutivos.
Saída para as comparações múltiplas:
- - - - - - - - - - - - - - - - - O N E W A Y - - - - - - - - - - - - - - - - - - - - - - 
 Variable NOTA 
 By Variable GRUPO 
 
Multiple Range Tests: Tukey-HSD test with significance level ,050 
 
The difference between two means is significant if 
 MEAN(J)-MEAN(I) >= ,5000 * RANGE * SQRT(1/N(I) + 1/N(J)) 
 with the following value(s) for RANGE: 3,77 
 
 (*) Indicates significant differences which are shown in the lower triangle 
 
 G G G 
 r r r 
 p p p 
 1 2 3 
 Mean GRUPO 
 
 7,0000 Grp 1 
 8,0000 Grp 2 
 9,0000 Grp 3 * 
 
 Homogeneous Subsets (highest and lowest means are not significantly different) 
 
Subset 1 
Group Grp 1 Grp 2 
Mean 7,0000 8,0000 
- - - - - - - - - - - - - - - - - 
Subset 2 
Group Grp 2 Grp 3 
Mean 8,0000 9,0000 
- - - - - - - - - - - - - - - - - 
A saída das comparações múltiplas está dada em forma de uma matriz simétrica, cuja diagonal corresponderia a comparar o grupo com ele mesmo, por tanto devemos ler apenas a diagonal inferior. Na célula onde existe um asterisco significa que existe diferença entre esses grupos, caso contrário, os grupos podem ser considerados iguais. 
Média
Grupo
Grupo1
Controle
Grupo2
Jogos
Grupo3
computador
7
1=Controle
8
2=Jogos
9
3=Computador
*
Neste caso, podemos afirmar que o grupo do computador teve um desempenho superior ao controle, mas não é diferente ao grupo dos jogos, o mesmo acontece com o grupo dos jogos que não se diferencia do grupo controle.
6.5.1 Comparações Múltiplas
Existe um problema sério para detectar os grupos diferentes, uma vez que existem k*(k-1)/2 possíveis comparações, e o nível de significância aumenta a medida que aumenta k o número dos tratamentos, por esta razão tomar cuidado ao se realizar estes testes.
Levene Test. Para testar homogeneidade de variâncias, o Levene Test calcula o valor absoluto dos desvios dos valores da variável em relação a média do grupo e realiza o ANOVA-One Way.
� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p ���
RA: Região de Aceitação
Distribuição da média amostral,
 sob Ho verdadeira
RR: Região Crítica ou de Rejeição
RR=(
RA=(1-)
� EMBED Equation.2 ���
� EMBED Equation.2 ���
( = 2000
� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p ���
Distribuição da média amostral,
 sob Ho falsa

RA
1-(
RR� EMBED Equation.2 ���
RA
RA


RR
/2
RA� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p ���
RR
/2

RR

RR

� EMBED Equation.2 ���
ou
� EMBED Equation.2 ���
Em geral:
� EMBED Equation.2 ���
ou
No nosso exemplo:
� EMBED Equation.2 ���
� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p ���
 Unilateral
 Cauda superior
 Ho: ( = 2000
 H1: ( > 2000
RR:  =5%
RA: 1-=95%
RR
RR
RR
RR
RA
RA� LINK SPSSCHRT "C:\\SPSSWIN\\NORMAL.CHT" "Contents" \p ���
RA
� EMBED Equation.2 ���
� EMBED Equation.2 ���
RR: Liberar o carregamento
t
� LINK SPSSCHRT "C:\\SPSSWIN\\CURSO98\\NORMAL.CHT" "Contents" \p ���
=1% =5%
RA: Incinerar o carregamento
RR: Incinerar o carregamento
t
� LINK SPSSCHRT "C:\\SPSSWIN\\CURSO98\\NORMAL.CHT" "Contents" \p ���
=5% =1%
RA: Liberar o carregamento
� EMBED Equation.2 ���
� EMBED Equation.2 ���
Na postura ética:
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
Na postura do produtor:
Cuidado: para evitar confusão trabalhe tudo
em tanto por um ou tudo em tanto por cento, nunca misture essas duas formas.
�EMBED Equation.2���
�EMBED Equation.2���
�EMBED Equation.2���
�LINK SPSSCHRT "C:\\SPSSWIN\\CURSO98\\NORMAL.CHT" "Contents" \p���
RR: investir no
candidato XYZ
=5%
Não investir
no candidato XYZ
RA
=95%
(((...
((((((...
(((...
(((((...
(((...
((((...
(((...
( ( (
...
(
(
(
(
(
...
Ho: d = 0	onde 	
H1: d < 0 	d = X - Y
 	
� EMBED Equation.2 ���
t-student com n-1 gl
� LINK SPSSCHRT "C:\\SPSSWIN\\CURSO98\\NORMAL.CHT" "Contents" \p ���
RR: a ração aumenta o peso das cobaias
t
=5% =1%
RA: a ração não aumenta o peso das cobaias
� EMBED Equation.2 ���
( 2*p-valor
Se o intervalo incluí-se o zero, aceitaríamos a hipótese nula de igualdade de médias
Peso depois
� LINK SPSSCHRT "C:\\SPSSWIN\\COBAIAS.CHT" "Contents" \p ���
Coeficiente de correlação:
 r=0,993
Ho: =0
H1: (0
2-tail sig=0,000
Logo rejeita-se Ho
Ou seja, existe correlação entre
as variáveis
Peso antes
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
=2,5%
=2,5%%
� LINK SPSSCHRT "C:\\SPSSWIN\\CURSO98\\NORMAL.CHT" "Contents" \p ���
RR
RA
Ho: X tem uma distribuição Normal
H1: X não tem uma distribuição normal
Podemos trabalhar com a suposição de normalidade
� LINK SPSSCHRT "C:\\SPSSWIN\\MEDIAS2.CHT" "Contents" \p ���
Test t:
Ho: (c = ( e
H1: (c ( ( e
Teste de Levene:
Ho: 12 = 22
H1: 12 ( 22
Logo, podemos considerar igualdade de variâncias
� LINK SPSSCHRT "C:\\SPSSWIN\\MEDIAS1.CHT" "Contents" \p ���
Igualdade de
Variâncias
Nota no pós-teste
� LINK SPSSCHRT "C:\\SPSSWIN\\MEDIAS3.CHT" "Contents" \p ���
Grupo experimental
Grupo controle
Nota no pré-teste
Onde: QMGupo = SQGrupo / (k-1)
 QMErro = SQErro / (n-k) 
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
� EMBED Equation.2 ���
10 ver operacionalização, página 113
11 Onde VA é o valor da amostra e VC é o valor crítico
12 Extraído do Quadro 4.3 do Livro de Contandriopoulus e outros, página 51
13 Extraído do Quadro 4.4 do Livro de Contandriopoulus e outros, página 54. Pesquisa invocada, segundo esses autores, ocorre quando o pesquisador não pode manipular a variável independente e utiliza variações naturais ou acidentais (não organizadas por ele mesmo) desta variável, numa lógica análoga aquela do método experimental, para medir os efeitos sobre uma ou mais variáveis dependentes.
Apostila de Estatística 
Profª Irene Mauricio Cazorla
_968317968.unknown
_970081240.unknown
_970165237.unknown
_970336778.unknown
_973118581.unknown
_970245560.unknown
_970245585.unknown
_970245828.unknown
_970243927.unknown
_970165071.unknown
_970165188.unknown
_970134857.unknown
_970080698.unknown
_970080849.unknown
_970081086.unknown
_970081068.unknown
_970068847.unknown
_970073005.unknown
_970080291.unknown
_970068168.unknown
_968178676.unknown
_968270122.unknown
_968317963.unknown
_968317965.unknown
_968317961.unknown
_968231182.unknown
_968231598.unknown
_968237130.unknown
_968178854.unknown
_968227612.unknown
_968170081.unknown
_968172091.unknown
_968172196.unknown
_968171982.unknown
_968168646.unknown
_968168779.unknown
_958146167.unknown
_958146174.unknown

Outros materiais

Materiais relacionados

Perguntas relacionadas

Perguntas Recentes