Baixe o app para aproveitar ainda mais
Prévia do material em texto
Estudo Dirigido – Estatística Aplicada às Ciências Sociais e Ambientais A Estatística é definida como a ciência que se utiliza de teorias probabilísticas para explicar e demonstrar a frequência da ocorrência de determinados eventos, tanto em estudos observacionais quanto em experimento modelar a aleatoriedade e a incerteza de forma a estimar ou possibilitar a previsão de fenômenos futuros. Uma população é considerada o conjunto de elementos ou informações que compartilha uma característica. Toda pesquisa estatística tem a necessidade de atender a um público-alvo, pois é com base nesse conjunto de pessoas que os dados são coletados e averiguados de acordo com o alvo da pesquisa. Então, este público-alvo recebe o nome de população e constitui um conjunto de pessoas que apresenta características próprias, citando como exemplo, os usuários de um plano de saúde, os membros de uma equipe de futebol, os funcionários de uma empresa, os eleitores de um município, estado ou país, os alunos de uma escola, os associados de um sindicato, os integrantes de uma casa, indivíduos nascidos no Brasil, indivíduos nascidos em Curitiba no mês de maio e várias situações que envolvem um grupo geral de elementos. A estatística é considerada uma ciência que se dedica a alguns fatores, como coleta, análise e interpretação de dados. Preocupa-se também com os métodos de recolhimento dos dados, organização, resumo, apresentação e interpretação desses dados, para posteriormente tirar conclusões sobre as características das fontes de onde esses fatores foram retirados, para melhor compreender as situações. População finita: nesses casos, o número de elementos de um grupo geralmente não é muito grande, a entrevista e a análise das informações devem abordar a todos do grupo, sendo passível de contagem. População infinita: o número de elementos nesse caso é muito elevado, sendo considerada impossível a contagem. Amostra é um conceito de estatística que tem o significado de um subconjunto de elementos que é pertencente a uma população. A informação capturada para uma amostra é depois generalizada a toda a população. Amostragem é definida como o processo de obtenção da amostra de uma população, sendo considerado o estudo de um pequeno grupo de elementos retirado uma população que se pretende conhecer. Trata-se de uma técnica de pesquisa na qual é utilizado um sistema de amostras que é considerado idôneo para representar o campo pesquisado, levando em consideração uma margem de erro christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce aceitável. Uma amostragem se torna imprescindível quando a pesquisa é realizada em uma população muito grande, ou quando são realizados testes destrutivos, testes com novas drogas, ou ainda, quando é realizado o cálculo de uma população hipotética. A bioestatística é a considerada como a aplicação de estatística aos campos biológico e médico, sendo essencial ao planejamento, à coleta, à avaliação e à interpretação de todos os dados obtidos em pesquisa. É comumente utilizada para entender sistemas variáveis, controle de processos, custos financeiros (contábil) e de qualidade e para sumarização de dados e também tomada de decisão baseada na obtenção de dados. O termo variável é toda e qualquer característica que, quando observada dentro de uma situação experimental, pode variar de um indivíduo para o outro, sendo que existem diferentes tipos de variáveis. Um dos conceitos fundamentais da estatística é de que o mundo é composto por inúmeras variabilidades. Qualquer que seja o fenômeno em que exista interesse em ser realizada uma análise, é necessário ter a consciência de que medições periódicas de um determinado elemento podem gerar resultados diferenciados durante o decorrer do tempo, sendo que para toda medição existe variabilidade. Variáveis qualitativas são conhecidas como os dados que são distribuídos em categorias mutuamente exclusivas, sendo caracterizadas como nominais. Exemplo: tipo sanguíneo de uma pessoa (A, B, AB ou O). Variáveis quantitativas são conhecidas pelos dados que são expressos por números, sendo caracterizadas por duas classes: a classe contínua, que é expressa, por exemplo, por qualquer valor em um intervalo, como peso, altura, dosagens etc.; e a classe discreta, que é representada por valores inteiros e/ou contagem direta, por exemplo, o número de filhos de uma pessoa ou o número de óbitos de uma cidade. O planejamento estatístico de experimentos em uma pesquisa científica é necessário, pois é realizada a busca de dados confiáveis que venham confirmar, ou não, as hipóteses formuladas no decorrer do estudo, sendo relacionadas aos objetivos específicos da pesquisa. Um conjunto de resultados ou observações é necessário para que as hipóteses possam ser verificadas ou testadas. A variação aleatória é caracterizada como uma espécie de variação impossível de ser explicada em experimentos clinicos e/ou biológicos, sendo que sua estatística depende de interpretação e essa modalidade de variação não está isenta de erros na observação e/ou coleta de dados. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce Dentro da Estatística, um parâmetro é considerado como uma característica da população. O parâmetro raramente é conhecido pelo fato de que, em geral, é muito caro ou demorado para obter dados da população inteira. Por isso, se faz necessária a utilização de amostras. Na estatística, a estimativa é necessária para avaliar ou testar hipóteses de um parâmetro populacional, na qual são calculados as médias e o desvio padrão, sendo que é utilizada uma amostra mais próxima possível de um valor real. Um levantamento de dados é necessário para a coleta de dados para a descrição e análise de uma população, sendo que é planejado no delineamento do experimento e é necessário um cuidado durante o levantamento de dados, pois eventuais falhas podem levar à invalidação do experimento. Existe uma variedade de tipos de levantamento de dados. Um levantamento de dados considerado contínuo é caracterizado por eventos que são registrados conforme o seu acontecimento. Exemplo: o registro civil (nascimentos, casamentos, óbitos) e também o registro de doenças (H1N1). Durante a coleta de dados, existe uma variedade de dados que são recolhidos ao longo da pesquisa, sendo que esses dados podem ser considerados como primários (obtidos diretamente da população, como questionários etc.), secundários (é investigada uma hipótese utilizando dados arquivados/registrados/publicados), ou ainda, os dados considerados “provocados”, que são aqueles dados coletados antes e após um tratamento. A apuração dos dados é uma etapa seguinte ao levantamento, em que é considerado o processo para determinar o número de constituintes de cada categoria; é determinada a frequência (número de indivíduos/categoria) e a distribuição de frequências (frequências das categorias). A estatística não é considerada uma ferramenta matemática que nos informa com exatidão sobre a quantidade de ocorrência de erros nas nossas observações que apresentam os dados sobre a realidade pesquisada. A estatística é baseada na medição do erro que existe entre a estimativa de quanto uma amostra representa adequadamentea população da qual foi extraída. Assim, o conhecimento de teoria de conjuntos, análise combinatória e cálculo são considerados indispensáveis para compreender como o erro se comporta e qual a magnitude do mesmo. É o erro (erro amostral) que define a qualidade da observação e do delineamento da análise. Em algumas variáveis, a determinação das categorias ou classes é considerada fácil ou difícil. Em algumas situações, a determinação das categorias ou variáveis se apresenta difícil pela complexidade do item classificador. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce Exemplo: a causa básica de uma morte; a possibilidade do agente pesquisado de participar de várias classes, além de pertencer a um elevado número de classes. Um gráfico é caracterizado pela tentativa de expressar visualmente os dados ou valores numéricos, de outras maneiras, assim, facilitando a compreensão dos dados. A representação gráfica deve representar os dados na forma de figuras, gráficos ou diagramas, devem ser autoexplicativo, simples e atrativo. As normas nacionais são regidas pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Uma amostragem é caracterizada de uma forma menos abreviada, do estudo por amostragem, sendo que é considerado o estudo de um pequeno grupo de elementos retirado de uma população (estatística) que se tem a necessidade de conhecer, pois se trata de uma técnica de pesquisa na qual um sistema já estabelecido de amostras é considerado idôneo para representar o universo pesquisado, levando em consideração uma margem de erro aceitável. As amostragens apresentam várias vantagens, são elas: menor custo, resultado mais rápido, além de objetivos amplos, e também pelo fato de que as amostragens apresentam resultados confiáveis. Em um conjunto de dados, eventualmente se todas as observações de uma variável estão aproximadas, isso indica que os indivíduos não apresentam grandes diferenças com relação a essa variável. Por outro lado, se as observações são caracterizadas como dispersas, isso indica diferenças entre os indivíduos. Quanto maior a dispersão tende a ser, maior a diferença. Amplitude de variação é caracterizada pela diferença entre os valores extremos de uma distribuição, sendo que, para o seu cálculo, são utilizados alguns valores da distribuição, porém, a amplitude de variação se mostra precária pelo fato de não demonstrar como é caracterizada a dispersão. Em Estatística, o coeficiente de variação se caracteriza por uma medida de dispersão utilizada para estimar a precisão de experimentos e representa o desvio padrão expresso como uma porcentagem da média. Sua principal qualidade é devido à capacidade de comparação de distribuições distintas. Dentro da estatística descritiva, o coeficiente de correlação de Pearson é uma medida de variabilidade relativa, também conhecida como "coeficiente de correlação produto-momento", ou simplesmente " de christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce Pearson", sendo caracterizada por medir o grau da correlação entre duas variáveis de escala métrica e comparar a variabilidade de duas distribuições. A estatística descritiva é caracterizada por um ramo da estatística que aplica várias técnicas para a descrição, além de sumarizar um conjunto de dados. Apresenta diferenças da estatística inferencial, ou estatística indutiva, pelo seu objetivo, que é organizar, sumarizar dados ao invés de usar os dados em aprendizado sobre a população. Esse princípio torna a estatística descritiva independente. As medidas de tendência central são caracterizadas pela determinação de distribuição de uma variável, além de descrever diferentes propriedades da distribuição de uma variável. Essas medidas também indicam a localização dos dados. A média aritmética é considerada como uma medida de tendência central, sendo que é muito utilizada no cotidiano. A média aritmética surge do resultado da divisão do somatório dos números dados pela quantidade de números somados. A média aritmética é caracterizada pela somatória de todos os valores dividida pela frequência total, sendo que apresenta valor único, mesma natureza da variável; tem grande influência por valores extremos e não pode ser calculada para valores em classes com extremos indefinidos. A Teoria das probabilidades é caracterizada como um estudo matemático das probabilidades. O francês Pierre Simon Laplace é considerado o fundador dessa teoria. Os teoremas de base das probabilidades podem ser exibidos a partir dos axiomas das probabilidades e da teoria de conjuntos. A probabilidade condicional é caracterizada como a probabilidade de ocorrer um determinado evento sob uma dada condição. A Probabilidade de frequência, ou probabilidade aleatória, é representada por uma série de eventos futuros cuja ocorrência é definida por determinados fenômenos físicos aleatórios. Este conceito pode ser dividido em fenômenos físicos, que são considerados previsíveis através de informação suficiente; e fenômenos que são caracterizados por serem essencialmente imprevisíveis. A Lei das Probabilidades Independentes é caracterizada pela probabilidade de dois eventos independentes ocorrerem simultaneamente é igual ao produto das probabilidades dos eventos isoladamente. A Lei das Probabilidades Independentes também é conhecida como Teorema do Produto. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce Na estatística, uma distribuição de probabilidade é caracterizada por descrever a chance que uma variável pode assumir ao longo de um espaço de valores. Ela é definida como uma função, cujo domínio são os valores da variável e cuja imagem são as probabilidades de a variável assumir cada valor do domínio. A distribuição binomial é caracterizada pela distribuição discreta da soma de variáveis aleatórias binárias, sendo que necessita de dois parâmetros: n = número de observações e p = probabilidade de ocorrer o evento. A distribuição normal é caracterizada como uma das mais importantes distribuições da estatística, sendo conhecida também como Distribuição de Gauss ou Gaussiana. Além de realizar a descrição de uma série de fenômenos físicos e financeiros, é utilizada na estatística inferencial. É descrita inteiramente por seus parâmetros de média e desvio padrão, ou seja, conhecendo estes, é possível conseguir a determinação de qualquer probabilidade em uma distribuição normal. As características da distribuição normal podem assumir qualquer valor real. Valores maiores e menores que a média ocorrem com igual probabilidade, sendo que a curva envolve dois parâmetros: média e variância. Na estatística, um Teste de Hipóteses é conhecido como um método utilizado para verificar se os dados são compatíveis com alguma determinada hipótese, podendo, muitas vezes, sugerir a não validade de uma hipótese. O teste de hipóteses é um procedimento estatístico que é baseado na análise de uma amostra, por meio da teoria de probabilidades, utilizado para a avaliação de determinados parâmetros que são desconhecidos em uma população. Em um teste de hipóteses, os procedimentos básicos são: o levantamento de dados para responder a uma pergunta e a transformação da perguntaem uma hipótese. O teste t de Student, ou somente teste t , é um teste de hipótese que utiliza conceitos estatísticos para rejeitar ou não uma hipótese considerada nula quando a estatística de teste ( ) segue uma distribuição t de Student. Essa premissa é normalmente utilizada quando a estatística de teste segue uma distribuição normal, mas a variância da população é desconhecida. Neste caso, é utilizada a variância amostral e, com esse ajuste, a estatística de teste tende a seguir uma distribuição t de Student. O teste t para observações pareadas é empregado para estudar o efeito de uma variável, utilizando observações pareadas. Exemplos: pares de gêmeos monozigóticos, ou no caso do mesmo indivíduo christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce em duas regiões, ou ainda, no mesmo indivíduo são realizadas duas observações (antes e após). A análise de variância tende visar, fundamentalmente, à verificação, se existe diferença significativa entre as médias e se os fatores que exercem influência em alguma variável considerada dependente. Dessa forma, essa análise permite que vários grupos possam ser comparados a um só tempo, sendo que esses fatores podem ser de origem qualitativa ou quantitativa, mas a variável dependente deve ser necessariamente contínua. O teste Tukey é caracterizado por ser um dos testes de comparação de média mais utilizados, sendo bastante rigoroso e de fácil aplicação, já que permite testar toda e qualquer diferença entre duas médias de tratamento. Na estatística, um Teste de Hipóteses é conhecido como um método para verificar se os dados são compatíveis com alguma determinada hipótese, podendo, muitas vezes, sugerir a não validade de uma hipótese. O teste de hipóteses é um procedimento estatístico, que é baseado na análise de uma amostra, por meio da teoria de probabilidades, utilizado para avaliar determinados parâmetros que são considerados como desconhecidos em uma população. Os testes não paramétricos são caracterizados como um teste de hipóteses, com variáveis com distribuição normal, sendo que são mais apropriados quando não se conhece a distribuição ou assimétrica. São mais eficientes quando as exigências clássicas não são atendidas. Na estatística, um Teste de Hipóteses é conhecido como um método para verificar se os dados são compatíveis com alguma determinada hipótese, podendo, muitas vezes, sugerir a não validade de uma hipótese. O teste de hipóteses é um procedimento estatístico, que é baseado na análise de uma amostra, por meio da teoria de probabilidades, utilizado para avaliar determinados parâmetros que são considerados como desconhecidos em uma população. Os testes não paramétricos apresentam menor eficiência quando as exigências são atendidas (tamanho amostral maior que o do teste paramétrico), sendo que alguns autores alegam que menos informações são extraídas do experimento, além do que a análise não paramétrica é mais tediosa. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce Provavelmente, desde o século XVII, as ciências ambientais e da saúde vêm recorrendo à estatística como instrumento para a análise de fenômenos biológicos. Neste longo período, muitos conceitos e mudanças surgiram nos dois campos do conhecimento. Por um lado, os estatísticos começaram a desenvolver técnicas, motivados principalmente pela sua aplicação, por outro, os cientistas passaram a dar ênfase à mensuração como estratégia de análise científica e, assim, as ciências progressivamente sofisticaram suas análises quantitativas (PAES, 1998). Um dos conceitos básicos dentro do campo das análises estatísticas são os conceitos de AMOSTRA e AMOSTRAGEM. Amostra diz respeito a um subconjunto da população, fração ou uma parte do grupo que se pretende estudar. Em alguns casos, seria impossível entrevistar todos os elementos de uma população, pois levaria muito tempo para concluir o trabalho, ou, até mesmo, seria financeiramente inviável, dessa forma, o número de entrevistados corresponde a uma quantidade determinada de elementos do conjunto, uma amostra. Toda pesquisa estatística precisa atender a um público-alvo, pois é com base nesse conjunto de pessoas que os dados são coletados e analisados de acordo com o princípio da pesquisa. Esse público-alvo recebe o nome de população. Para a estatística, a população pode ser FINITA ou INFINITA. População finita: nesses casos, o número de elementos de um grupo não é muito grande, a entrevista e a análise das informações devem abordar a todos do grupo. População infinita: o número de elementos nesse caso é muito elevado, sendo considerado infinito. Existem casos em que é necessário utilizar uma amostragem ao invés de estudar uma população inteira, sendo que: • Se a população é infinita, utilizar toda a população é impossível. • Amostras são, em geral, mais atualizadas, sobretudo quando a pesquisa é demorada. • Em testes destrutivos (que destroem a amostra), não se pode usar toda a população. • Os custos de examinar uma amostra são menores. • São mais precisas do que quando se utiliza toda a população, pois envolvem menos coletores de informações e, consequentemente, menos possibilidades de erros. A amostragem tem sua importância na medida em que irá possibilitar que o trabalho seja realizado com um menor custo, bem como pequeno número de indivíduos christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce pesquisados (MATTAR, 1999). Para o estudo estatístico, existem diferentes técnicas de amostragem. Amostragem Aleatória Simples ou Casual: os elementos da amostra são escolhidos aleatoriamente. A amostra é escolhida por meio de sorteio, os de sistemas de qualquer outra forma aleatória. O monitoramento ambiental é um processo de coleta de dados, estudo e acompanhamento contínuo e sistemático das VARIÁVEIS AMBIENTAIS, com o objetivo de identificar e avaliar - QUALITATIVA E QUANTITATIVAMENTE - as condições dos recursos naturais em um determinado momento, assim como as tendências ao longo do tempo. As variáveis sociais, econômicas e institucionais também são incluídas neste tipo de estudo, já que exercem influências sobre o meio ambiente. Variável é a característica de interesse que é medida em cada elemento da amostra ou população. Como o nome diz, seus valores variam de elemento para elemento. As variáveis podem ter valores numéricos ou não numéricos. Assim, estas podem ser QUALITATIVAS ou QUANTITATIVAS. Variáveis QUANTITATIVAS: são as características que podem ser medidas em uma escala quantitativa, ou seja, apresentam valores numéricos que fazem sentido. Exemplos: estudos que avaliam o número de filhos, número de bactérias por litro de leite, número de cigarros fumados por dia, o peso (balança), altura (régua), tempo (relógio), pressão arterial, idade. Variáveis QUALITATIVAS: são as características que não têm valores quantitativos, mas, ao contrário, são definidas por várias categorias, ou seja, representam uma classificação dos indivíduos. Exemplos: estudos que avaliam o gênero (masculino ou feminino), cor dos olhos, fumante/não fumante, doente/sadio, escolaridade (1o, 2o, 3o graus), estágio da doença (inicial, intermediário, terminal), mês de observação (janeiro, fevereiro,..., dezembro). A Estatística trabalha com diversas informaçõesque são dispostas por meio de gráficos e tabelas e com diversos números que representam e caracterizam um determinado grupo. Dentre todas as informações, podemos retirar valores que representam, de algum modo, todo o grupo. Esses valores são determinados de “valores de tendência central”. As principais medidas de tendência central são MÉDIA, MEDIANA e MODA. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce Média: conjunto de dados numéricos ao número que se obtém, dividindo a soma dos valores de todos os dados pelo número de dados. Mediana: para indicar a mediana, começa-se por escrever os dados em ordem crescente ou decrescente. A mediana é o valor CENTRAL. Moda: conjunto de dados ao dado que ocorre com maior frequência. A MÉDIA é a medida de posição mais utilizada e a mais intuitiva de todas. Ela está tão presente em nosso dia a dia que qualquer pessoa entende seu significado e a utiliza com frequência. A MÉDIA de um conjunto de valores numéricos é calculada somando-se todos esses valores e dividindo-se o resultado pelo número de elementos somados, que é igual ao número de elementos do conjunto, ou seja, a média de n números é sua soma dividida por n. Já a Média ponderada, as ocorrências têm importância relativa diferente. Nestes casos, o cálculo da média deve levar em conta esta importância relativa ou peso relativo. Este tipo de média chama-se MÉDIA PONDERADA. Ponderar é sinônimo de pesar. No cálculo da média ponderada, multiplicamos cada valor do conjunto por seu "peso", isto é, sua importância relativa. Em um conjunto de dados, se todas as observações de uma variável estão próximas, isso indica que os indivíduos não são muito diferentes com relação a essa variável. Por outro lado, se as observações estão dispersas, isso indica diferenças entre os indivíduos. Quanto maior a dispersão, maior a diferença. Nas pesquisas estatísticas, são fundamentais a compreensão e a quantificação dessa DISPERSÃO. Para exemplificar, pense em um caso extremo: se todos os indivíduos de uma população forem iguais com relação a determinada característica, basta um único indivíduo para representar essa população. Dispersão é sinônimo de variação ou variabilidade. Para medir a dispersão, são usadas mais frequentemente duas medidas: a amplitude, a variância, o desvio padrão e o coeficiente de variação. A teoria das probabilidades nos dá o instrumental para a construção e análise de modelos matemáticos relativos a fenômenos aleatórios. Ao estudarmos um fenômeno aleatório, temos diante de nós um experimento cujo resultado não pode ser previsto. Daí a utilização de probabilidades indica que existe um elemento do acaso, ou de incerteza, quanto à ocorrência ou não de um evento. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce O Teorema dos produtos é a probabilidade de dois eventos independentes (evento A e evento B) ocorrerem ao mesmo tempo, sendo essa probabilidade igual ao produto das probabilidades dos eventos ocorrerem isoladamente. P (A e B) = P(A).P(B) Já o Teorema da soma é a probabilidade de ocorrer o evento A ou, separadamente, o evento B P(A) + P(B). A distribuição Normal ou Gaussiana (curva de Gauss) é a mais familiar das distribuições de probabilidade e também uma das mais importantes em estatística. Muitas variáveis da área biológica podem ser descritas pelo modelo normal ou Gaussiano. Uma distribuição Normal ou Gaussiana apresenta-se em formato de sino, unimodal, simétrica dos dados apresentados em relação à sua média. Os parâmetros envolvidos são média e variância. Na teoria de decisão estatística, os testes de hipóteses assumem uma importância fundamental, já que estes permitem nos dizer, por exemplo, se duas populações são de fato iguais ou diferentes, utilizando, para isso, amostras dessas populações. Desta forma, a tomada de decisão de um gestor deve estar baseada na análise de dados a partir de um teste de hipótese. A hipótese alternativa, H1, é formulada para testar a hipótese contrária à hipótese nula e pode ser tanto para mais quanto para menos. A hipótese nula, H0, propõe que não exista diferença entre a amostra e a população, no aspecto que está sendo considerado. Os testes de hipóteses são usados para verificar se as diferenças entre os valores da amostra e os valores da população são devido ao acaso. Procedimentos básicos para se Testar uma Hipótese: 1. Levantamento de dados para responder uma pergunta; 2. Transformar a pergunta em uma hipótese: H1 e H0; 3. Verificar o Nível de significância para Minimizar a chance de aceitar uma hipótese errada (H1); 4. Escolher o teste apropriado para avaliar essa hipótese; 5. Discutir os resultados, isto é, se aceita ou rejeita a hipótese testada. Dentro de um estudo estatístico, deve-se estabelecer o nível de significância a ser aplicado naquele teste. Esse ponto é um fator crucial e determinante do resultado e/ou da discussão que será realizada a partir desse resultado para uma possível proposta mitigadora, por exemplo. christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce christianaga Realce O nível de significância de um teste é a probabilidade de se cometer erro do tipo I, isto é, aquele que ocorre quando você rejeita a hipótese Ho e esta hipótese é verdadeira. Para o Teste t, temos a seguinte afirmativa: “Toda vez que o valor calculado de t, em valor absoluto, for igual ou maior do que o tabelado, conclui-se que os valores são diferentes, ao nível de significância estabelecido”. O teste t de Student é um teste de hipótese para médias. No caso de se querer comparar dois grupos, a Hipótese Nula é que a diferença das médias é zero, isto é, não há diferenças entre os grupos. O teste de Student, ou simplesmente teste t, é o método mais utilizado para avaliar as diferenças entre as médias de dois grupos. Por exemplo, o teste t pode ser usado para testar o efeito provocado por uma determinada droga. •Grupo tratamento – pacientes que receberam a droga; •Grupo controle – pacientes que receberam o placebo. O teste t pode ser usado mesmo que as amostras sejam pequenas (n=10), desde que seja admitido que as populações que deram origem às amostras tenham distribuição normal e variabilidades não significativamente diferentes. Pessoal, tudo o que foi visto nesse Estudo Dirigido é o resumo do que foi passado a vocês ao longo de seis aulas, onde aborda termos, conceitos e situações importantíssimas sobre a Estatística. Não se limite apenas a esse estudo dirigido, complete o aprendizado com a revisão das aulas dadas, pois, com certeza o professor regente esclarece ainda mais, através de exemplos práticos cada ponto aqui mencionado. Bom estudo e boa prova.
Compartilhar