Baixe o app para aproveitar ainda mais
Prévia do material em texto
Estatística Conceito de estatística: A Estatística é uma ciência que se dedica a coleta, organização, análise, interpretação e resumo de dados e assim poder compreender algo sobre a relação entre as variáveis com precisão. Ela responde a uma pergunta importante sobre a vida pessoal, social e ambiental com mais precisão e menos erros. A estatística trabalha com dois conjuntos de dados: o universo e a amostra. Apesar de a estatística se preocupar em obter informações sobre a população, dificilmente ela estuda todos os componentes da mesma. E ela pode ser dividida em estatística descritiva e experimental. População: É o conjunto de elementos com pelo menos uma característica em comum. É um conjunto de pessoas, itens ou eventos sobre os quais você quer fazer inferências. Pode até se referir a objetos inanimados. Define o grupo que você vai estudar. Censo: é o conjunto de dados estatísticos que informa diferentes características dos habitantes de uma cidade, um estado ou uma nação. Procura obter dados de toda uma população, todos os sujeitos daquela população, é mais abrangente. Amostra: é uma seleção de elementos de uma população. É um recorte da população, um subconjunto de pessoas, itens ou eventos de uma população maior que você coleta e analisa para fazer inferências. Para representar a população bem, uma amostra deve ser coletada aleatoriamente e ser adequadamente grande. Amostragem: esta para amostra assim como o censo esta pra população. É definida como um conjunto menor de dados destacado de uma população maior usando um método de seleção predefinido. Estatística Descritiva: utilizada para descrever e resumir os dados. Função de apresentar melhor os dados em gráficos, tabelas, medidas representativas. As três principais características são medidas de tendência central (media, mediana e moda), medidas de dispersão (desvio padrão...), analise de frequência (frequência absoluta, frequência relativa e frequência acumulada), histogramas (gráfico da frequência absoluta). Estatística Inferencial: função de explorar estes dados, empregando cálculos matemáticos para observar como se relacionam, buscando associações, explicações ou predições. Esta inclusa a testagem de hipóteses. Conceito de variável: É tudo aquilo que muda, que pode variar entre as pessoas como a personalidade, inteligência, religiosidade e outros. Ou mesmo pode variar nas próprias pessoas, como o humor, a doença, a renda e outros. É a característica de interesse que é medida em cada elemento da amostra ou população. Como o nome diz, seus valores variam de elemento para elemento. As variáveis podem ter valores numéricos ou não numéricos. Tipos de variáveis: As variáveis são classificadas de varias formas como, por exemplo: Variáveis Qualitativas: se baseiam em qualidades e não podem ser mensuradas numericamente. Uma classificação do individuo. Elas podem ser Nominal, onde não são ordenáveis, não existe uma ordenação na categoria como por exemplo o sexo, a religião e a profissão. E podem ser também Ordinais, onde existe ordem, são ordenáveis, divididas em categorias que são organizadas segundo uma ordem logica. Como por exemplo, a classe social, grau de instrução, escolaridade, estagio da doença, entre outros. Variáveis Quantitativas: são aquelas numericamente mensuráveis, expressa por meio de números. Podem ser Discreta, onde o conjunto de resultados possíveis pode ser finito ou enumerável. Resultado de uma contagem. Sendo sempre um numero inteiro. Por exemplo, o numero de filhos e alunos. E podem ser Continuas, onde são variáveis que podem assumir qualquer valor entre dois pontos da reta igual. A medição pode ter qualquer valor real, ate fracionado e devem ser medidas usualmente por algum instrumento. Como por exemplo, o peso, estatura e o salário. (Dentro) é o estudo entre o mesmo grupo, onde pode manipular uma variável nos mesmos participantes, vendo o antes e o depois. As vantagens do delineamento é a necessidade de um numero maior de participantes e a inexistência de muito controle das variáveis de confusão entre condições e as desvantagens é o aumento da probabilidade de efeitos práticos e de fadiga e o fato dos participantes terem maior probabilidade de adivinhar os objetivos do estudo. Variável Independente: Um antecedente. Ele influência, determina ou afeta outra variável. É um fator determinante, condição ou causa para ocorrência de determinada resposta. São manipuladas ou controladas. Variável dependente: Um consequente. Valores a serem explicados, descobertos, observados e medidos. A resposta varia em virtude dos diferentes valores que a variável independente pode assumir, modificando a variável independente, altera- se o valor da variável dependente. É o efeito observado como resultado da manipulação da variável independente. Uma variável de efeito, resposta ou medida. Variável de confusão: é qualquer variável que vá influenciar tanto a variável dependente quanto a independente. São fatores que o pesquisador não levou em consideração, mas que podem ter influenciado a interação social. Se elas forem negligenciadas, as conclusões obtidas do estudo podem não ser confiáveis. Delineamentos correlacional e experimental: O estudo Correlacional é uma relação concomitante de duas variáveis, não é causa e efeito. Se uma variável mudar, a outra também mudará, ou ainda as duas variáveis covariam. Ele investiga o grau com que as variáveis co-variam, não se pode inferir causação a partir de correlação e analisa por meio de testes de correlação. O estudo Experimental é uma relação de causa e efeito. Ele manipula a variável independente, aloca aleatoriamente os participantes em diversos grupos e analisa por comparação os grupos entre si. Delineamentos intra e interparticipantes: Intra participante ou intragrupos, Interparticipantes ou inter grupos (Entre) é o estudo entre grupos diferentes, onde pode manipular uma variável em diferentes participantes. As vantagens são: ausência relativa de efeitos práticos e de fadiga e participantes menos sujeitos a se comportarem de acordo com os objetivos do estudo. As desvantagens são: a necessidade de um número menor de participantes e o grande controle das variáveis de confusão entre as condições. Medidas de tendência central: Determina a característica de agrupamento de um conjunto de dados. São valores que trazem consigo informações resumidas dos dados estatísticos, que seria a população ou a amostra. Nos dão um panorama do comportamento geral das observações estudadas, são como valores de referência em torno dos quais os outros se distribuem. É dividida em três tipos: Média: que é uma medida que funciona como o ponto de “equilíbrio” de um conjunto de dados. Sendo a medida mais popular e bastante usada. Sendo afetada por valores extremos, portanto, deixa de ser representativa no conjunto de dados. Mediana: é definida como o valor que ocupa a posição central em um conjunto de dados ordenados. Tem a propriedade de dividir um conjunto observações em duas partes iguais quanto ao numero de seus elementos. Ao contrario da Média, ela não é influenciada por valores extremos. Sendo assim, se um valor for muito grande ou muito pequeno, eles não vão afetar o valor geral. Moda: É o valor que aparece mais vezes, ou seja, com mais frequência. Podemos ter distribuições bimodais que são duas modas, trimodais ou multimodais. Também pode não haver moda quando todos os elementos tenham apresentado exatamente o mesmo numero de ocorrência, sendo chamado de amodal. É a única que pode ser usada quando as variáveis são qualitativas nominais, por exemplo, gênero em sala de aula. Medidas de dispersão: Determina a característica de variação de um conjunto de dados. Onde tem a amplitude que é a diferença entre o menor e o maior valor. O desvio, desvio médio e desvio padrão que indica a dispersão dos dados,quanto mais disperso, maior o desvio Os 3 aspectos da estatística descritiva: padrão. Variância sendo o desvio padrão ao quadrado. Coeficiente de variação que indica a magnitude relativa do desvio padrão quando comparado com a media do conjunto de valores, é útil para compararmos a variabilidade(dispersão) de dois conjuntos de dados de ordem de grandezas diferentes. Medidas de distribuição de dados (análise de frequência): Como os dados se distribuem. É um método de se agrupar dados em classes de modo a fornecer a quantidade ou a porcentagem de dados em cada classe. É a análise de conjunto de grandes dados. Com o objetivo de apresentar os dados de uma maneira mais concisa e que nos permita extrair informação sobre seu comportamento. Existem três tipos de frequência: Frequência Absoluta: Quantas pessoas pertencem aquela classe. Frequência Absoluta de um valor é o número de vezes em que uma determinada variável assume um valor. Quantas vezes determinada ação ocorreu. Frequência Relativa: Transformada em porcentagem. Para facilitar o entendimento da frequência absoluta precisamos transforma-la em porcentagem. É a razão entre a frequência absoluta e o número total de observações. Frequência Acumulada: Tem haver com o percentil. Total de todas as classes anteriores. Escore Z: numero de desvios padrão pelo qual um valor dista da média para mais ou para menos. Permite comparar média de conjunto de dados diferentes homogeneamente distribuídas. Se a pessoa teve desempenho bom, ruim ou na média. Quanto esta acima ou abaixo de uma média. Para calcular o escore Z precisa da média e do desvio padrão. É o valor menos a média da amostra dividida pelo desvio padrão. Depende do todo para comparar. O desvio padrão sempre é positivo. Uma curva normal não tem dados discrepantes, é homogênea e simétrica. A sua extremidade vai ate o infinito. A média, moda e mediana se sobrepõem. O valor da média é zero. Nível de significância (valor de p): Probabilidade de ser derivado do acaso. Um erro, mentira. P <0,05. Ou seja, ate 5% pode ser utilizado em uma pesquisa. Usado somente em ciências humanas. É o corte. Que foi observado em uma amostra. Caso o seja maior que 5%, podemos ver que houve um acaso, o que pode transformar aquela amostra indevida de uso. É a forma que analisamos que aquela amostragem é a mais adequada para ser utilizada. Teste de Hipóteses: permite-nos rejeitar ou não uma hipótese estatística através da amostra. Teste de significância das hipóteses nulas. Hipótese nula (H0): negando o efeito na população. Hipótese experimental (H1): afirmando que existe um efeito na população. Rejeita hipótese nula (H0) P<0,05. Aceitar hipótese nula (H0) P>0,05 . Porque não estabelecer ª= 0,001 Pode nos levar a rejeitar fenômenos existentes e reais, falso positivo, falso negativo. É muito restritivo. Estatística inferencial: que nos pudemos generalizar os resultados da amostra para a população. Erros no teste de hipóteses: Falso positivo e falso negativo. Correlação e tipos de coeficiente de correlação: Verifica se há relação mútua (associação) entre dadas variáveis. Os métodos correlacionais são as técnicas usadas para obter índices do grau em que duas ou mais variáveis estão relacionadas mutuamente . Estes índices são chamados coeficientes de correlação ( r ). Amplamente utilizados em psicologia. Se houver correlação entre duas variáveis, esta pode ser: 1.Correlação positiva ou direta (0 < r < 1) 2.Correlação negativa ou inversa (-1 < r < 0) . Se houver correlação entre duas variáveis, podemos avaliar a possibilidade de ser derivada do acaso. Quanto maior o coeficiente de correlação, menor a probabilidade de derivar do acaso. Neste caso, supomos que as variáveis compartilham uma variância em comum. Elevando ao quadrado o coeficiente de correlação, obtemos o coeficiente de determinação ( r2 ) que indica o quanto a variação de uma pode ser explicada pela variação da outra (≠relação causal). O grau de relação entre duas variáveis é indicado pelo número do coeficiente, enquanto que a direção da relação é indicada pelo sinal (-1 < r < +1). Um coeficiente de correlação de -0,8, por exemplo, indica exatamente o mesmo grau de relação que um coeficiente de +0,8. Seja positiva ou negativa, uma correlação é baixa na medida em que seu coeficiente se aproxima do zero. A correlação, mesmo quando alta, não implica causação Se duas variáveis, X e Y, estão correlacionadas, pode ser porque X causa Y, porque Y causa X, ou porque uma terceira variável, Z, causa tanto X quanto Y. Este truísmo é frequentemente ignorado, e correlações moderadas a altas são apresentadas como se fossem prova da relação causal entre as variáveis. Correlações altas nos permitem fazer predições. Embora a correlação não implique causação, ela implica uma certa quantidade de variação comum ou compartilhada. O conhecimento do grau em que as coisas variam em relação umas às outras é extremamente útil. Podemos usar dados de correlação relativas a duas ou mais variáveis para derivar equações que nos permitam prever os valores esperados em uma variável dependente (Y), dentro de uma certa margem de erro, a partir dos valores conhecidos de uma ou mais variáveis independentes (X1, X2, ...) com as quais a variável dependente está correlacionada. A correlação é fraca se for 0 < 0,3, moderada se for 0,3 < 0,7 e forte de for 0,7 < 1. N é a amostra. A correlação é significativa se for ate 5. Se uma sobe e a outra desce é correlação inversa ou seja, negativa. Se variam na mesma direção é positiva. Testes paramétricos é a curva normal, não paramétricos curva não normal.
Compartilhar