Baixe o app para aproveitar ainda mais
Prévia do material em texto
Estatística – Regressão Covariância A covariância irá indicar a relação entre duas variáveis sendo estimado por meio do desvio das médias de cada variável. Um resultado de sinal positivo indica que as variáveis se movem juntas, já o sinal negativo indica que elas se movem em direções opostas. Correlação Correlação é a avaliação realizada para identificar a relação entre duas medidas quantitativas. Diferente da covariância, essa análise possui medida padronizada. Essa avaliação é realizada para verificar se os valores estão associados, ou seja, se eles tendem a mudar à medida que o outro muda. Ex: Quando uma primeira variável sofre crescimento, qual o crescimento esperado para a segunda variável. Com a correlação avaliamos a associação linear entre as duas variáveis, ela será identificada a partir de um gráfico de pontos e medido pelo grau de associação. Para obter o grau de associação da relação linear, usamos o coeficiente de correlação. O coeficiente de correlação é identificado pela letra “r” e irá possuir valor entre -1 e +1. • Quando o r for maior que zero, a correlação é positiva. • Quando o r for menor que zero, a correlação é negativa. • Quanto maior o r, tanto positivo quanto negativo, maior a associação. • Quando o r for igual a zero, não existe associação linear. • Quanto mais o r for próximo de “1”, indica que a correção é forte e que as variáveis se movem juntas. • Quanto mais r for próximo de “-1”, indica que a correção é forte e as duas variáveis se movem em direções opostas. Dentro da correlação teremos o coeficiente de determinação “R²”. Trata- se de uma medida da proporção da variabilidade entre duas variáveis. É um valor de zero a um, quanto mais próximo de 1, melhor será o ajuste a reta e menor o erro associado. Você deve lembrar que, associação não é causalidade. Regressão A regressão permite descrever a força de relação entre duas variáveis, x (dependente) e y (independente) e descrever o nível geral de associação entre elas. A relação não será linear quando os pontos parecerem não se ajustar a uma reta. A variável dependente, x, será aquele que será calcula e as variáveis independentes, y, são aquelas que exercem influência sobre a variável x. Ao analisar os resultados: • R múltiplo – corresponde a “força/grau” que existe entre as variáveis. Ele irá medir o grau de correlação entre elas. Esse valor, quanto maior, melhor explicado é o modelo. Porém, tomar cuidado com valores muitos próximos de 1. • R quadrado – representa o ajustamento do modelo aos dados, a dispersão. Irá medir a variabilidade em Y é explicado por X. • Erro padrão – variação da média do modelo em relação a população. Este valor é utilizado para calcular o intervalo de confiança. • Interseção – valor que em que cruza o eixo Y. • Valor-p – do texto de hipótese, é a probabilidade do valor apresentado ser igual a zero. Para ser significativo, o valor p deve ser maio que 0,1 ou maior que 0,05. R quadrado quando muito próximo de 1 indica que há uma forte relação entre as variáveis, podendo essa relação ser negativa ou positiva. A regressão simples tentar explicar uma variável dependente (Y) usando uma variável independente (X). A regressão tentará ajustar uma linha estre as duas variáveis quando plotadas em um gráfico de dispersão. Y = a + bx, sendo b a inclinação da regressão. Essa inclinação será positiva quando as duas variáveis foram correlacionadas positivamente, e negativa ao contrário. A interceptação a pode ser o valor de Y quando X for zero, ou, ela será a diferença entre o valor médio de Y e o valor ajustado da inclinação de X. A regressão múltipla ocorre quando há mais que duas variáveis na análise, sendo uma variável dependente (Y) e mais do que uma variável independente (Xn). Y=a+bx1+cx2+dx3+ex4 R quadrado na regressão múltipla, além de medir a força de relação, também estima o R quadrado ajustado – tendência do R quadrado se manter crescente quando as demais variáveis são adicionadas.
Compartilhar