Como muitos, tenho dificuldades em compreender os termos usados pela estatística. Os professores e livros não são muito claros ao explicar estes conceitos básicos. Eles partem pro cálculo, mas nunca entendo o que é cada coisa.
No final das contas, o que quer dizer "desvio padrão" e "erro padrão"?
O desvio padrão é uma medida que indica a dispersão dos dados dentro de uma amostra com relação à média. Mede a homogeneidade dos dados da sua amostra. Já o erro padrão é uma medida de variação de uma média amostral em relação à média da população, é uma medida do quanto a média da amostra difere da media da população, pode ser estimado dividindo o desvio padrão pela raiz quadrada do tamanho da amostra.
O desvio padrão nos indica qual é o intervalo de valores em torno da média da amostra, onde é usual encontrar os dados. Por exemplo, se uma garrafa de água tem em média 500 ml, com desvio padrão de 5 ml. Isso significa que é comum encontrar garrafas no intervalo 495 ml a 505 ml. Na verdade, nesse exemplo, não deve haver nenhum dado muito distante desse intervalo, pois, o desvio padrão é uma medida de dispersão pouco resistente, ou seja, é muito sensível a presença de outliers.
O erro padrão é uma medida comparativa entre os parâmetros da amostra e da população do qual é derivada, e utilizada para estimar.
O desvio padrão é a dispersão da amostra em torno da média, enquanto o erro padrão é a medida de variabilidade da média (como a média varia de uma amostra para outra). Não se trata de uma medida de variabilidade individual (como o desvio padrão), mas sim de uma estimativa da variabilidade da média, em função do tamanho da amostra.
Esse artigo deixa bem claro a diferença, e ainda ensina como calcular cada um deles:
http://www.abgconsultoria.com.br/blog/desvio-padrao-e-erro-padrao/
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar