Baixe o app para aproveitar ainda mais
Prévia do material em texto
Aula 01 - Análise de Medições (Referência: Site do INMETRO, outras fontes) Qualquer medida física que se faça, implica na existência de um erro associado a esta medida. Deste modo, para qualquer grandeza física que se meça, existe um valor exato, ou verdadeiro, embora este seja normalmente desconhecido. Os tipos de erros que ocorrem em uma medida podem ter várias fontes: -Erro grosseiro: São causados por engano do operador no manuseio ou leitura do instrumento. Estes erros podem ser evitados, ou pelo menos minimizados, bastando para isso que o operador tome os devidos cuidados quando for realizar uma medida, e portanto não nos preocuparemos em discuti-los. - Erro estatístico: Ocorrem quando existe algum fator aleatório (ou que não pode ser controlado ou repetido) que faz com que as medidas não se repitam, distribuindo-se em torno de determinado valor. - Erros sistemáticos: Os erros sistemáticos surgem quando existe algum problema com o equipamento (descalibração, por exemplo), vícios de leitura do operador ou fatores ambientais externos, que fazem com que as medidas difiram de uma certa quantidade do valor verdadeiro. A precisão limitada inerente a qualquer instrumento de medida é uma fonte de erro sistemático. Note que em algumas situações, é difícil saber se um determinado tipo de erro deve ser enquadrado em uma categoria ou outra. Por exemplo, se tivermos uma régua de aço que se dilata com a temperatura, isto leva à ocorrência de um erro sistemático, quando esta está sendo utilizada fora de sua temperatura de calibração. Por outro lado, se a variação de temperatura do local onde as medidas estão sendo realizadas for grande, aumentando e diminuindo durante o processo de medida, o comprimento da régua irá mudar segundo essas variações da temperatura, levando à ocorrência de um erro estatístico. Numa terminologia mais moderna, buscando-se evitar essas confusões de classificação, algumas organizações internacionais costumam agrupar os erros em duas grandes categorias: os erros do tipo A e do tipo B. Estes erros levam à presença de incertezas nas medidas, sendo as do tipo A avaliadas a partir de métodos estatísticos e as do tipo B avaliadas por outros métodos. Discutiremos a seguir como representar uma grandeza física, levando-se em conta que uma medida traz consigo uma incerteza. Antes disso, porém, iremos falar sobre o conceito de algarismos significativos, já que isso é fundamental para que se possa representar de forma conveniente uma grandeza. Algarismos significativos O número de dígitos que devem ser utilizados para representar a medida de uma dada grandeza física, está intimamente ligado com a precisão do instrumento utilizado para realizar a medida. Por exemplo, se utilizarmos uma régua com divisões em milímetros para medir a largura de um bloco de metal, na melhor condição poderíamos avaliar uma casa decimal extra além da menor medida . Assim, neste caso, as seguintes representações para a largura do corpo seriam possíveis: L = 12,3 mm L = 12,0 mm L = 12,7 mm Note que embora a menor divisão seja de 1 mm, é possível para o operador, neste caso, avaliar até uma casa extra. Assim, dizemos que o erro da medida devido à precisão do instrumento, é de ± 0,5 mm (metade da menor divisão do instrumento). Em alguns casos, a regra da metade da menor divisão não faz sentido. Um exemplo, é no caso de uma escala com os valores de menor divisão excessivamente próximos, o que inviabiliza a avaliação de uma casa a mais. Outro exemplo, é o caso de um instrumento digital, onde o valor da medida é lido diretamente em um display, e não há, portanto, como avaliar uma casa extra. Nesses casos, costuma-se utilizar a menor divisão como sendo o erro da medida. Enfatizamos o fato de que o procedimento de se utilizar metade da menor divisão visa apenas a definir um procedimento geral para a estimativa do desvio devido à precisão do instrumento. Nada impede que um instrumento mal fabricado faça com que o desvio seja maior até mesmo que a menor divisão. No caso da régua apresentada anteriormente, a medida L = 12,35 mm não estaria correta, pois a segunda casa decimal não faria sentido (não seria significativa) para o instrumento utilizado. Existe, portanto, uma representação utilizada para indicar o grau de precisão de nossas medidas. Nesta forma de representação, os algarismos que são conhecidos com certeza são chamados de significativos. Algarismos Duvidosos: Após o último algarismo significativo, temos os algarismos duvidosos. Por uma questão de convenção, o primeiro algarismo duvidoso é também chamado de significativo. Deste modo, se tomarmos as representações L = 12,0 mm e L = 12,00 mm, embora estas sejam parecidas, possuem significados diferentes. A primeira indica que a incerteza na medida realizada está na primeira casa decimal, e a segunda de que está na segunda casa decimal. Isto indica que o instrumento utilizado para realizar a segunda medida era mais preciso que o primeiro. Acuidade e Precisão: Precisão tem a ver com a capacidade que um instrumento tem de avaliar uma grandeza com menor flutuação estatística e com mais casas significativas. Acuidade é a capacidade deste instrumento de chegar mais próximo ao valor verdadeiro. É claro que para obter um valor próximo ao valor verdadeiro, devemos utilizar um instrumento preciso, porém o uso de um instrumento preciso não leva necessariamente a um valor acurado. Se o instrumento, por exemplo, estiver descalibrado, o valor medido, embora preciso, pode diferir bastante do valor verdadeiro. Valor médio ou valor mais provável de uma grandeza Como já dissemos, em alguns casos, existem fatores que podem introduzir erros em nossas medidas, além daqueles devidos às limitações de nossos equipamentos de medida. Por exemplo, suponha que o corpo tenha alguma rugosidade, o que torna a avaliação de sua largura dependente da posição em que se coloca a régua. Nestes casos, e no caso da ocorrência de outros erros associados a fatores estatísticos, podemos realizar séries de medidas e calcular a médias dos valores medidos, o que representaria a melhor estimativa para o valor verdadeiro. O valor médio de uma série de n medidas de uma grandeza xi (que sejam estatisticamente independentes) será portanto dado por: Para um conjunto de medidas serem consideradas estatisticamente independentes, é necessário que a distribuição de probabilidade associada a determinado dado seja independente dos outros dados. No caso, por exemplo, de uma série de medidas de comprimento com o uso de régua, para garantir a independência estatística, seria necessário que cada um dos dados fosse medido com uma régua de origem diferente e realizado por diferentes operadores. Desvio padrão O valor médio, embora seja fundamental numa série de medidas, não nos oferece a possibilidade de analisar o quanto podemos confiar neste valor. O desvio padrão é a grandeza que nos dá esta informação, caracterizando a dispersão em um conjunto de medidas (quanto os dados individuais estão afastados do valor médio). Quanto maior o desvio padrão, menor é a confiança no valor médio obtido. O desvio padrão é definido como sendo: Assim, no caso de um conjunto de n medidas, o erro do instrumento pode não ser a melhor representação do erro da medida. Na verdade, o que se costuma fazer é o seguinte: Como existem erros provenientes do instrumento e erros provenientes de oscilações estatísticas, o intervalo de confiança em uma medida é obtido através da propagação destes erros, de modo que ambos contribuem para o erro final. Uma grandeza importante para se realizar tal propagação é o chamado desvio padrão da média. Desvio padrão da média O desvio padrão da média é obtido quando analisamos uma série de n medidas repetidas sob as mesmas condições. É dado por: Na verdade oproblema é probabilístico por natureza, e o desvio padrão da média nos fornece apenas a informação de que existe aproximadamente 68% de probabilidade do valor verdadeiro da grandeza se encontrar entre os limites dados por . Se quisermos ser mais detalhistas, o intervalo de confiança de 68% seria obtido com um conjunto infinito de medidas. Para, por exemplo, um conjunto de apenas 10 medidas, o valor de se deveria ser multiplicado por 1,06 para resgatar a probabilidade de 68%. É interessante observar que podemos a princípio ir diminuindo o valor de se, realizando mais e mais medidas. Na prática, no entanto, é mais fácil diminuir o valor diminuindo-se o valor de , isto é, tomando-se um instrumento mais preciso. A grandeza se é comumente chamada de incerteza estatística. Erros sistemáticos residuais Uma vez que se tenha buscado eliminar as possíveis fontes de erros sistemáticos (grosseiramente falando, erros do tipo B), existe ainda uma fonte de erro sistemático que está ligado à própria limitação do instrumento. Como regra, dissemos anteriormente que a precisão p de um instrumento está relacionada à menor divisão que este pode representar, e que se utiliza como desvio metade da menor divisão. Assim, os erros sistemáticos relacionados à precisão do instrumento de medida podem ser representados por um desvio que chamaremos de incerteza sistemática residual (ou simplesmente incerteza residual), e que será dado em nosso caso por metade damenor divisão (a menos que seja estabelecido o contrário). Isto é, será dado por: Incerteza Padrão Notação para representação de uma grandeza Como forma de representação de uma grandeza estaremos utilizando aqui a seguinte notação: a grandeza será representada pelo seu valor médio, seguido de “±” e do valor da incerteza padrão (obtido pela propagação da incerteza estatística e da incerteza residual ). Assim o valor de uma grandeza será escrito como:
Compartilhar