Buscar

AULA 1 RESUMO

Prévia do material em texto

Aula 01 - Análise de Medições (Referência: Site do INMETRO, outras fontes) 
Qualquer medida física que se faça, implica na existência de um erro associado 
a esta medida. Deste modo, para qualquer grandeza física que se meça, existe 
um valor exato, ou verdadeiro, embora este seja normalmente desconhecido. Os 
tipos de erros que ocorrem em uma medida podem ter várias fontes: 
-Erro grosseiro: São causados por engano do operador no manuseio ou leitura 
do instrumento. Estes erros podem ser evitados, ou pelo menos minimizados, 
bastando para isso que o operador tome os devidos cuidados quando for realizar 
uma medida, e portanto não nos preocuparemos em discuti-los. 
- Erro estatístico: Ocorrem quando existe algum fator aleatório (ou que não pode 
ser controlado ou repetido) que faz com que as medidas não se repitam, 
distribuindo-se em torno de determinado valor. 
- Erros sistemáticos: Os erros sistemáticos surgem quando existe algum 
problema com o equipamento (descalibração, por exemplo), vícios de leitura do 
operador ou fatores ambientais externos, que fazem com que as medidas difiram 
de uma certa quantidade do valor verdadeiro. A precisão limitada inerente a 
qualquer instrumento de medida é uma fonte de erro sistemático. Note que em 
algumas situações, é difícil saber se um determinado tipo de erro deve ser 
enquadrado em uma categoria ou outra. Por exemplo, se tivermos uma régua de 
aço que se dilata com a temperatura, isto leva à ocorrência de um erro 
sistemático, quando esta está sendo utilizada fora de sua temperatura de 
calibração. Por outro lado, se a variação de temperatura do local onde as medidas 
estão sendo realizadas for grande, aumentando e diminuindo durante o processo 
de medida, o comprimento da régua irá mudar segundo essas variações da 
temperatura, levando à ocorrência de um erro estatístico. 
Numa terminologia mais moderna, buscando-se evitar essas confusões de 
classificação, algumas organizações internacionais costumam agrupar os erros 
em duas grandes categorias: os erros do tipo A e do tipo B. Estes erros levam à 
presença de incertezas nas medidas, sendo as do tipo A avaliadas a partir de 
métodos estatísticos e as do tipo B avaliadas por outros métodos. Discutiremos a 
seguir como representar uma grandeza física, levando-se em conta que uma 
medida traz consigo uma incerteza. Antes disso, porém, iremos falar sobre o 
conceito de algarismos significativos, já que isso é fundamental para que se possa 
representar de forma conveniente uma grandeza. 
 
Algarismos significativos 
O número de dígitos que devem ser utilizados para representar a medida de uma 
dada grandeza física, está intimamente ligado com a precisão do instrumento 
utilizado para realizar a medida. Por exemplo, se utilizarmos uma régua com 
divisões em milímetros para medir a largura de um bloco de metal, na melhor 
condição poderíamos avaliar uma casa decimal extra além da menor medida . 
Assim, neste caso, as seguintes representações para a largura do corpo seriam 
possíveis: 
L = 12,3 mm 
L = 12,0 mm 
L = 12,7 mm 
Note que embora a menor divisão seja de 1 mm, é possível para o operador, neste 
caso, avaliar até uma casa extra. Assim, dizemos que o erro da medida devido à 
precisão do instrumento, é de ± 0,5 mm (metade da menor divisão do 
instrumento). 
Em alguns casos, a regra da metade da menor divisão não faz sentido. Um 
exemplo, é no caso de uma escala com os valores de menor divisão 
excessivamente próximos, o que inviabiliza a avaliação de uma casa a mais. Outro 
exemplo, é o caso de um instrumento digital, onde o valor da medida é lido 
diretamente em um display, e não há, portanto, como avaliar uma casa extra. 
Nesses casos, costuma-se utilizar a menor divisão como sendo o erro da medida. 
Enfatizamos o fato de que o procedimento de se utilizar metade da menor divisão 
visa apenas a definir um procedimento geral para a estimativa do desvio devido à 
precisão do instrumento. Nada impede que um instrumento mal fabricado faça 
com que o desvio seja maior até mesmo que a menor divisão. 
No caso da régua apresentada anteriormente, a medida L = 12,35 mm não estaria 
correta, pois a segunda casa decimal não faria sentido (não seria significativa) 
para o instrumento utilizado. Existe, portanto, uma representação utilizada para 
indicar o grau de precisão de nossas medidas. Nesta forma de representação, os 
algarismos que são conhecidos com certeza são chamados de significativos. 
 
Algarismos Duvidosos: 
Após o último algarismo significativo, temos os algarismos duvidosos. Por uma 
questão de convenção, o primeiro algarismo duvidoso é também chamado de 
significativo. Deste modo, se tomarmos as representações L = 12,0 mm e L = 
12,00 mm, embora estas sejam parecidas, possuem significados diferentes. A 
primeira indica que a incerteza na medida realizada está na primeira casa decimal, 
e a segunda de que está na segunda casa decimal. Isto indica que o instrumento 
utilizado para realizar a segunda medida era mais preciso que o primeiro. 
 
Acuidade e Precisão: 
Precisão tem a ver com a capacidade que um instrumento tem de avaliar uma 
grandeza com menor flutuação estatística e com mais casas significativas. 
Acuidade é a capacidade deste instrumento de chegar mais próximo ao valor 
verdadeiro. É claro que para obter um valor próximo ao valor verdadeiro, devemos 
utilizar um instrumento preciso, porém o uso de um instrumento preciso não leva 
necessariamente a um valor acurado. Se o instrumento, por exemplo, estiver 
descalibrado, o valor medido, embora preciso, pode diferir bastante do valor 
verdadeiro. 
 
Valor médio ou valor mais provável de uma grandeza 
Como já dissemos, em alguns casos, existem fatores que podem introduzir erros 
em nossas medidas, além daqueles devidos às limitações de nossos 
equipamentos de medida. Por exemplo, suponha que o corpo tenha alguma 
rugosidade, o que torna a avaliação de sua largura dependente da posição em 
que se coloca a régua. Nestes casos, e no caso da ocorrência de outros erros 
associados a fatores estatísticos, podemos realizar séries de medidas e calcular a 
médias dos valores medidos, o que representaria a melhor estimativa para o valor 
verdadeiro. O valor médio de uma série de n medidas de uma grandeza xi (que 
sejam estatisticamente independentes) será portanto dado por: 
 
 
Para um conjunto de medidas serem consideradas estatisticamente 
independentes, é necessário que a distribuição de probabilidade associada a 
determinado dado seja independente dos outros dados. No caso, por exemplo, de 
uma série de medidas de comprimento com o uso de régua, para garantir a 
independência estatística, seria necessário que cada um dos dados fosse medido 
com uma régua de origem diferente e realizado por diferentes operadores. 
 
Desvio padrão 
O valor médio, embora seja fundamental numa série de medidas, não nos oferece 
a possibilidade de analisar o quanto podemos confiar neste valor. O desvio padrão 
é a grandeza que nos dá esta informação, caracterizando a dispersão em um 
conjunto de medidas (quanto os dados individuais estão afastados do valor 
médio). Quanto maior o desvio padrão, menor é a confiança no valor médio obtido. 
O desvio padrão é definido como sendo: 
 
 
Assim, no caso de um conjunto de n medidas, o erro do instrumento pode não ser 
a melhor representação do erro da medida. Na verdade, o que se costuma fazer é 
o seguinte: Como existem erros provenientes do instrumento e erros provenientes 
de oscilações estatísticas, o intervalo de confiança em uma medida é obtido 
através da propagação destes erros, de modo que ambos contribuem para o erro 
final. Uma grandeza importante para se realizar tal propagação é o chamado 
desvio padrão da média. 
 
Desvio padrão da média 
O desvio padrão da média é obtido quando analisamos uma série de n medidas 
repetidas sob as mesmas condições. É dado por: 
 
Na verdade oproblema é probabilístico por natureza, e o desvio padrão da média 
nos fornece apenas a informação de que existe aproximadamente 68% de 
probabilidade do valor verdadeiro da grandeza se encontrar entre os limites dados 
por . Se quisermos ser mais detalhistas, o intervalo de confiança de 
68% seria obtido com um conjunto infinito de medidas. Para, por exemplo, um 
conjunto de apenas 10 medidas, o valor de se deveria ser multiplicado por 1,06 
para resgatar a probabilidade de 68%. É interessante observar que podemos a 
princípio ir diminuindo o valor de se, realizando mais e mais medidas. Na prática, 
no entanto, é mais fácil diminuir o valor diminuindo-se o valor de , isto é, 
tomando-se um instrumento mais preciso. A grandeza se é comumente chamada 
de incerteza estatística. 
 
Erros sistemáticos residuais 
Uma vez que se tenha buscado eliminar as possíveis fontes de erros sistemáticos 
(grosseiramente falando, erros do tipo B), existe ainda uma fonte de erro 
sistemático que está ligado à própria limitação do instrumento. Como regra, 
dissemos anteriormente que a precisão p de um instrumento está relacionada à 
menor divisão que este pode representar, e que se utiliza como desvio metade da 
menor divisão. Assim, os erros sistemáticos relacionados à precisão do 
instrumento de medida podem ser representados por um desvio que chamaremos 
de incerteza sistemática residual (ou simplesmente incerteza residual), e que 
será dado em nosso caso por metade damenor divisão (a menos que seja 
estabelecido o contrário). Isto é, será dado por: 
 
Incerteza Padrão 
Notação para representação de uma grandeza 
Como forma de representação de uma grandeza estaremos utilizando aqui a 
seguinte notação: a grandeza será representada pelo seu valor médio, seguido de 
“±” e do valor da incerteza padrão (obtido pela propagação da incerteza estatística 
e da incerteza residual ). Assim o valor de uma grandeza será escrito 
como:

Continue navegando