Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE FEDERAL RURALDOSEMI-ÁRIDO CENTROMULTIDISCIPLINARDE PAUDOS FERROS DEPARTAMENTODECIÊNCIAS EXATAS E NATURAIS LABORATÓRIO DE MECÂNICA CLÁSSICA Profª. Thatyara Freire de Souza ALGARISMOS SIGNIFICATIVOS E TEORIA DOS ERROS A sensibilidade e precisão de todo instrumento de medida está limitada na sua fabricação. Muitas vezes a leitura do valor de uma grandeza é intermediária a dois traços consecutivos da escala: A barra que está sendo medida na Fig. 1 tem uma extremidade ajustada ao zero de uma régua marcada em centímetros. A outra extremidade da barra não está coincidindo com nenhum traço. Observa-se que o valor deste comprimento é 9 cm mais alguns décimos de centímetro, mas não podemos afirmar com certeza o seu valor (pela régua superior). Ou seja, podemos apenas estimar ou avaliar estes décimos de centímetro (algo em torno de 9,6 cm, por exemplo) e a aproximação ao valor "verdadeiro" dependerá da perícia e da capacidade da avaliação do operador. Por exemplo, suponha que três pessoas diferentes apresentem como resultado desta medida os seguintes valores: . 9,6 cm, 9,7 cm, 9,5 cm. Verificamos que há concordância com relação ao algarismo 9 e portanto um consenso de que ele é "verdadeiros" ou "exatos“ ou “correto”, enquanto que os algarismos 6 , 7, e 8 são duvidosos. Os algarismos exatos de uma medida bem como os algarismos duvidosos, são denominados algarismos significativos. No exemplo acima, os dois algarismos de cada medição são significativos exatos, mas os últimos algarismos de cada uma das medições (6, 7 e 8) são significativos duvidosos. O termo duvidoso provém do fato que o mesmo apresenta uma incerteza, gerada pela própria grandeza medida, pela sensibilidade do instrumento bem como pela perícia do observador. A régua inferior é mais precisa em sua escala e passamos a ter três algarismos significativos, onde há certeza em dois deles e a incerteza no último: 9,65 cm. Além disso, sabemos que um fenômeno apresenta caráter científico no momento em que pode ser expresso por uma relação matemática e medido, ou quantificado. O que pode ser medido é uma grandeza. A interpretação e a análise dos resultados experimentais são feitas a partir do levantamento e registro corretos dos dados obtidos. Para isso, precisamos estar atentos a alguns elementos que são muito importantes para a apresentação de um resultado, por exemplo: a precisão das medidas, os instrumentos de medidas, a medição das grandezas e a apresentação dos resultados. • Grandeza extensiva: são as grandezas que dependem da quantidade de matéria, por exemplo, a massa de um corpo. • Grandeza intensiva: são as grandezas que independem da quantidade de matéria, dependem do estado em que está o sistema, por exemplo, a temperatura. • Medida direta: a medida direta de uma grandeza é o resultado da leitura de uma magnitude mediante o uso de instrumento de medida, como por exemplo, um comprimento com uma régua graduada, ou ainda a de uma corrente elétrica com um amperímetro, a de uma massa com uma balança ou de um intervalo de tempo com um cronômetro. • Medida indireta: uma medida indireta é a que resulta da aplicação de uma relação matemática que vincula a grandeza a ser medida com outras diretamente mensuráveis. Como por exemplo, a medida da velocidade média v de um carro pode ser obtida através da medida da distância percorrida ∆x e o intervalo de tempo ∆t, sendo v = ∆x/∆t. • Algarismos significativos: os algarismos corretos e o algarismo duvidoso constituem os “algarismos significativos”. Regras para operações matemáticas com algarismos significativos: Adição e Subtração: o número de “casas decimais” do resultado calculado deverá ser igual ao número de “casas decimais” da parcela de menor precisão. Multiplicação e Divisão: o resultado calculado deverá conter o mesmo número de algarismos significativos do componente de menor precisão (ou no máximo um algarismo a mais). Regras para arredondamento: as regras de arredondamento seguem a Norma ABNT NBR 5891. Recomenda-se fazer o arredondamento apenas no resultado final das medidas ou cálculos. Se o algarismo a ser eliminado for maior ou igual a cinco, acrescentamos uma unidade ao primeiro algarismo que está situado à sua esquerda. Se o algarismo a ser eliminado for menor que cinco, devemos manter inalterado o algarismo da esquerda. • Notação científica: é uma forma simplificada de representar números reais muito grandes ou muito pequenos nas ciências em geral. Para números muito grandes ou muito pequenos, mais importante que conhecê-los com precisão, é saber a sua ordem de grandeza, isto é a potência de dez mais próxima de seu valor real. A maneira de se escrever o valor numérico em trabalhos científicos é preferencialmente a notação científica. Nesta notação escreve-se o número referindo-se à potência de dez, com a particularidade de se conservar à esquerda da vírgula, apenas um dígito, diferente de zero. A razão de se preferir a notação científica a qualquer outra é que ela permite a rápida visualização da grandeza (a potência de 10) e do número de algarismos significativos. • Unidades: o sistema mais utilizado atualmente pelos cientistas é o chamado Sistema Internacional (SI). Um resultado experimental deve ser expresso através de algarismos e unidades. Os algarismos indicam o erro ou incerteza de um resultado, enquanto que as unidades especificam o que está sendo medido. Para facilitar o comércio internacional, diversos países criaram padrões comuns para medir grandezas através de um acordo internacional. A 14a Conferência Geral sobre Pesos e Medidas (1971) elegeu as sete grandezas físicas fundamentais, que constituem a base do Sistema Internacional de Unidades (SI): comprimento, massa, tempo, intensidade de corrente elétrica, temperatura, quantidade de matéria e intensidade luminosa. Precisão e exatidão de uma medida: quando se repete certa medida não se obtém, em geral, o mesmo resultado, pois cada ato de medida está sujeito a erros experimentais. Os valores obtidos diferem ligeiramente uns dos outros. A precisão da medida refere-se ao grau de concordância dos resultados individuais dentro de uma série de medidas (reprodutibilidade da medida). A exatidão da medida refere-se ao grau de concordância do valor experimental com o valor verdadeiro (fidelidade da medida). Podemos elevar a precisão de uma medida aumentando o número de determinações (a medida de várias determinações merece mais confiança do que uma só determinação), enquanto a exatidão só pode ser alcançada, eliminando-se os erros sistemáticos. • Medida do melhor valor: normalmente o melhor valor, ou valor experimental, é o resultado da média de n medidas de uma referida grandeza. A incerteza de uma medida (erro) pode ser expressa de diversas formas, entre elas: erro padrão ou desvio padrão; erro limite; coeficiente de variação, erro absoluto ou desvio absoluto; erro relativo; desvio médio. • Desvio avaliado: é a metade da menor divisão de um aparelho. A notação por algarismos significativos possui uma limitação. Ao anotar uma medida com quatro algarismos significativos, sabemos que o último é duvidoso, mas não sabemos em qual extensão ele o é. Por exemplo, a medida 25,52 poderia ser expressa como 25,52±0,01; 25,52±0,02; 25,52±0,03; etc. O número que vem depois do sinal é denominado desvio avaliado ou erro absoluto. Em instrumentos digitais, o desvio é a própria sensibilidade do instrumento. Por exemplo, no caso de uma medida realizada numa balança digital de sensibilidade igual a 0,01g, a massa medida foi de 5,35g. Portanto, a forma correta de anotar este resultado é (5,35±0,01)g. De acordo com sua natureza, os erros podem ser classificados conforme representação abaixo. O erro absoluto é a diferença entre o valor exato (ou verdadeiro) da grandeza e o seu valor determinado experimentalmente. Já o erro relativo expressa a incerteza da medida. Se conhecermos o valor verdadeiro, podemos calcular facilmente o erroda medida (erro percentual ou erro relativo) que é expresso em porcentagem e é adimensional. Se o valor teórico não for conhecido, deve-se medir várias vezes e por diferentes métodos a mesma grandeza, para se ter uma ideia da exatidão. A reprodutibilidade de uma medida usando sempre o mesmo método permite avaliar a precisão da mesma. Por meio de tratamento estatístico adequado dos resultados calcula-se o chamado desvio padrão da medida. Os erros podem ser classificados em dois grandes grupos: erros sistemáticos ou erros aleatórios. Os erros sistemáticos são aqueles que resultam das discrepâncias observacionais persistentes, tais como erros de paralaxe. Os erros sistemáticos ocorrem principalmente em experimentos que estão sujeitos a mudanças de temperatura, pressão e umidade. Estas mudanças estão relacionadas a condições ambientais. Os erros sistemáticos podem e devem ser eliminados ou minimizados pelo experimentador. Isso pode ser feito, observando se os instrumentos estão corretamente ajustados e calibrados, e ainda se estão sendo usados de forma correta na interligação com outros instrumentos, na montagem experimental. Existe um limite abaixo do qual não é possível reduzir o erro sistemático de uma medição. Um destes erros é o de calibração, diretamente associado ao instrumento com o qual se faz a medição. Este tipo de erro é também chamado erro sistemático residual. Geralmente, o erro de calibração (residual) vem indicado no instrumento ou manual, pelo fabricante; é o limite dentro do qual o fabricante garante os erros do instrumento. Os erros aleatórios (ou estatísticos) são aqueles que ainda existem mesmo quando todas as discrepâncias sistemáticas num processo de mensuração são minimizadas, balanceadas ou corrigidas. Os erros aleatórios jamais podem ser eliminados por completo. Como o valor medido nunca representa o valor verdadeiro da grandeza, pois este nunca é conhecido com total certeza, quando este resultado (número e unidade) vai ser aplicado ou registrado é necessário saber com que confiança se pode dizer que o número obtido representa a grandeza física. O valor medido ou o resultado deve ser expresso com a incerteza da medida, utilizando uma representação em uma linguagem universal, fazendo com que seja compreensível a outras pessoas. Chama-se valor verdadeiro ou valor do mensurando ao valor que seria obtido se a medição da grandeza fosse feita de maneira perfeita e com instrumentos perfeitos. Por isso, deve-se necessariamente associar um erro ou desvio ao valor de qualquer medida. Quando uma grandeza física experimental x é determinada a partir de uma medição, o resultado é uma aproximação para o valor verdadeiro, v x , da grandeza. Os objetivos da teoria de erros podem ser resumidos em: a) Obter o melhor valor para o mensurando a partir dos dados experimentais disponíveis. Isto significa determinar em termos estatísticos a melhor aproximação possível para o valor verdadeiro. b) Obter a incerteza no valor obtido, o que significa determinar em termos estatísticos o grau de precisão e confiança na medida da grandeza física. Como vimos, geralmente ocorrem erros de vários tipos numa mesma medição. Estes erros podem ser agrupados em dois grandes grupos que são: os erros sistemáticos e erros estatísticos (ou aleatórios). Considerando o conjunto de i x determinações (i = ,3,2,1 K, n) de um mensurando, os erros estatísticos e erros sistemáticos podem ser distinguidos como segue: a) Erro sistemático: é um erro que afeta igualmente todas as n medições i x . Isto é, o conjunto completo das n medições i x apresenta-se igualmente deslocada com relação ao valor verdadeiro v x . Erros sistemáticos podem ser de vários tipos como: • Erro sistemático instrumental: erro que resulta da calibração do instrumento de medição. • Erro sistemático ambiental: erro devido a efeitos do ambiente sobre a experiência. Fatores ambientais como temperatura, pressão, umidade e outros podem introduzir erros no resultado de medição. • Erro sistemático observacional: erro devido a pequenas falhas de procedimentos ou limitações do observador. Por exemplo, o efeito de paralaxe na leitura de escalas de instrumentos. b) Erro estatístico ou erro aleatório : é a medida da dispersão dos n resultados i x em torno do valor verdadeiro v x . Erros estatísticos (ou aleatórios) resultam de variações aleatórias nas medições, provenientes de fatores que não podem ser controlados ou que, por algum motivo, não foram controlados. Por exemplo, na medição de massa com balança, correntes de ar ou vibrações (fatores aleatórios ) podem introduzir erros estatísticos na medição. Suponha que estejamos realizando a medição de uma quantidade x e que o aparelho empregado seja suficientemente sensível às condições experimentais, isto é, o aparelho é suficientemente sensível para detectar as variações aleatórias. Se estivermos interessados em valores confiáveis, é natural que não nos contentemos com apenas uma única medição, e por isso devemos repetir a medição para ganharmos confiança no valor encontrado. Sempre que efetuamos uma medição ela estará afetada de um erro experimental. Isto quer dizer que ao repetirmos o processo de medição ainda que com o mesmo experimentador, mesmo mensurando, com os mesmos instrumentos calibrados e nas mesmas condições ambientais poderemos obter valores diferentes devido às flutuações aleatórias. Portanto, em geral, os resultados obtidos i x (i = ,3,2,1 K, n) mostrarão uma distribuição de valores, isto é, os valores apresentarão uma dispersão. Existe um valor em torno do qual as medidas tendem a se aglomerar, este valor é o valor mais provável. É estabelecido em geral, embora arbitrariamente, que o valor mais provável do mensurando é a sua média aritmética, ou seja, o valor médio é o valor mais provável e é a que melhor representa a grandeza medida: Estatisticamente falando, o valor médio é uma medida de localização do centro da distribuição de probabilidades da variável aleatória. Lembre-se: A minimização dos erros sistemáticos é a marca do bom experimentador, pois, com frequência, é difícil senão impossível eliminá-los. E a desenvoltura com que se lida com eles depende muito da vivência anterior. Algumas vezes os erros sistemáticos poderão ser minimizados pela calibração do instrumento. Além disso, ao repetirmos uma medição muitas vezes, os resultados nem sempre coincidem. Esse espalhamento nos valores das medidas é chamado de dispersão. A dispersão existente nos valores reflete a precisão da medida, isto é, o erro experimental associado à medida. Quanto menor a dispersão maior a precisão e vice versa. Um dos objetivos principais da Teoria de Erros é estabelecer uma quantidade que meça as dispersões e consequentemente os níveis de confiança nos valores mais prováveis obtidos. Para isso, necessitamos examinar com atenção o resultado das medições. A quantidade que é de interesse chama-se desvio padrão ( σ ), que vem a ser o desvio médio quadrático das medidas com relação à média do universo de medidas. Como é impossível fazer todas as medidas do universo de medidas para determinarmos a sua média, o procedimento adotado será, a partir das n observações, por meio de considerações de ordem estatística, obter a melhor estimativa para o desvio padrão. O significado do desvio padrão é que ele indica o erro que teríamos caso fizéssemos uma única observação. σ Ou seja, define-se desvio padrão amostral ou desvio médio quadrático, a raiz quadrada da variância amostral. O valor de σ fornece uma idéia sobre a incerteza padrão (incerteza típica) de qualquer medida, tendo como base o conjunto das N medidas. O parâmetro σ pode ser interpretado como sendo a incerteza que se pode esperar, dentro de certa probabilidade, se uma (N+1)-ésima medição viesse a ser realizada, quando já se conhece o que ocorreu nas N medições anteriores. O desvio padrão amostral indica uma boa avaliação sobre a distribuição das medidas, em torno do valor médio.O desvio padrão é uma medida que expressa o grau de dispersão de um conjunto de dados. Ou seja, o desvio padrão indica o quanto um conjunto de dados é uniforme. Quanto mais próximo de 0 for o desvio padrão, mais homogêneo são os dados. Ele mede a variabilidade absoluta de uma distribuição; quanto maior a dispersão ou variabilidade, maior será o desvio padrão e maior será a magnitude do desvio do valor de sua média. Sabemos agora determinar a partir de n observações o desvio padrão de uma medida, isto é, sabemos estimar a partir da análise de n observações o erro que teríamos, com uma dada probabilidade, caso houvéssemos realizado uma única determinação. Entretanto, tendo realizado n determinações o melhor valor disponível é a sua média ( x ),e portanto estaremos mais interessados em estimar o erro em x . Com esse propósito, poderíamos então realizar vários conjuntos de n determinações, calcular os valores das respectivas médias e, em seguida, a média das médias e este desvio padrão da média das médias seria mais preciso. Este raciocínio poderia ser utilizado novamente, calculando-se a média das médias e assim indefinidamente, sem um fim lógico? Felizmente é possível prever teoricamente o erro a que está sujeita a média de n valores medidos, sem ter que repetir o conjunto de medidas. Este desvio é chamado de desvio padrão da média: ou Respeitadas essas condições, os desvios obtidos em cada medida individual das variáveis envolvidas devem ser propagados seguindo-se as regras de dependência funcional entre as variáveis. Isto é, devem-se usar diferentes tipos de regras de propagação de incertezas dependendo se as variáveis se combinam por adição, subtração, multiplicação, divisão, potenciação ou alguma outra forma de dependência funcional representável analiticamente. σ EXEMPLOS ATIVIDADES
Compartilhar