Baixe o app para aproveitar ainda mais
Prévia do material em texto
Física Experimental I (CCCT0017) Prof. Karl M. S. Garcez Curso de C & T - UFMA Nesta breve apostila procuramos entender os conceitos básicos da Teoria de Erros com ob- jetivo de aplicá-los na prática da Física Experimental. Uma vez que um processo de medição está sujeito a diversos tipos de flutuações e interferências, é necessário saber como estimar as incertezas nos valores medidos. 1 Probabilidades Um processo aleatório é qualquer fenômeno que possa ter diferentes resultados finais quando repetido sob certas condições predeterminadas. Os eventos são os diferentes resultados finais ou grupos de resultados finais. Por exemplo, no lançamento de um dado não viciado temos, os seis resultados finais podem ser definidos como eventos. De maneira geral, um processo aleatório y pode resultar um número finito de m eventos indicados por y1, y2, y3, . . . , yi, . . . , ym, onde yi indica qualquer um dos eventos. A frequência de ocorrência do evento yi é definida como o número de vezes N(yi) que yi ocorre quando o processo y é repetido N vezes. Esta definição resulta em N(y1) +N(y2) +N(y3) + . . .+N(ym) = N Assim, a chamada frequência relativa do evento yi é definida como F (yi) = N(yi) N , ou seja, é a fração de eventos yi em relação ao número total de eventos. Se o processo é repetido indefinidamente (N → ∞), a fração deve-se tornar um número bem definido. Isto é, a probabilidade de ocorrência do evento yi é dada por P (yi) = lim N→∞ N(yi) N = lim N→∞ F (yi) Esta equação mostra que a probabilidade é um número de 0 a 1, pois 0 ≤ N(yi) ≤ N . Pela 1 definição acima, temos que a frequência relativa é sempre uma aproximação para a probabilidade de ocorrência do evento. Quanto maior o número N de repetições, melhor a aproximação. 1.1 Distribuição de variável discreta Seja um processo aleatório, onde cada resultado pode ser descrito por um número y. Quando os resultados possíveis constituem um conjunto bem definido de valores yi, a quantidade y é chamada variável discreta. Isto é, uma variável discreta y pode assumir m valores possíveis: y1, y2, y3, . . . , ym. Cada valor yi tem uma probabilidade P (yi) de ocorrer em um processo simples. O conjunto dos m valores de P (yi), para todos os valores possíveis de i, é definido como a distribuição de probabilidades para a variável discreta y. Onde a distribuição satisfaz a chamada condição de normalização, m∑ i=1 P (yi) = 1. 1.2 Valor médio e desvio padrão Para N repetições de um processo aleatório de uma variável discreta y, o valor médio de y é definido por y¯ = 1 N N∑ k=1 Yk, onde Y1, . . . , Yk, . . . , YN são os N resultados obtidos para y. E se cada resultado possível yi ocorreu N(yi) vezes. Podemos escrever y¯ = 1 N m∑ i=1 yiN(yi). Sabemos que a razão N(yi)/N é a frequência relativa, logo y¯ = m∑ i=1 yiF (yi). Conforme N →∞, o valor médio y¯ deve se aproximar de um valor bem definido1 chamado valor médio verdadeiro: µ = lim N→∞ y¯ Temos ainda que neste limite, a frequência relativa tende a probabilidade P (yi). Assim o valor médio verdadeiro pode ser escrito 1segundo a lei dos grandes números 2 µ = m∑ i=1 yiP (yi) Na verdade, µ é uma quantidade sempre desconhecida, pois o número N de repetições de um processo aleatório não pode ser infinito. Na prática, os valores das probabilidades P (yi) nunca são conhecidos exatamente. A variância de uma distribuição de probabilidades é definida por σ2 = m∑ i=1 (yi − µ)2 P (yi) E o desvio padrão da distribuição é a raiz positiva da variância σ = + √ σ2 = + √√√√ m∑ i=1 (yi − µ)2 P (yi) Estas equações definem os valores verdadeiros para σ2 e σ. Na prática estas também não são conhecidas exatamente, uma vez que o valor médio verdadeiro é também desconhecido. 1.3 Distribuição de probabilidades para variável contínua É bastante comum que um processo aleatório y possa resultar em um número muito grande de valores possíveis: Y1, Y2, Y3, . . . , Yj, . . . , YM (M � 1) A descrição das frequências N(Yj), das frequências relativas F (Yj) e probabilidades P (Yj) para cada Yj torna-se inviável devido ao grande número de quantidades. Pois para determinar experimentalmente N(Yj) ou F (Yj) seria necessário repetir N vezes o processo, com N �M e isto pode ser inviável. Para contornar estas dificuldades podemos utilizar uma outra definição de evento. Afirma- mos que o evento yi ocorre se o resultado do processo é uma quantidade Yj tal que yi − ∆y2 ≤ Yj ≤ yi + ∆y 2 Os valores de yj e ∆y devem ser tais que qualquer valor possível Yj esteja incluído em apenas um intervalo. Esta definição se aplica a variáveis contínuas e discretas. A condição de normalização, o valor médio e desvio padrão são exatamente iguais. Nosso interesse principal corresponde ao caso em que y resulta de um processo de medição, nos quais os valores possíveis YJ são discretos. Ou seja, a grandeza física y pode ser contínua, mas os resultados YJ de medidas de y constituem um conjunto discreto de valores. Isso é uma consequência do fato de que os instrumentos de medição só fornecem leituras com um número definido de algarismos. Por exemplo, uma régua comum de 300 mm só admite a leitura de um número inteiro de milímetros. Só existem 300 resultados possíveis, ainda que o comprimento a ser medido seja uma grandeza contínua. 3 Assim, quando entendemos como evento qualquer resultado no intervalo yi, δy, não importa se a variável é contínua ou discreta, desde cada intervalo contenha um número muito grande de resultados possíveis. 1.4 Função densidade de probabilidade Para variáveis contínuas, cada evento pode ser definido a partir de um intervalo {yi,∆y}, com centro em yi e largura ∆y. Podemos admitir como aproximação que y pode ter m valores possíveis (y1, y2, . . . , ym) Cada evento yi pode ocorrer com probabilidade P (yi) ≡ ∆Pi. Considerando Mi como o número de eventos possíveis em um intervalo, temos que Mi deve ser proporcional ao compri- mento ∆y. A variação ∆y deve ser pequena, mas grande o suficiente para conter um número grande de eventos. Sob tais condições, a probabilidade ∆Pi deve ser proporcional a ∆y e a quantidade H(yi) = ∆Pi ∆y , depende apenas de yi. Esta é chamada função densidade de probabilidade ou função de proba- bilidade. Se conhecemos H(yi), a probabilidade de ocorrer um resultado no intervalo {yi,∆y} é P (yi) = ∆Pi ∼= H(yi)∆y, No limite em que ∆y → 0, a equação torna-se dP = H(y)dy ou H(y) = dP dy . Em um processo real, a aproximação experimental para a probabilidade é a frequência relativa F (yi). A aproximação experimental para a função densidade de probabilidade é dada por He(yi) = F (yi) ∆y . 4 1.5 Função de Laplace-Gauss A função gaussiana (ou função normal de erros) de densidade de probabilidades é definida por G(y) = 1 σ √ 2pi exp [ −12 ( y − µ σ )2] , onde as constantes µ e σ são o valor médio e o desvio padrão, respectivamente. Figura 1: Exemplo de distribuição gaussiana. A altura máxima é dada por: Gmax = G(y = µ) = 1 σ √ 2pi . E a largura a meia altura: Γ = y2 − y1 = 2, 3548σ Teoricamente a curva gaussiana se estende de −∞ a ∞. Entretanto, a curva vai pratica- mente a zero quando y < µ − 3σ ou y > µ + 3σ. Por isso afirmamos que a largura total da gaussiana é aproximadamente 6σ. 5 1.6 Histograma O histograma é um tipo de gráfico que permite representar as quantidades N(yi), F (yi) ou H(yi) para os resultados obtidos em N repetições de um determinado processo. Estas quantidades dependem da largura ∆y, por isso os valores de N(yi), F (yi) ou H(yi) podem ser representados por barras paralelas ao eixo y, com largura ∆y e centradas em yi. Vale notar, que existem outras possibilidades para a centralização das barras. Exemplo 1 - A medição da distânciafocal de uma lente convergente é repetida 60 vezes. Devido a erros de medição, resulta uma grande flutuação estatística nos valores calculados para y. Vamos construir um histograma. Os resultados Yj (em mm) são mostrados abaixo. 204 206 208 210 211 218 219 222 222 223 227 229 230 232 235 235 235 235 237 237 237 237 238 238 239 239 239 239 239 240 240 241 243 244 244 246 246 248 248 249 250 250 253 256 257 257 257 259 259 260 262 265 267 268 269 269 269 273 285 289 Por conveniência utilizamos a aproximação experimental para função densidade de probabilidade: He(yi) = F (yi) ∆y = N(yi) N∆y . Pois esta pode ser comparada diretamente com a função densidade de probabilidade H(y) correspondente ao processo aleatório. O intervalo ∆y deve ser escolhido de forma que N(yi) seja no mínimo igual a 10 para os intervalos próximos do valor médio. A escolha dos valores yi deve ser tal que o centro do intervalo central seja coincidente com o valor médio obtido. Os resultados são mostrados na figura abaixo. Figura 2: Histograma com ∆y = 10 mm. 6 2 Erro e Incerteza O Mensurando é a grandeza a ser determinada em um processo de medição. Em geral, seu o valor verdadeiro é uma quantidade desconhecida. Ou seja este só pode ser conhecido aproxi- madamente devido a erros de medição. O valor verdadeiro de uma grandeza física experimental é também chamado de valor alvo. Em certos casos, o valor verdadeiro é conhecido. Por exemplo, a velocidade da luz no vácuo c. Nestes casos, a medição é realizada para aferição de equipamentos ou em experiências didáticas. 2.1 Definição de erro Seja yv o valor verdadeiro de um mensurando e y o resultado de uma medição, o erro em y é definido por η = y − yv No formalismo da teoria de erros, o erro η é considerado uma quantidade desconhecida, que pode ser determinada em termos de probabilidades. Assumimos que o erro tem diversas causas e pode ser escrito como η = η1 + η2 + . . .+ ηq. Verifica-se experimentalmente que os erros seguem a distribuição gaussiana com boa aproxi- mação. Eventualmente uma distribuição de erros pode ser diferente da distribuição gaussiana. Figura 3: Função gaussiana de probabilidades. A probabilidade ∆Pi de obter uma medida y no intervalo ∆y é a área ∆S. A área total sob a curva é 1, devido a condição de normalização. 7 2.2 Objetivos da teoria de erros Uma grandeza física experimental deve ser determinada a partir de um processo de medição, cujo resultado é sempre uma aproximação para o valor verdadeiro da grandeza. Portanto, o teoria de erros busca determinar o melhor valor possível para a grandeza a partir das medições. E determinar quanto o melhor valor obtido pode ser diferente do valor verdadeiro. O melhor valor para a grandeza deve ser o mais próximo possível do valor verdadeiro e também pode ser chamado de melhor estimativa ou valor experimental para a grandeza física. Em suma os objetivos da teoria de erros são: • Obter o melhor valor para o mensurando a partir dos dados experimentais. Ou seja, determinar a melhor aproximação possível para o valor verdadeiro em termos probabilís- ticos. • Obter a incerteza no melhor valor, o que significa determinar quanto este valor pode ser diferente do valor verdadeiro, em termos probabilísticos. 2.3 A indicação da incerteza • A incerteza padrão (σ) pode ser definida como o desvio padrão da distribuição de erros. É a maneira mais usada em trabalhos de física experimental • A incerteza expandida com confiança P é um múltiplo da incerteza padrão (kσ) • O limite de erro (L) é valor máximo admissível para o erro. Esta é a forma mais utilizada em especificações técnicas de instrumentos. • O erro provável é o valor ∆ que tem 50% de probabilidade de ser excedido pelo erro η, em módulo. 2.3.1 Intervalo de confiança O nível de confiança P de uma afirmativa é a probabilidade de P de que esta afirmativa esteja correta. Vamos considerar a afirmativa “a < b < c” com confiança P , que define um intervalo de confiança para a quantidade b, que pode ser representada por a < b < c (com confiança P ). Portanto a relação acima não é uma inequação, é apenas uma afirmação que pode ou não estar correta. Isto é, b é uma quantidade desconhecida com probabilidade P de ser menor que a ou maior que c. 8 2.4 Interpretação da incerteza padrão Se yv é o valor verdadeiro de um mensurando e y é resultado de um processo de medição, a probabilidade P (δ) de se obter um resultado y no intervalo yv − δ < y < yv + δ, pode ser obtida ao integrar: P (δ) = 1 σv √ 2pi ∫ yv+δ yv−δ exp [ −12 ( y − yv σv )2] , onde σv é a incerteza padrão verdadeira. A integral resolvida numericamente fornece P (δ = σv) = 68,27% . Assim, uma inequação do tipo (a < b < c) define um intervalo de confiança para o erro η = y − yv: −σv < η < +σv (com confiança P = 68,27%). Ou seja, podemos afirmar com 68,27% de confiança que o erro η possui módulo menor que σv. Podemos escrever também o intervalo de confiança para o valor verdadeiro: y − σv < yv < y + σv (com confiança P = 68,27%) Tabela 1: Intervalos de confiança para incertezas e correspondentes níveis de confiança, no caso de distribuições para os erros. Incerteza Intervalo de confiança Confiança σv (y − σv) < yv < (y + σv) 68,27% 2σv (y − 2σv) < yv < (y + 2σv) 95,45% 3σv (y − 3σv) < yv < (y + 3σv) 99,73% ∆ (y −∆) < yv < (y + ∆) 50,00% 2.4.1 Incerteza na constante de gravitação universal Segundo a lei de gravitação universal, o módulo da força entre duas massas é dado por F = Gm1m2 r2 . A constante G é um exemplo de grandeza física experimental, cujo valor numérico deve ser ob- tido por meio de medições. Muitas experiências já foram realizadas para determinar a constante G. Vejamos na tabela 2, alguns valores experimentais e suas respectivas incertezas. Admitindo erros com distribuição gaussiana, a incerteza define o intervalo de confiança para G G− σ < G < G+ σ (com confiança P ∼= 68%) 9 Tabela 2: Diversos valores experimentais para G. A incerteza é indicada por meio da incerteza padrão σ. Ano (G± σ)× (10−11m3s−2kg−1) 1798 6,75 ± 0,05 1896 6,657 ± 0,013 1930 6,670 ± 0,005 1973 6,6720 ± 0,0041 1988 6,67259 ± 0,00085 Em um gráfico, a incerteza padrão pode ser indicada por barras de incerteza. Nem sempre isto é possível, pois a incerteza pode ser muito pequena (veja o último ponto no gráfico). Figura 4: Os valores experimentais de G convergem para um valor bem definido, que deve ser o valor verdadeiro da grandeza (G). 10 2.5 Limite de erro O limite de erro L é o valor máximo que o erro η pode assumir. Em uma distribuição de erros simétrica, que se anula além de um certo valor y = L, temos que −L < η < +L (com confiança P = 100%) Em uma distribuição de erros gaussiana não existe um limite de erro absoluto, pois teoricamente a gaussiana nunca se anula. Entretanto, temos que a incerteza expandida 3σ possui confiança P = 99,73 %. Pois a gaussiana praticamente se anula além deste valor. Por esta razão assumimos esta incerteza como o “limite de erro”. Assim, L = 3σ. Também podemos considerar um limite de erro com confiança menor (P ≈ 95% ) L = 2σ. 2.5.1 Regra prática Em geral, instrumentos analógicos são construídos para que o “limite de erro de calibração” do instrumento seja igual à menor divisão da escala. Utilizamos a regra prática de considerar a “incerteza padrão” como a “metade da menor divisão”: σ = Lc2 , onde Lc é menor divisão da escala analógica em questão. Por exemplo, uma régua comum graduada em milímetros possui σ = 0, 5 mm. 2.6 Incerteza padrão experimental A incerteza padrão σ, obtida experimentalmente, é sempre uma aproximação para incerteza padrão verdadeira σv. Neste caso os níveis de confiança são um pouco menores. Então podemos interpretar σ, em resultado experimental y, por meio do intervalode confi- ança para o valor verdadeiro yv y − σ < yv < y + σ (com confiança P ≈ 68%) Para a incerteza padrão experimental σ, o coeficiente de confiança P é menor e aproximado. 11 3 Algarismos Significativos O valor de uma grandeza experimental pode ser escrito como um número na forma decimal com muitos algarismos. Por exemplo, OOOOOOOOOO︸ ︷︷ ︸ não sig. XY . . . ZW︸ ︷︷ ︸ sig. ABCD . . .︸ ︷︷ ︸ não sig. O algarismo significativo em número pode ser entendido como um algarismo que indivi- dualmente tem algum significado, quando o número está em forma decimal. Devido à incerteza, cada um dos algarismos no número tem uma determinada probabilidade de ser o algarismo verdadeiro. Geralmente, esta probabilidade está entre 50 % e 100 % para o primeiro algarismo não-nulo (X) e vai diminuindo para algarismos à direita, até se tornar muito próxima de 10% para certo algarismo (A). Ou seja o algarismo A tem a mesma probabi- lidade que os demais (1/10) de ser o algarismo verdadeiro. Portanto A não poder ter nenhum significado, por que não transmite nenhuma informação. Resumindo, o algarismo é significativo quando tem maior probabilidade de estar correto, em relação aos demais. Exemplo 2 - Uma distância foi medida, obtendo-se os resultados, y = 73,64 m e σ = 1,23 m, onde σ é a incerteza padrão. Vamos determinar os algarismos significativos. Para o valor verdadeiro yv temos um intervalo de confiança determinado pelos limites (y − 3σ) e (y + 3σ). Ou seja, 69, 95 m < yv < 77, 33 m (com confiança P ∼= 99,7%) Assim, temos 99,7% de chance de que os algarismos corretos sejam dados por um dos seguinte números: 69,95 69,96 69,97 69,98 69,99 70,00 70,01 . . . 77,30 77,31 77,32 77,33 Vamos admitir que a distribuição de erros é gaussiana, cuja densidade de probabilidade é dada por G(y) = 1 σ √ 2pi exp [ − 12σ2η 2 ] , onde η = y − yv. A expressão acima permite determinar probabilidades para o erro η e portanto para o valor verdadeiro yv 12 A probabilidade P (yv) de que o valor verdadeiro seja yv é proporcional a G(η): P (yv) = CG(η) = p0 exp ( η2 2σ2 ) = p0 exp [ (y − yv)2 2σ2 ] , onde p0 é a probabilidade para o valor yv = y = 73,64 m. Podemos calcular P (yv) para quaisquer valores yv. A seguir, mostramos valores calculados aproximadamente para diversos casos. Vejamos as probabilidades para os dois primeiros algarismos sejam os valores indicados: 1º algarismo 5 6 7 8 Probabilidade 0,00% 0,16% 99,84% 0,00% 2º algarismo 0 1 2 3 4 5 6 Probabilidade 1% 8% 21% 31% 25% 11% 2% A probabilidade de que o primeiro algarismo seja 7 é 99,84%. Existe certeza quase absoluta que o algarismo 7 é o correto. A probabilidade de que o segundo algarismo seja 3 é 31 %. Assim, o algarismo 3 também é significativo, pois tem maior probabilidade em relação aos demais. Para os dois últimos algarismos, temos probabilidades para o terceiro e para o último algarismo yv P (yv) yv P (yv) 73,04 0,882p0 73,60 0,99944p0 73,14 0,917p0 73,61 0,99969p0 73,24 0,946p0 73,62 0,99986p0 73,34 0,969p0 73,63 0,99997p0 73,44 0,986p0 73,64 p0 73,54 0,997p0 73,65 0,99997p0 73,64 p0 73,66 0,99986p0 73,74 0,997p0 77,67 0,99969p0 73,84 0,986p0 77,68 0,99944p0 73,94 0,969p0 77,69 0,99913p0 Na primeira tabela, percebemos que o algarismo 6 tem uma probabilidade pouco maior de ser o algarismo correto. Então dizemos que o algarismo 6 é significativo. Observando a segunda tabela, vemos a probabilidade do algarismo 4 estar correto é comparável aos demais algarismos. Por isso este não pode ser considerado significativo. Assim, o resultado final deve ser escrito como y = 73, 6± 1, 2 m 13 3.1 Algarismos na incerteza padrão A incerteza padrão deve ser dada com 2 algarismos, quando o primeiro algarismo na incer- teza for 1 ou 2. A incerteza padrão pode ser dada com 1 ou 2 algarismos, quando o primeiro algarismo na incerteza for 3 ou maior. Tabela 3: Formas de indicar a incerteza padrão inadequadas adequadas 1 σ = 0,144 m σ = 0,1 m σ = 0,14 m σ = 14 cm 2 σ = 1,026 s σ = 1 s σ = 1,0 s - 3 σ = 100 m σ =102 m σ = 1,0 × 102 m σ = 0,10 km 4 σ = 2,31 kg σ = 2 kg σ = 2,3 kg - 5 σ = 2,78 cm σ = 3 cm σ = 2,8 cm σ = 28 mm 6 σ = 3,49 m σ = 3,5 m σ = 3 m 3.2 Algarismos significativos na grandeza Se a incerteza padrão é dada com um único algarismo, o algarismo correspondente na grandeza é o último algarismo significativo. Se a incerteza padrão é dada com dois algarismos, os 2 algarismos correspondentes na grandeza podem ser considerados com os dois últimos algarismos significativos. Por exemplo, Seja um resultado experimental com y = 0, 0004639178 m; σ = 0, 000002503 m. A incerteza padrão deve ter dois AS, então a forma adequada pode ser escrita como y = 0, 4639 mm; σ = 0, 0025 mm. ou y = 4, 639178× 10−4 m; σ = 0, 025× 10−4 m. 3.3 Arredondamento de números Seja um número em forma decimal tal que W,Y X︸ ︷︷ ︸ sig. ABCD . . .︸ ︷︷ ︸ n. sig. , onde ABCD . . . são algarismos que por algum motivo devem ser eliminados, o algarismo X deve ser arredondado aumentando de uma unidade ou não, de acordo com as seguintes regras: • de X000. . . a X499. . ., os algarismos excedentes são eliminados (arredondamos para baixo) 14 • de X500. . .1 a X999. . ., os algarismos excedentes são eliminados e o algarismos aumenta de 1 (arredondamos para cima) • No caso de X500000. . ., o arredondamento deve ser tal que o algarismo X depois do arredondamento deve ser par. Tabela 4: Exemplos de arrendondamento 2,43 → 2,4 3,688 → 3,69 5,6499 → 5,6 5,6501 → 5,7 5,6500 → 5,6 5,7500 → 5,8 9,475 → 9,48 3,325 → 3,32 3.4 Formas de indicar a incerteza padrão Uma grandeza experimental deve ser sempre dada com a respectiva incerteza. Indicada prefe- rencial pela incerteza padrão. Por exemplo, a constante universal de gravitação G = (6, 67259︸ ︷︷ ︸ grandeza ± 0, 00085︸ ︷︷ ︸ incerteza σ )× (10−11m3s−2kg−1), Somando e subtraindo σ da grandeza, se obtém os limites do intervalo de confiança (com P ∼= 68%), no caso de uma distribuição gaussiana. De acordo com as regras expostas (seção 3.1), a grandeza também pode ser representada como G = (6, 6726± 0, 0008)× (10−11m3s−2kg−1). Temos outra possibilidade de notação G = 6, 67259︸ ︷︷ ︸ grandeza (85)︸ ︷︷ ︸ σ ×(10−11m3s−2kg−1), ou ainda, G = 6, 6726(8)× (10−11m3s−2kg−1), 15 4 Erros estatísticos e sistemáticos Seja uma medição repetida n vezes, com um conjunto de resultados (y1, y2, . . . , yn), e valor médio y¯. Temos que: Erro sistemático é o mesmo nos n resultados. Quando existe somente erro sistemático, os n resultados são iguais e a diferença para o valor verdadeiro yv é sempre a mesma. Erro estatístico ou aleatório é um erro tal que na ausência de erro sistemático os n resultados yi se distribuem de maneira aleatória em torno do valor de yv. A acurácia (ou exatidão) descreve o quanto o resultado de uma medição é próximo do valor verdadeiro. Um resultado acurado possui erro total muito pequeno. A precisão caracteriza um resultado com erros estatísticos pequenos, com pequena dispersão em relação ao valor verdadeiro. 4.1 Incerteza tipo A e tipo B As organizações internacionais recomendam que as incertezas sejam classificadas apenas como de tipo A e tipo B. Para um determinado processo de medição, as incertezas tipo A se referem aos erros entendidos como estatísticos. E as incertezas do tipo B aos erros sistemáticos residuais. 5 Apresentação dos resultados Apresentamos como o resultado de uma medida o melhor valor possível e sua respectiva incerteza. Entretanto sabemos que o valor verdadeiro yv e o valor médio verdadeiro ymv são desconhecidos para um processo de medição. Desse modo, para n resultados de medições idênticas, a melhor estimativa para ymv é o valor médio: y¯ = 1 N N∑ i=1 yi. A melhor estimativa para o desvio padrãodo conjunto de medições é dada por σ2 = 1 N − 1 N∑ i=1 (yi − y¯)2. Enquanto a melhor estimativa para o desvio padrão σm do valor médio y¯ é σm = σ√ N Podemos estimar a incerteza sistemática residual σr de acordo com o processo e o instru- mento de medição. Se existem erros sistemáticos diversos, a incerteza residual final é obtida por σ2r = σ2r1 + σ 2 r2 + . . . , onde σ2ri é a i-ésima incerteza sistemática residual. 16 A incerteza padrão pode ser obtida a partir da soma da variância estatística e da variância sistemática residual: σ2p = σ2m + σ2r As incertezas σm e σr devem ser explicitamente mencionadas, bem como as regras utilizadas para determinar as mesmas. O resultado final deve ser escrito na forma y = y¯ ± σp Incerteza relativa Em algumas situações é conveniente apresentar a incerteza relativa, que é definida por � = σ y , onde σ é a incerteza e y é valor experimental para a grandeza. A incerteza percentual é escrita �(%) = 100�. Estas definições se aplicam a desvio padrão, incerteza padrão e limite de erro. 6 Propagação de incertezas Em alguns experimentos a grandeza física de interesse não é obtida diretamente, mas calcu- lada por meio de uma grandeza que foi medida diretamente. Por exemplo, é possível calcular a aceleração da gravidade g medindo o tempo de queda t de um corpo que cai de uma de- terminada altura h. Nesta seção vamos entender como podemos relacionar a incerteza σg na aceleração g com a incerteza da medida do tempo σt. Vamos tratar do caso mais geral. Seja uma grandeza w, calculada como função de outras grandezas experimentais, w = w(x, y, z, . . .), onde σx, σy, σz, . . . são suas respectivas incertezas. Se os erros nas variáveis x, y, z, . . . são independentes entre si, a incerteza padrão em w é, em primeira aproximação , obtida por: σ2w = ( ∂w ∂x )2 σ2x + ( ∂w ∂y )2 σ2y + ( ∂w ∂z )2 σ2z + . . . E no caso particular de uma variável, onde w = w(x) , a expressão se reduz: σw = ∣∣∣∣∣dwdx ∣∣∣∣∣σx. Onde as incertezas σw e σx são positivas por definição. 17 6.1 Algumas fórmulas de propagação Soma algébrica de variáveis (w = x± y ± z ± . . .): σ2w = σ2x + σ2y + . . . Relação linear (w = ax + b): Admitindo que a e b são constantes livres de erro ou com erros desprezíveis, consideramos apenas a variável x: σw = |a|σx Função trigonométrica (w = a senα): σw = |a cosα|σα, onde α está em radianos. Exemplo 3 : Calcule a incerteza: (a) na área de uma circunferência; (b) no volume de um cilindro. Exemplo 4: O ângulo de Brewster de um material foi medido experimentalmente obtendo-se θB = (59,3° ± 1,2°). A relação entre o índice de refração e θB é n = tan θB. Determine o valor experimental de n. Bibliografia consultada VUOLO, J. H. Fundamentos da Teoria de Erros. 2ª ed. São Paulo: Blucher, 1996 18 Probabilidades Distribuição de variável discreta Valor médio e desvio padrão Distribuição de probabilidades para variável contínua Função densidade de probabilidade Função de Laplace-Gauss Histograma Erro e Incerteza Definição de erro Objetivos da teoria de erros A indicação da incerteza Intervalo de confiança Interpretação da incerteza padrão Incerteza na constante de gravitação universal Limite de erro Regra prática Incerteza padrão experimental Algarismos Significativos Algarismos na incerteza padrão Algarismos significativos na grandeza Arredondamento de números Formas de indicar a incerteza padrão Erros estatísticos e sistemáticos Incerteza tipo A e tipo B Apresentação dos resultados Propagação de incertezas Algumas fórmulas de propagação
Compartilhar