Buscar

apostila fis exp1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 18 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 18 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 18 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Física Experimental I (CCCT0017)
Prof. Karl M. S. Garcez
Curso de C & T - UFMA
Nesta breve apostila procuramos entender os conceitos básicos da Teoria de Erros com ob-
jetivo de aplicá-los na prática da Física Experimental. Uma vez que um processo de medição
está sujeito a diversos tipos de flutuações e interferências, é necessário saber como estimar as
incertezas nos valores medidos.
1 Probabilidades
Um processo aleatório é qualquer fenômeno que possa ter diferentes resultados finais quando
repetido sob certas condições predeterminadas. Os eventos são os diferentes resultados finais
ou grupos de resultados finais. Por exemplo, no lançamento de um dado não viciado temos, os
seis resultados finais podem ser definidos como eventos.
De maneira geral, um processo aleatório y pode resultar um número finito de m eventos
indicados por
y1, y2, y3, . . . , yi, . . . , ym,
onde yi indica qualquer um dos eventos.
A frequência de ocorrência do evento yi é definida como o número de vezes N(yi) que
yi ocorre quando o processo y é repetido N vezes. Esta definição resulta em
N(y1) +N(y2) +N(y3) + . . .+N(ym) = N
Assim, a chamada frequência relativa do evento yi é definida como
F (yi) =
N(yi)
N
,
ou seja, é a fração de eventos yi em relação ao número total de eventos.
Se o processo é repetido indefinidamente (N → ∞), a fração deve-se tornar um número
bem definido. Isto é, a probabilidade de ocorrência do evento yi é dada por
P (yi) = lim
N→∞
N(yi)
N
= lim
N→∞
F (yi)
Esta equação mostra que a probabilidade é um número de 0 a 1, pois 0 ≤ N(yi) ≤ N . Pela
1
definição acima, temos que a frequência relativa é sempre uma aproximação para a probabilidade
de ocorrência do evento. Quanto maior o número N de repetições, melhor a aproximação.
1.1 Distribuição de variável discreta
Seja um processo aleatório, onde cada resultado pode ser descrito por um número y. Quando
os resultados possíveis constituem um conjunto bem definido de valores yi, a quantidade y é
chamada variável discreta. Isto é, uma variável discreta y pode assumir m valores possíveis:
y1, y2, y3, . . . , ym.
Cada valor yi tem uma probabilidade P (yi) de ocorrer em um processo simples. O conjunto
dos m valores de P (yi), para todos os valores possíveis de i, é definido como a distribuição de
probabilidades para a variável discreta y. Onde a distribuição satisfaz a chamada condição de
normalização,
m∑
i=1
P (yi) = 1.
1.2 Valor médio e desvio padrão
Para N repetições de um processo aleatório de uma variável discreta y, o valor médio de
y é definido por
y¯ = 1
N
N∑
k=1
Yk,
onde Y1, . . . , Yk, . . . , YN são os N resultados obtidos para y. E se cada resultado possível yi
ocorreu N(yi) vezes. Podemos escrever
y¯ = 1
N
m∑
i=1
yiN(yi).
Sabemos que a razão N(yi)/N é a frequência relativa, logo
y¯ =
m∑
i=1
yiF (yi).
Conforme N →∞, o valor médio y¯ deve se aproximar de um valor bem definido1 chamado
valor médio verdadeiro:
µ = lim
N→∞
y¯
Temos ainda que neste limite, a frequência relativa tende a probabilidade P (yi). Assim o
valor médio verdadeiro pode ser escrito
1segundo a lei dos grandes números
2
µ =
m∑
i=1
yiP (yi)
Na verdade, µ é uma quantidade sempre desconhecida, pois o número N de repetições de
um processo aleatório não pode ser infinito. Na prática, os valores das probabilidades P (yi)
nunca são conhecidos exatamente.
A variância de uma distribuição de probabilidades é definida por
σ2 =
m∑
i=1
(yi − µ)2 P (yi)
E o desvio padrão da distribuição é a raiz positiva da variância
σ = +
√
σ2 = +
√√√√ m∑
i=1
(yi − µ)2 P (yi)
Estas equações definem os valores verdadeiros para σ2 e σ. Na prática estas também não
são conhecidas exatamente, uma vez que o valor médio verdadeiro é também desconhecido.
1.3 Distribuição de probabilidades para variável contínua
É bastante comum que um processo aleatório y possa resultar em um número muito grande
de valores possíveis:
Y1, Y2, Y3, . . . , Yj, . . . , YM (M � 1)
A descrição das frequências N(Yj), das frequências relativas F (Yj) e probabilidades P (Yj)
para cada Yj torna-se inviável devido ao grande número de quantidades. Pois para determinar
experimentalmente N(Yj) ou F (Yj) seria necessário repetir N vezes o processo, com N �M e
isto pode ser inviável.
Para contornar estas dificuldades podemos utilizar uma outra definição de evento. Afirma-
mos que o evento yi ocorre se o resultado do processo é uma quantidade Yj tal que
yi − ∆y2 ≤ Yj ≤ yi +
∆y
2
Os valores de yj e ∆y devem ser tais que qualquer valor possível Yj esteja incluído em
apenas um intervalo. Esta definição se aplica a variáveis contínuas e discretas. A condição de
normalização, o valor médio e desvio padrão são exatamente iguais.
Nosso interesse principal corresponde ao caso em que y resulta de um processo de medição,
nos quais os valores possíveis YJ são discretos. Ou seja, a grandeza física y pode ser contínua,
mas os resultados YJ de medidas de y constituem um conjunto discreto de valores.
Isso é uma consequência do fato de que os instrumentos de medição só fornecem leituras
com um número definido de algarismos. Por exemplo, uma régua comum de 300 mm só admite
a leitura de um número inteiro de milímetros. Só existem 300 resultados possíveis, ainda que o
comprimento a ser medido seja uma grandeza contínua.
3
Assim, quando entendemos como evento qualquer resultado no intervalo yi, δy, não importa
se a variável é contínua ou discreta, desde cada intervalo contenha um número muito grande
de resultados possíveis.
1.4 Função densidade de probabilidade
Para variáveis contínuas, cada evento pode ser definido a partir de um intervalo {yi,∆y},
com centro em yi e largura ∆y. Podemos admitir como aproximação que y pode ter m valores
possíveis (y1, y2, . . . , ym)
Cada evento yi pode ocorrer com probabilidade P (yi) ≡ ∆Pi. Considerando Mi como o
número de eventos possíveis em um intervalo, temos que Mi deve ser proporcional ao compri-
mento ∆y. A variação ∆y deve ser pequena, mas grande o suficiente para conter um número
grande de eventos. Sob tais condições, a probabilidade ∆Pi deve ser proporcional a ∆y e a
quantidade
H(yi) =
∆Pi
∆y ,
depende apenas de yi. Esta é chamada função densidade de probabilidade ou função de proba-
bilidade. Se conhecemos H(yi), a probabilidade de ocorrer um resultado no intervalo {yi,∆y}
é
P (yi) = ∆Pi ∼= H(yi)∆y,
No limite em que ∆y → 0, a equação torna-se
dP = H(y)dy
ou
H(y) = dP
dy
.
Em um processo real, a aproximação experimental para a probabilidade é a frequência relativa
F (yi). A aproximação experimental para a função densidade de probabilidade é dada por
He(yi) =
F (yi)
∆y .
4
1.5 Função de Laplace-Gauss
A função gaussiana (ou função normal de erros) de densidade de probabilidades é definida por
G(y) = 1
σ
√
2pi
exp
[
−12
(
y − µ
σ
)2]
,
onde as constantes µ e σ são o valor médio e o desvio padrão, respectivamente.
Figura 1: Exemplo de distribuição gaussiana.
A altura máxima é dada por:
Gmax = G(y = µ) =
1
σ
√
2pi
.
E a largura a meia altura:
Γ = y2 − y1 = 2, 3548σ
Teoricamente a curva gaussiana se estende de −∞ a ∞. Entretanto, a curva vai pratica-
mente a zero quando y < µ − 3σ ou y > µ + 3σ. Por isso afirmamos que a largura total da
gaussiana é aproximadamente 6σ.
5
1.6 Histograma
O histograma é um tipo de gráfico que permite representar as quantidades N(yi), F (yi) ou
H(yi) para os resultados obtidos em N repetições de um determinado processo.
Estas quantidades dependem da largura ∆y, por isso os valores de N(yi), F (yi) ou H(yi)
podem ser representados por barras paralelas ao eixo y, com largura ∆y e centradas em yi.
Vale notar, que existem outras possibilidades para a centralização das barras.
Exemplo 1 - A medição da distânciafocal de uma lente convergente é repetida 60 vezes. Devido
a erros de medição, resulta uma grande flutuação estatística nos valores calculados para y. Vamos
construir um histograma. Os resultados Yj (em mm) são mostrados abaixo.
204 206 208 210 211 218 219 222 222 223
227 229 230 232 235 235 235 235 237 237
237 237 238 238 239 239 239 239 239 240
240 241 243 244 244 246 246 248 248 249
250 250 253 256 257 257 257 259 259 260
262 265 267 268 269 269 269 273 285 289
Por conveniência utilizamos a aproximação experimental para função densidade de probabilidade:
He(yi) =
F (yi)
∆y =
N(yi)
N∆y .
Pois esta pode ser comparada diretamente com a função densidade de probabilidade H(y)
correspondente ao processo aleatório. O intervalo ∆y deve ser escolhido de forma que N(yi) seja
no mínimo igual a 10 para os intervalos próximos do valor médio.
A escolha dos valores yi deve ser tal que o centro do intervalo central seja coincidente com o valor
médio obtido. Os resultados são mostrados na figura abaixo.
Figura 2: Histograma com ∆y = 10 mm.
6
2 Erro e Incerteza
O Mensurando é a grandeza a ser determinada em um processo de medição. Em geral, seu
o valor verdadeiro é uma quantidade desconhecida. Ou seja este só pode ser conhecido aproxi-
madamente devido a erros de medição. O valor verdadeiro de uma grandeza física experimental
é também chamado de valor alvo.
Em certos casos, o valor verdadeiro é conhecido. Por exemplo, a velocidade da luz no
vácuo c. Nestes casos, a medição é realizada para aferição de equipamentos ou em experiências
didáticas.
2.1 Definição de erro
Seja yv o valor verdadeiro de um mensurando e y o resultado de uma medição, o erro em
y é definido por
η = y − yv
No formalismo da teoria de erros, o erro η é considerado uma quantidade desconhecida, que
pode ser determinada em termos de probabilidades. Assumimos que o erro tem diversas causas
e pode ser escrito como
η = η1 + η2 + . . .+ ηq.
Verifica-se experimentalmente que os erros seguem a distribuição gaussiana com boa aproxi-
mação. Eventualmente uma distribuição de erros pode ser diferente da distribuição gaussiana.
Figura 3: Função gaussiana de probabilidades. A probabilidade ∆Pi de obter uma medida y
no intervalo ∆y é a área ∆S. A área total sob a curva é 1, devido a condição de normalização.
7
2.2 Objetivos da teoria de erros
Uma grandeza física experimental deve ser determinada a partir de um processo de medição,
cujo resultado é sempre uma aproximação para o valor verdadeiro da grandeza.
Portanto, o teoria de erros busca determinar o melhor valor possível para a grandeza a
partir das medições. E determinar quanto o melhor valor obtido pode ser diferente do valor
verdadeiro.
O melhor valor para a grandeza deve ser o mais próximo possível do valor verdadeiro e
também pode ser chamado de melhor estimativa ou valor experimental para a grandeza física.
Em suma os objetivos da teoria de erros são:
• Obter o melhor valor para o mensurando a partir dos dados experimentais. Ou seja,
determinar a melhor aproximação possível para o valor verdadeiro em termos probabilís-
ticos.
• Obter a incerteza no melhor valor, o que significa determinar quanto este valor pode ser
diferente do valor verdadeiro, em termos probabilísticos.
2.3 A indicação da incerteza
• A incerteza padrão (σ) pode ser definida como o desvio padrão da distribuição de erros.
É a maneira mais usada em trabalhos de física experimental
• A incerteza expandida com confiança P é um múltiplo da incerteza padrão (kσ)
• O limite de erro (L) é valor máximo admissível para o erro. Esta é a forma mais
utilizada em especificações técnicas de instrumentos.
• O erro provável é o valor ∆ que tem 50% de probabilidade de ser excedido pelo erro η,
em módulo.
2.3.1 Intervalo de confiança
O nível de confiança P de uma afirmativa é a probabilidade de P de que esta afirmativa
esteja correta.
Vamos considerar a afirmativa “a < b < c” com confiança P , que define um intervalo de
confiança para a quantidade b, que pode ser representada por
a < b < c (com confiança P ).
Portanto a relação acima não é uma inequação, é apenas uma afirmação que pode ou não
estar correta. Isto é, b é uma quantidade desconhecida com probabilidade P de ser menor que
a ou maior que c.
8
2.4 Interpretação da incerteza padrão
Se yv é o valor verdadeiro de um mensurando e y é resultado de um processo de medição,
a probabilidade P (δ) de se obter um resultado y no intervalo
yv − δ < y < yv + δ,
pode ser obtida ao integrar:
P (δ) = 1
σv
√
2pi
∫ yv+δ
yv−δ
exp
[
−12
(
y − yv
σv
)2]
,
onde σv é a incerteza padrão verdadeira. A integral resolvida numericamente fornece P (δ = σv)
= 68,27% .
Assim, uma inequação do tipo (a < b < c) define um intervalo de confiança para o erro
η = y − yv:
−σv < η < +σv (com confiança P = 68,27%).
Ou seja, podemos afirmar com 68,27% de confiança que o erro η possui módulo menor que σv.
Podemos escrever também o intervalo de confiança para o valor verdadeiro:
y − σv < yv < y + σv (com confiança P = 68,27%)
Tabela 1: Intervalos de confiança para incertezas e correspondentes níveis de confiança, no caso
de distribuições para os erros.
Incerteza Intervalo de confiança Confiança
σv (y − σv) < yv < (y + σv) 68,27%
2σv (y − 2σv) < yv < (y + 2σv) 95,45%
3σv (y − 3σv) < yv < (y + 3σv) 99,73%
∆ (y −∆) < yv < (y + ∆) 50,00%
2.4.1 Incerteza na constante de gravitação universal
Segundo a lei de gravitação universal, o módulo da força entre duas massas é dado por
F = Gm1m2
r2
.
A constante G é um exemplo de grandeza física experimental, cujo valor numérico deve ser ob-
tido por meio de medições. Muitas experiências já foram realizadas para determinar a constante
G. Vejamos na tabela 2, alguns valores experimentais e suas respectivas incertezas.
Admitindo erros com distribuição gaussiana, a incerteza define o intervalo de confiança para
G
G− σ < G < G+ σ (com confiança P ∼= 68%)
9
Tabela 2: Diversos valores experimentais para G. A incerteza é indicada por meio da incerteza
padrão σ.
Ano (G± σ)× (10−11m3s−2kg−1)
1798 6,75 ± 0,05
1896 6,657 ± 0,013
1930 6,670 ± 0,005
1973 6,6720 ± 0,0041
1988 6,67259 ± 0,00085
Em um gráfico, a incerteza padrão pode ser indicada por barras de incerteza. Nem sempre
isto é possível, pois a incerteza pode ser muito pequena (veja o último ponto no gráfico).
Figura 4: Os valores experimentais de G convergem para um valor bem definido, que deve ser
o valor verdadeiro da grandeza (G).
10
2.5 Limite de erro
O limite de erro L é o valor máximo que o erro η pode assumir. Em uma distribuição de erros
simétrica, que se anula além de um certo valor y = L, temos que
−L < η < +L (com confiança P = 100%)
Em uma distribuição de erros gaussiana não existe um limite de erro absoluto, pois teoricamente
a gaussiana nunca se anula. Entretanto, temos que a incerteza expandida 3σ possui confiança P
= 99,73 %. Pois a gaussiana praticamente se anula além deste valor. Por esta razão assumimos
esta incerteza como o “limite de erro”. Assim,
L = 3σ.
Também podemos considerar um limite de erro com confiança menor (P ≈ 95% )
L = 2σ.
2.5.1 Regra prática
Em geral, instrumentos analógicos são construídos para que o “limite de erro de calibração” do
instrumento seja igual à menor divisão da escala.
Utilizamos a regra prática de considerar a “incerteza padrão” como a “metade da menor
divisão”:
σ = Lc2 ,
onde Lc é menor divisão da escala analógica em questão. Por exemplo, uma régua comum
graduada em milímetros possui σ = 0, 5 mm.
2.6 Incerteza padrão experimental
A incerteza padrão σ, obtida experimentalmente, é sempre uma aproximação para incerteza
padrão verdadeira σv. Neste caso os níveis de confiança são um pouco menores.
Então podemos interpretar σ, em resultado experimental y, por meio do intervalode confi-
ança para o valor verdadeiro yv
y − σ < yv < y + σ (com confiança P ≈ 68%)
Para a incerteza padrão experimental σ, o coeficiente de confiança P é menor e aproximado.
11
3 Algarismos Significativos
O valor de uma grandeza experimental pode ser escrito como um número na forma decimal
com muitos algarismos. Por exemplo,
OOOOOOOOOO︸ ︷︷ ︸
não sig.
XY . . . ZW︸ ︷︷ ︸
sig.
ABCD . . .︸ ︷︷ ︸
não sig.
O algarismo significativo em número pode ser entendido como um algarismo que indivi-
dualmente tem algum significado, quando o número está em forma decimal.
Devido à incerteza, cada um dos algarismos no número tem uma determinada probabilidade
de ser o algarismo verdadeiro. Geralmente, esta probabilidade está entre 50 % e 100 % para
o primeiro algarismo não-nulo (X) e vai diminuindo para algarismos à direita, até se tornar
muito próxima de 10% para certo algarismo (A). Ou seja o algarismo A tem a mesma probabi-
lidade que os demais (1/10) de ser o algarismo verdadeiro. Portanto A não poder ter nenhum
significado, por que não transmite nenhuma informação.
Resumindo, o algarismo é significativo quando tem maior probabilidade de estar correto, em
relação aos demais.
Exemplo 2 - Uma distância foi medida, obtendo-se os resultados, y = 73,64 m e σ = 1,23 m,
onde σ é a incerteza padrão. Vamos determinar os algarismos significativos.
Para o valor verdadeiro yv temos um intervalo de confiança determinado pelos limites (y − 3σ) e
(y + 3σ). Ou seja,
69, 95 m < yv < 77, 33 m (com confiança P ∼= 99,7%)
Assim, temos 99,7% de chance de que os algarismos corretos sejam dados por um dos seguinte
números:
69,95 69,96 69,97 69,98 69,99 70,00
70,01 . . . 77,30 77,31 77,32 77,33
Vamos admitir que a distribuição de erros é gaussiana, cuja densidade de probabilidade é dada por
G(y) = 1
σ
√
2pi
exp
[
− 12σ2η
2
]
,
onde η = y − yv. A expressão acima permite determinar probabilidades para o erro η e portanto
para o valor verdadeiro yv
12
A probabilidade P (yv) de que o valor verdadeiro seja yv é proporcional a G(η):
P (yv) = CG(η) = p0 exp
(
η2
2σ2
)
= p0 exp
[
(y − yv)2
2σ2
]
,
onde p0 é a probabilidade para o valor yv = y = 73,64 m. Podemos calcular P (yv) para quaisquer
valores yv.
A seguir, mostramos valores calculados aproximadamente para diversos casos. Vejamos as
probabilidades para os dois primeiros algarismos sejam os valores indicados:
1º algarismo 5 6 7 8
Probabilidade 0,00% 0,16% 99,84% 0,00%
2º algarismo 0 1 2 3 4 5 6
Probabilidade 1% 8% 21% 31% 25% 11% 2%
A probabilidade de que o primeiro algarismo seja 7 é 99,84%. Existe certeza quase absoluta que o
algarismo 7 é o correto. A probabilidade de que o segundo algarismo seja 3 é 31 %. Assim, o
algarismo 3 também é significativo, pois tem maior probabilidade em relação aos demais.
Para os dois últimos algarismos, temos
probabilidades para o terceiro e para o último algarismo
yv P (yv) yv P (yv)
73,04 0,882p0 73,60 0,99944p0
73,14 0,917p0 73,61 0,99969p0
73,24 0,946p0 73,62 0,99986p0
73,34 0,969p0 73,63 0,99997p0
73,44 0,986p0 73,64 p0
73,54 0,997p0 73,65 0,99997p0
73,64 p0 73,66 0,99986p0
73,74 0,997p0 77,67 0,99969p0
73,84 0,986p0 77,68 0,99944p0
73,94 0,969p0 77,69 0,99913p0
Na primeira tabela, percebemos que o algarismo 6 tem uma probabilidade pouco maior de ser o
algarismo correto. Então dizemos que o algarismo 6 é significativo.
Observando a segunda tabela, vemos a probabilidade do algarismo 4 estar correto é comparável
aos demais algarismos. Por isso este não pode ser considerado significativo.
Assim, o resultado final deve ser escrito como
y = 73, 6± 1, 2 m
13
3.1 Algarismos na incerteza padrão
A incerteza padrão deve ser dada com 2 algarismos, quando o primeiro algarismo na incer-
teza for 1 ou 2.
A incerteza padrão pode ser dada com 1 ou 2 algarismos, quando o primeiro algarismo na
incerteza for 3 ou maior.
Tabela 3: Formas de indicar a incerteza padrão
inadequadas adequadas
1 σ = 0,144 m σ = 0,1 m σ = 0,14 m σ = 14 cm
2 σ = 1,026 s σ = 1 s σ = 1,0 s -
3 σ = 100 m σ =102 m σ = 1,0 × 102 m σ = 0,10 km
4 σ = 2,31 kg σ = 2 kg σ = 2,3 kg -
5 σ = 2,78 cm σ = 3 cm σ = 2,8 cm σ = 28 mm
6 σ = 3,49 m σ = 3,5 m σ = 3 m
3.2 Algarismos significativos na grandeza
Se a incerteza padrão é dada com um único algarismo, o algarismo correspondente na grandeza
é o último algarismo significativo. Se a incerteza padrão é dada com dois algarismos, os 2
algarismos correspondentes na grandeza podem ser considerados com os dois últimos algarismos
significativos.
Por exemplo, Seja um resultado experimental com
y = 0, 0004639178 m; σ = 0, 000002503 m.
A incerteza padrão deve ter dois AS, então a forma adequada pode ser escrita como
y = 0, 4639 mm; σ = 0, 0025 mm.
ou
y = 4, 639178× 10−4 m; σ = 0, 025× 10−4 m.
3.3 Arredondamento de números
Seja um número em forma decimal tal que
W,Y X︸ ︷︷ ︸
sig.
ABCD . . .︸ ︷︷ ︸
n. sig.
,
onde ABCD . . . são algarismos que por algum motivo devem ser eliminados, o algarismo X
deve ser arredondado aumentando de uma unidade ou não, de acordo com as seguintes regras:
• de X000. . . a X499. . ., os algarismos excedentes são eliminados (arredondamos para
baixo)
14
• de X500. . .1 a X999. . ., os algarismos excedentes são eliminados e o algarismos aumenta
de 1 (arredondamos para cima)
• No caso de X500000. . ., o arredondamento deve ser tal que o algarismo X depois do
arredondamento deve ser par.
Tabela 4: Exemplos de arrendondamento
2,43 → 2,4
3,688 → 3,69
5,6499 → 5,6
5,6501 → 5,7
5,6500 → 5,6
5,7500 → 5,8
9,475 → 9,48
3,325 → 3,32
3.4 Formas de indicar a incerteza padrão
Uma grandeza experimental deve ser sempre dada com a respectiva incerteza. Indicada prefe-
rencial pela incerteza padrão. Por exemplo, a constante universal de gravitação
G = (6, 67259︸ ︷︷ ︸
grandeza
± 0, 00085︸ ︷︷ ︸
incerteza σ
)× (10−11m3s−2kg−1),
Somando e subtraindo σ da grandeza, se obtém os limites do intervalo de confiança (com P ∼=
68%), no caso de uma distribuição gaussiana.
De acordo com as regras expostas (seção 3.1), a grandeza também pode ser representada
como
G = (6, 6726± 0, 0008)× (10−11m3s−2kg−1).
Temos outra possibilidade de notação
G = 6, 67259︸ ︷︷ ︸
grandeza
(85)︸ ︷︷ ︸
σ
×(10−11m3s−2kg−1),
ou ainda,
G = 6, 6726(8)× (10−11m3s−2kg−1),
15
4 Erros estatísticos e sistemáticos
Seja uma medição repetida n vezes, com um conjunto de resultados (y1, y2, . . . , yn), e valor
médio y¯. Temos que:
Erro sistemático é o mesmo nos n resultados. Quando existe somente erro sistemático, os
n resultados são iguais e a diferença para o valor verdadeiro yv é sempre a mesma.
Erro estatístico ou aleatório é um erro tal que na ausência de erro sistemático os n resultados
yi se distribuem de maneira aleatória em torno do valor de yv.
A acurácia (ou exatidão) descreve o quanto o resultado de uma medição é próximo do valor
verdadeiro. Um resultado acurado possui erro total muito pequeno.
A precisão caracteriza um resultado com erros estatísticos pequenos, com pequena dispersão
em relação ao valor verdadeiro.
4.1 Incerteza tipo A e tipo B
As organizações internacionais recomendam que as incertezas sejam classificadas apenas como
de tipo A e tipo B. Para um determinado processo de medição, as incertezas tipo A se referem
aos erros entendidos como estatísticos. E as incertezas do tipo B aos erros sistemáticos residuais.
5 Apresentação dos resultados
Apresentamos como o resultado de uma medida o melhor valor possível e sua respectiva
incerteza. Entretanto sabemos que o valor verdadeiro yv e o valor médio verdadeiro ymv são
desconhecidos para um processo de medição. Desse modo, para n resultados de medições
idênticas, a melhor estimativa para ymv é o valor médio:
y¯ = 1
N
N∑
i=1
yi.
A melhor estimativa para o desvio padrãodo conjunto de medições é dada por
σ2 = 1
N − 1
N∑
i=1
(yi − y¯)2.
Enquanto a melhor estimativa para o desvio padrão σm do valor médio y¯ é
σm =
σ√
N
Podemos estimar a incerteza sistemática residual σr de acordo com o processo e o instru-
mento de medição. Se existem erros sistemáticos diversos, a incerteza residual final é obtida
por
σ2r = σ2r1 + σ
2
r2 + . . . ,
onde σ2ri é a i-ésima incerteza sistemática residual.
16
A incerteza padrão pode ser obtida a partir da soma da variância estatística e da variância
sistemática residual:
σ2p = σ2m + σ2r
As incertezas σm e σr devem ser explicitamente mencionadas, bem como as regras utilizadas
para determinar as mesmas. O resultado final deve ser escrito na forma
y = y¯ ± σp
Incerteza relativa
Em algumas situações é conveniente apresentar a incerteza relativa, que é definida por
� = σ
y
,
onde σ é a incerteza e y é valor experimental para a grandeza. A incerteza percentual é escrita
�(%) = 100�.
Estas definições se aplicam a desvio padrão, incerteza padrão e limite de erro.
6 Propagação de incertezas
Em alguns experimentos a grandeza física de interesse não é obtida diretamente, mas calcu-
lada por meio de uma grandeza que foi medida diretamente. Por exemplo, é possível calcular
a aceleração da gravidade g medindo o tempo de queda t de um corpo que cai de uma de-
terminada altura h. Nesta seção vamos entender como podemos relacionar a incerteza σg na
aceleração g com a incerteza da medida do tempo σt.
Vamos tratar do caso mais geral. Seja uma grandeza w, calculada como função de outras
grandezas experimentais,
w = w(x, y, z, . . .),
onde σx, σy, σz, . . . são suas respectivas incertezas. Se os erros nas variáveis x, y, z, . . . são
independentes entre si, a incerteza padrão em w é, em primeira aproximação , obtida por:
σ2w =
(
∂w
∂x
)2
σ2x +
(
∂w
∂y
)2
σ2y +
(
∂w
∂z
)2
σ2z + . . .
E no caso particular de uma variável, onde w = w(x) , a expressão se reduz:
σw =
∣∣∣∣∣dwdx
∣∣∣∣∣σx.
Onde as incertezas σw e σx são positivas por definição.
17
6.1 Algumas fórmulas de propagação
Soma algébrica de variáveis (w = x± y ± z ± . . .):
σ2w = σ2x + σ2y + . . .
Relação linear (w = ax + b): Admitindo que a e b são constantes livres de erro ou com
erros desprezíveis, consideramos apenas a variável x:
σw = |a|σx
Função trigonométrica (w = a senα):
σw = |a cosα|σα,
onde α está em radianos.
Exemplo 3 : Calcule a incerteza: (a) na área de uma circunferência; (b) no volume de um cilindro.
Exemplo 4: O ângulo de Brewster de um material foi medido experimentalmente obtendo-se θB
= (59,3° ± 1,2°). A relação entre o índice de refração e θB é n = tan θB. Determine o valor
experimental de n.
Bibliografia consultada
VUOLO, J. H. Fundamentos da Teoria de Erros. 2ª ed. São Paulo: Blucher, 1996
18
	Probabilidades
	Distribuição de variável discreta
	Valor médio e desvio padrão
	Distribuição de probabilidades para variável contínua
	Função densidade de probabilidade
	Função de Laplace-Gauss
	Histograma
	Erro e Incerteza
	Definição de erro
	Objetivos da teoria de erros
	A indicação da incerteza
	Intervalo de confiança
	Interpretação da incerteza padrão
	Incerteza na constante de gravitação universal
	Limite de erro
	Regra prática
	Incerteza padrão experimental
	Algarismos Significativos
	Algarismos na incerteza padrão
	Algarismos significativos na grandeza
	Arredondamento de números
	Formas de indicar a incerteza padrão
	Erros estatísticos e sistemáticos
	Incerteza tipo A e tipo B
	Apresentação dos resultados
	Propagação de incertezas
	Algumas fórmulas de propagação

Outros materiais