Baixe o app para aproveitar ainda mais
Prévia do material em texto
21 1 NOÇÕES DE PROBABILIDADE E ESTATÍSTICA 2 1.1 TEOREMAS DA PROBABILIDADE............................................................................................6 1.1.1 PROBABILIDADE DE OCORRÊNCIA DE DOIS EVENTOS SUCESSIVOS............................6 1.1.2 PROBABILIDADE DE OCORRÊNCIA OU DO EVENTO OU DO EVENTO.............................7 1.2 MEDIDAS E ERROS....................................................................................................................8 1.3 MÉTODOS DE CONTAGEM......................................................................................................11 1.4 O PASSEIO ALEATÓRIO: DISTRIBUIÇÃO BINOMIAL...........................................................13 1.4.1 VALOR MÉDIO DE..................................................................................................................15 1.4.2 DESVIO MÉDIO DE................................................................................................................15 1.5 DISTRIBUIÇÃO NORMAL OU GAUSSIANA............................................................................16 1.5.1 APROXIMAÇÃO NORMAL DA DISTRIBUIÇÃO BINOMIAL...................................................20 1.6 DISTRIBUIÇÃO DE POISSON..................................................................................................21 1.7 DISTRIBUIÇÕES DISCRETAS E CONTÍNUAS........................................................................23 1.8 EXERCÍCIOS RESOLVIDOS.....................................................................................................23 SUMÁRIOSUMÁRIO 21 1 NOÇÕES DE PROBABILIDADE E ESTATÍSTICA A estatística tem muitas aplicações em física pois a descrição da natureza pode ser expressa em termos de probabilidades. Na mecânica quântica pode ser empregada para resolver um sistema simples, como por exemplo, o átomo de hidrogênio. Neste caso, o princípio da incerteza de Heinsenberg não permite que se conheça com precisão absoluta a posição e o momentum do elétron. A solução da equação de Schrödinger permite descobrir regiões em que a probabilidade do elétron se encontrar é mais alta, o que corresponde aos orbitais semiclássicos. Mas a probabilidade de o elétron encontrar-se nas regiões inter-orbitais e no núcleo não é nula! O conceito de probabilidade é intrínseco da mecânica quântica e não pode ser eliminado com o uso de ferramentas computacionais mais potentes ou aparatos experimentais mais precisos. A teoria das probabilidades também se faz necessária para trabalhar com sistemas que contenham um grande número de partículas, que é o caso da mecânica estatística. Usa-se conceito de probabilidade porque busca-se estudar um número muito grande de partículas que interagem por meio de forças que costumam ser descritas por um grande número de equações diferenciais acopladas. Soma-se a isso o fato de a determinação das condições iniciais a que estão sujeitas as equações estarem limitadas à precisão experimental e chega-se a um problema formidável que não pode ser resolvido do ponto de vista prático, nem com o computador mais potente que o ser humano tenha inventado. O conceito de probabilidade é usado por uma razão puramente prática, pois, do ponto de vista da mecânica clássica, as interações inter-partículas são completamente determinísticas. Observe-se, nos dois parágrafos acima, a natureza diferente do conceito de probabilidade nessas duas áreas da física. Neste capítulo, vamos discutir algumas ideias básicas sobre probabilidade. Se num experimento há resultados distintos igualmente prováveis (ou seja, não há razão pra esperar que um resultado ocorra em detrimento a outro), mutuamente excludentes (ou seja, a ocorrência de um resultado exclui a ocorrência de outro) e coletivamente exaustivos (ou seja, todos os resultados devem ser considerados); então a probabilidade de ocorrência de um evento é dada pela relação: . em que, Ni é o número de vezes que se observa o evento i dentre N ensaios. A frequência relativa do evento Ni é escrita como 21 , (1.1) Em mecânica estatística o universo amostral compreende uma quantidade de partículas, da ordem do número de Avogrado. Assim, sem perda de generalização, pode-se fazer a aproximação em que o N ≈ 1023 ≈ ∞, de maneira que frequência relativa e probabilidade podem ser tomados como sinônimos. Uma vez que ocorre necessariamente um qualquer evento i, então, a soma de vezes que cada evento i ocorre, é igual ao número total de ensaios: NN n i i =∑ =1 , (1.2) Por outro lado, o resultado de qualquer ensaio, deve ser um evento i, de maneira que a soma das probabilidades de cada um dos eventos deve ser igual à unidade. Esta é a condição de normalização da probabilidade: 11 111 === ∑∑∑ === N i i N i i N i i NNN Np . (1.3) Nota-se que o valor da probabilidade encontra-se definida no intervalo [0, 1]. Ela também pode ser normalizada a 100, ficando definida no intervalo [0, 100%]. Define-se um ensemble (do francês: conjunto) por um conjunto de sistemas idênticos entre si e que apresentam o mesmo tipo de comportamento. Historicamente, optou-se por não se traduzir esta palavra para que não fosse confundida com a definição dada pela teoria de conjuntos. Frequentemente, é conveniente listar todos os resultados que podem ser obtidos de um experimento. Todos os possíveis resultados distintos e mutuamente excludentes de ocorrência de um evento constituem o chamado espaço amostral. Exemplo 1.1a: Um dado possui seis faces e seu espaço amostral de um dado é {1 2 3 4 5 6}. O ensemble correspondente consiste em seis dados, cada um com uma face voltada para cima. Supondo que o dado seja honesto, a probabilidade de que, em um lançamento de um dado, ocorra uma determinada face para cima é 6 1 == N Np ii . Exemplo 1.1b: O jogo de general é um jogo de azar e necessita de cinco dados hexaédricos, que vamos 21 supor serem todos honestos. Uma jogada consiste em arremessar sobre a mesa, normalmente a partir de um copo, os cinco dados e observar suas faces superiores. Cada combinação de resultados tem um determinado valor e vence o jogo quem somar o maior número de pontos. Vamos utilizar a teoria das probabilidades sobre o jogo. O arremesso pode ser feito de forma simultânea, que é a mais comum, ou um dado de cada vez. O conjunto dos 5 valores das faces superiores do dado constituem uma mão. As diferentes combinações possíveis para uma mão, são: (1 1 1 1 1), (1 1 1 1 2), (1 1 1 1 3), (1 1 1 1 4), (1 1 1 1 5), (1 1 1 1 6), (1 1 1 2 1), (1 1 1 2 2), (1 1 1 2 3), (1 1 1 2 4), (1 1 1 2 5), (1 1 1 2 6), (1 1 1 3 1), (1 1 1 3 2), (1 1 1 3 3), (1 1 1 3 4), (1 1 1 3 5), (1 1 1 3 6), ... (6 6 6 6 1), (6 6 6 6 2), (6 6 6 6 3), (6 6 6 6 4), (6 6 6 6 5), (6 6 6 6 6). O conjunto de todas as configurações acima é o ensemble do jogo de general. Uma mão deve necessariamente apresentar uma destas configurações. Como são 5 dados em 6 posições distintas, pode-se verificar que o número de mãos possíveis é igual a 6 x 6 x 6 x 6 x 6 = 65 = 7776. A probabilidade que cada uma dessas configurações seja obtida em um lance é de 410286,1 7776 1 −×=== N Np ii . Neste jogo, a mão que vale mais pontos consiste nas cinco faces superiores dos dados apresentarem o mesmo número de pintas, chamada de general. Existem seis possibilidades: (1 1 1 1 1), (2 2 2 2 2), (3 3 3 3 3), (4 4 4 4 4), (5 5 5 5 5), (6 6 6 6 6 ). A probabilidadede que em um arremesso uma dessas configurações seja obtida é 410716,7 7776 6 −×=== N Np ii . A segunda jogada mais valiosa é aquela em que quatro faces apresentam um mesmo número de pintas enquanto a quinta face apresenta outro número, chamada de pôquer. Existem 30 possibilidades: (1 1 1 1 2), (1 1 1 1 3), (1 1 1 1 4), (1 1 1 1 5), (1 1 1 1 6), (2 2 2 2 1), (2 2 2 2 3), (2 2 2 2 4), (2 2 2 2 5), (2 2 2 2 6), (3 3 3 3 1), (3 3 3 3 2), (3 3 3 3 4), (3 3 3 3 5), (3 3 3 3 6), (4 4 4 4 1), (4 4 4 4 2), (4 4 4 4 3), (4 4 4 4 5), (4 4 4 4 6), (5 5 5 5 1), (5 5 5 5 2), (5 5 5 5 3), (5 5 5 5 4), (5 5 5 5 6), (6 6 6 6 1), (6 6 6 6 2), (6 6 6 6 3), (6 6 6 6 4), (6 6 6 6 5). 21 A probabilidade de que em um arremesso uma dessas configurações seja obtida é 310858,3 7776 30 −×=== N Np ii . Como esta jogada tem uma probabilidade maior de ocorrência, ela termina por valer um número menor de pontos do que quando todas as faces superiores são iguais. Raciocínio semelhante pode ser estendido para as outras possibilidades de combinações de cada mão. Os dados considerados no exemplo anterior foram supostos serem honestos, ou seja, cada uma das faces tem a mesma probabilidade de ocorrência, a saber, 1/6. Esta suposição é razoável quando não se conhece o dado, ou seja, sua geometria e distribuição de densidade são indeterminadas para o jogador. Poderia acontecer de, após um grande número de jogadas, verificar- se que uma das faces tem uma probabilidade maior ou menor de ocorrência. Isso mostra que o centro de gravidade do dado deve estar deslocado de seu centro geométrico. Define-se por probabilidade a priori aquela que é assumida frente ao desconhecimento das probabilidades reais de cada um dos eventos do sistema. Após serem feitas medidas sobre o sistema e estabelecer-se o conjunto das reais probabilidades de ocorrência de cada evento tem-se o que se chama de probabilidade a posteriori. Define-se como variável aleatória como uma grandeza física que pode assumir um valor qualquer durante uma observação experimental. Pode-se também empregar o termo estocástico para definir um processo que é baseado em variáveis aleatórias. Uma variável aleatória pode ser discreta (como o número de pintas para cima exibido pelo dado após o lançamento) ou contínua (como a velocidade de uma molécula de ar na atmosfera). Exemplo 1.2: Consideremos uma reunião social em que estejam presentes 16 pessoas, representadas na figura abaixo. Meninos e meninas vestem roupas de cores diferentes. O ensemble desse sistema é composto pelo conjunto de variáveis (sexo, cor de roupa) do grupo nas suas mais variadas combinações. 21 Figura 1.1: Espaço amostral de um grupo de pessoas A probabilidade de que se escolha ao acaso uma pessoa do ensemble e que seja um menino, qualquer que seja a cor de roupa que estiver vestindo, é dada por 16 8)( =meninop . Se considerarmos o evento de sortearmos uma pessoa de cor verde, independentemente do sexo, a probabilidade de ocorrência é: 16 3) verderoupa( =p . Por outro lado, a probabilidade de escolhermos uma pessoa vestindo roupa amarela é: 0 16 0)amarela roupa( ==p , pois ninguém está usando esta cor. Assim, podemos definir os casos limites de probabilidade: * Se 0=iN → 0 0 == N pi → Nenhum membro possui a propriedade. * Se NNi = → 1== N Npi → Todos os membros têm a mesma propriedade. 1.1 TEOREMAS DA PROBABILIDADE 1.1.1 PROBABILIDADE DE OCORRÊNCIA DE DOIS EVENTOS SUCESSIVOS Vamos considerar dois eventos que ocorram sucessivamente, i e j. Sejam: pi a probabilidade de i acontecer, pij a probabilidade dos dois eventos acontecerem e pji a probabilidade de ocorrência do evento j tendo ocorrido o evento i , então . (eventos não independentes) (1.4) Mas se a ocorrência dos eventos i e j são independentes, . (eventos independentes) (1.5) 21 Exemplo 1.3: Uma caixa contém 7 bolas azuis e 4 bolas amarelas. Qual é a probabilidade de que a primeira bola retirada seja azul e a segunda amarela, sem devolver a primeira bola à caixa? Qual a probabilidade de que a primeira bola retirada seja azul e a segunda amarela, devolvendo a primeira bola à caixa? 1.1.2 PROBABILIDADE DE OCORRÊNCIA OU DO EVENTO i OU DO EVENTO j A Figura 1.2, chamado de diagrama de Venn, apresenta o conjunto de valores possíveis para os eventos i e j. A região de intersecção ij corresponde aos acontecimentos i e j. Analisando a Figura 1.2, podemos observar que a probabilidade de que j ou j dada por: . (eventos não mutuamente excludentes) (1.6) O termo pij foi subtraído da probabilidade, para não ser contado duas vezes na soma. Figura 1.2: Diagrama para espaço amostral. Figura 1.3: Diagrama para espaço amostral. Se o diagrama de espaço amostral é do tipo da Figura 1.3, dizemos que os eventos i e j são mutuamente excludentes e 21 . (eventos mutuamente excludentes) (1.7) Esta expressão matemática também pode ser utilizada como a definição de dois eventos que são independentes do ponto de vista estatístico. Exemplo 1.4: Uma carta é extraída de um baralho comum de 52 cartas, ou seja, quatro naipes de treze cartas cada. Qual a probabilidade de a carta ser um 5 de ouro ou um 4 de copas? Eventos mutuamente excludentes : Qual a probabilidade de a carta ser um 5 ou uma carta de paus? Eventos não mutuamente excludentes: 1.2 MEDIDAS E ERROS Quando realizamos uma medida precisamos estabelecer a confiança que o valor encontrado para a medida representa. Por mais cuidadosa que seja a medição e por mais preciso e acurado que seja o instrumento, não é possível realizar uma medida direta perfeita; sempre existe uma incerteza ou desvio ao se comparar uma quantidade de uma dada grandeza física com sua unidade. Podemos ter erros sistemáticos que ocorrem quando há falhas no método empregado, defeito dos instrumentos, etc... e erros acidentais que ocorrem quando há imperícia do operador, erro de leitura em uma escala, erro que se comete na avaliação da menor divisão da escala utilizada, etc... Sempre que uma grandeza medida experimentalmente for apresentada, deve-se adotar um valor que melhor represente a grandeza e uma margem de erro dentro da qual deve estar compreendido o valor verdadeiro. O erro experimental (ou incerteza, ou desvio) é a diferença entre o valor medido e o valor verdadeiro (convencional) de uma grandeza física. Então, o erro ou desvio absoluto de uma medida é dado por . (1.8) 21 Portanto, o valor medido mais provável será: . Podemos ainda calcular o erro ou desvio relativo: ou . (1.9) Quando é realizada uma única medida, o desvio é considerado a menor divisão da escala do instrumento, no caso de um instrumento que não permita avaliar (ou o fabricante do mesmo não informar) o valor da incerteza. Por exemplo, num cronômetro de relógio de pulso, pode-se assumir o erro como sendo 0,01 s. Já no caso de uma possível avaliação do algarismo duvidoso, a incerteza estimada será adotada como a metade da menor divisão da escala do instrumento de medida. No caso de uma régua milimetrada, por exemplo, esse desvio é 0,05 cm. Uma única medida seria representada como: d = 3,82 ± 0,05 cm. Define-se precisão como a capacidade de um instrumento de medida de, numa série de medidas idênticas, repetir os valores apresentados dentro de uma determinada faixa. Portanto, quando o conjunto de medidas realizadas se afasta muito da média, a medida é pouco precisae o conjunto de valores medidos tem alta dispersão. Quando as medidas estão mais concentradas em torno da média diz-se que a precisão da medida é alta, e os valores medidos têm uma distribuição de baixa dispersão. A acurácia está associada à ausência de erros sistemáticos, mantendo as medidas em torno do valor real. Supondo que um equipamento de medida não possua vícios ou erros de calibração, podemos assumir que os erros tendam a desviar aleatoriamente as medidas feitas. Se forem realizadas muitas medições, uma boa estimativa para o valor correto da grandeza será a média aritmética dos valores medidos. Para uma variável discreta, a média (ou valor esperado) é definida por: . (1.10) Mas, o valor médio de uma grandeza também pode ser calculado levando-se em consideração a probabilidade de cada valor medido. Usando-se a definição de probabilidade, definida na seção 1 para uma variável aleatória x, podemos definir seu valor médio como: ∑ = = N i ii xpx 1 . (1.11) Pode-se determinar a probabilidade de um determinado evento através de dois modos distintos, que, para efeitos de clareza, serão definidos a partir de exemplos em jogos de azar. Mais tarde, relacionaremos a eles a hipótese ergódica. Média temporal: um mesmo dado é lançado N vezes em condições similares e determina-se a cada lançamento o número de pintas mostradas na face superior. 21 Média de ensemble: são considerados N dados idênticos lançados simultaneamente em condições similares e, após o lançamento, determina-se o número de pintas mostradas na face superior de cada um dos dados. Ao serem realizadas várias medições da mesma grandeza nas mesmas condições, a incidência de erros aleatórios faz com que os valores medidos estejam distribuídos em torno da média. O valor médio do afastamento dos valores medidos com relação à média é dado pelo desvio médio que é nulo: , sendo , e . Isto acontece devido aos afastamentos positivos e negativos. Por outro lado, esta medida do afastamento dos valores medidos com relação à média pode ser dado pelo desvio quadrático médio ou variância, definido por . (1.12) A dispersão do conjunto de medidas realizadas também pode ser caracterizada através do desvio padrão, definido como . (1.13) Conjuntos de medidas com desvio padrão baixo são mais precisas do que quando o desvio padrão é alto. Exemplo 1.5: Qual é o valor médio dos possíveis resultados de um dado ideal e o seu desvio padrão? ou 21 1.3 MÉTODOS DE CONTAGEM Princípio fundamental da contagem: Se uma coisa pode ser feita de N1 maneiras, e, depois, uma segunda coisa pode ser feita de N2 maneiras, as duas coisas podem ser feitas em sucessão nesta ordem em N1N2 maneiras. Isto pode ser estendido ao ato de fazer qualquer número de coisas uma após a outra, a primeira de N1 maneiras, a segunda de N2 maneiras, a terceira de N3 maneiras, etc. Então o número total de maneiras de fazer uma sucessão de atos é o produto N1N2N3 … . Agora vamos considerar um conjunto de n coisas alinhadas. De quantos modos distintos podemos arranjá-las (permutá-las)? Este resultado é chamado de número de permutações de n em n coisas ao mesmo tempo, e é denotado por P(n,n). Vamos supor que temos n pessoas enfileiras para vestir n uniformes. Nós podemos colocar qualquer uniforme na primeira pessoa, ou seja, temos n possibilidades de vestir a primeira pessoa. Uma vez que já selecionamos um uniforme para a primeira pessoa, sobraram (n - 1) possibilidades de escolha do uniforme para a segunda pessoa; (n - 2) escolhas para a terceira pessoa, e assim sucessivamente. número de modos distintos de vestir a primeira pessoa número de modos distintos de vestir a segunda pessoa número de modos distintos de vestir a terceira pessoa . . . . . . número de modos de vestir a última pessoa Então, pelo princípio fundamental da contagem, há modos de arranjar n uniformes em n pessoas. O número de permutações de n em n coisas ao mesmo tempo, é . (1.14) Vamos agora supor que há n uniformes, mas somente r < n pessoas e queremos saber quantas maneiras podemos selecionar grupos de r uniformes e, então, vesti-los em r pessoas. O resultado é chamado de número de permutações de n em r coisas ao mesmo tempo, e é denotado por P(n,r). número de modos distintos de vestir a primeira pessoa número de modos distintos de vestir a segunda pessoa número de modos distintos de vestir a terceira pessoa . . 21 . . . . número de modos de vestir a última pessoa Então, o número de permutações de n em r coisas ao mesmo tempo, é . (1.15) Até então, falamos de arranjar as coisas em uma ordem definida. Vamos supor, agora, que queremos selecionar r uniformes que podem ser escolhidos de um grupo de n uniformes ( ). A ordem dos uniformes escolhidos não importa, e chamamos os r uniformes que podem ser escolhidos de um grupo de n uniformes como número de combinações ou seleções de n em r coisas ao mesmo tempo, e denotamos por C(n,r). Podemos pensar no problema anterior da seleção n uniformes, para r pessoas, pensando que podemos selecionar os r uniformes de C(n,r) maneiras, e, depois, distribuí- los (arranjá-los) para as r pessoas de P(r,r) maneiras. Então, , , (1.16) O número de combinações igual é ao coeficiente binomial . Exemplo 1.6: Em um determinado curso de graduação estudam 30 alunos. A direção da faculdade quer formar um grupo de cinco alunos para realizar um intercâmbio no exterior. Quantos possíveis grupos podem ser formados? Pretende-se escolher um aluno para ir aos Estados Unidos, um para Portugal, um para Espanha, um para Itália e um para a Austrália. De quantas maneiras o grupo de alunos pode ser escolhido? 1.4 O PASSEIO ALEATÓRIO: DISTRIBUIÇÃO BINOMIAL O passeio ou caminho aleatório consiste num modelo estatístico para uma sucessão de passos aleatórios, como por exemplo, o estudo da difusão de moléculas em um fluido, ou as quedas e altas nas bolsas de ações do mercado financeiro. No modelo mais simples, construímos um 21 caminho a partir de um determinado ponto e consideramos passos constantes até o ponto final, sendo igualmente prováveis todas as direções aleatoriamente tomadas ao longo do caminho. Para demonstrar sua formulação matemática, vamos considerar o problema do caminho aleatório em uma dimensão. Vamos considerar um indivíduo que se desloca para a direita ou para a esquerda a partir da origem. Todos os passos terão igual comprimento, l, onde por simplicidade, começaremos a considerar o comprimento do passo igual à unidade (l = 1). A probabilidade de o indivíduo dar um passo para a direita será p, e para a esquerda, q = 1 - p. Queremos saber qual a probabilidade de o indivíduo, após ter dado N passos, ter um deslocamento líquido m, ou seja, estar na posição x = nl = m. Figura 1.4: Passeio aleatório unidimensional partindo da origem, com passos de comprimento . Considerando que sejam dados N1 passos para a direita e N2 = N – N1 passos para a esquerda, a probabilidade de uma determinada sequência de passos será dada por , e o número de sequências desse tipo é dado pelo fator combinatório (ver equação 1.16) . Lembrando que o fator combinatório representa um coeficiente binomial, a probabilidade de serem dados N1 passos para a direita e N2 passos para a esquerda, num total de N passos, será dada pela distribuição binomial , (1.17) Nesta equaçãovalem as relações p + q = 1 e N1 + N2 = N. Esta probabilidade já está devidamente normalizada, pois . A probabilidade também pode ser escrita em termos do deslocamento líquido a partir da origem m = N1 – N2 ,e será dada por , (1.18) 21 Figura 1.5: Gráfico da distribuição binomial, feito no ambiente de programação Matlab®. 1.4.1 VALOR MÉDIO DE n Com base na equação 1.11, calcularemos o valor médio de n, sendo n = N1 na equação 1.17. , , , (1.18) 1.4.2 DESVIO MÉDIO DE n Da equação 1.12, temos que 21 , , (1.19) , (1.20) A largura relativa da distribuição pode ser calculada pela equação do desvio relativo (1.9): . Para um número muito grande de passos (eventos) podemos tomar o limite: . (1.21) Esta é conhecida como lei dos grandes números. Ela significa que para um número muito grande de medidas, o erro estatístico tende a zero. 1.5 DISTRIBUIÇÃO NORMAL OU GAUSSIANA Funções do tipo f (n )={ p n n!≈( ne ) n} são muito sensíveis a n . Como consequência, um desenvolvimento em série de potências de n−n̄ converge apenas numa região muito estreita. No entanto, o intervalo de convergência pode ser substancialmente aumentado se, desenvolvermos ln f (n ) em vez de f (n ) . Isso porque ln f (n ) varia mais lentamente com n do que a função f (n ) . Expandindo a função f (n ) em série de Taylor, temos 21 f (n )=f ( n̄)+f' ( n̄)( n− n̄)+ 1 2 f ''( n̄)( n− n̄)2+. .. , Como uma boa aproximação, a série pode ser interrompida no termo linear. Se substituirmos f (n )=pn=elnp n =enlnp na expansão acima, ficamos com f (n ) p≃ n̄+ ∂ ∂ n̄ [e n̄ ln p ](n−n̄ )=pn̄ [1+( n− n̄ )ln p ] . Para n=n+1 , fazemos a comparação do valor exato com a aproximação: f ( n̄+1 )=p n̄+1={ p n̄ p (exato)p n̄ [1+ln p ] (aproximado )} . Em particular, se p= 1: f ( n̄+1 )={ pn̄ . 1 (exato)p n̄ [1+0 ] (aproximado )} coincidem. Mas, e se p <<1 ? Fazendo ln f (n )=ln pn=n ln p , e expandindo em série, temos ln f (n )= n̄ ln p+ ∂ ∂ n̄ [ n̄ ln p ]( n− n̄)+. . . ln f (n )≃ n̄ ln p+ ln p (n− n̄ )=n̄ ln p+n ln p−n̄ ln p ln f (n )=n ln p . Isto mostra que quando uma função f (n ) varia fortemente com n e faz sentido desenvolver o logaritmo da função em vez de desenvolver a própria função. No caso em que consideramos a distribuição binomial, W N ( n)= N! n!( N−n )! pn q N−n , utilizamos a aproximação de Stirling: ln n!=n ln n−n . (1.22) ln W N ( n)=ln(N!n! (N−n)! pn qN−n)=N ln N−N−n ln n+n−(N−n )ln (N−n)+(N−n) +n ln p+(N−n) ln q . Podemos substiuir a expressão acima na expansão em série do logaritmo natural: ln W N (n)=ln W N (n)+[ ddn ln W N (n)]n(n−n) 1 2! [ d 2 dn2 lnW N (n)] n (n−n)2+ 1 3! [ d 3 dn3 ln W N (n)] n (n−n)3 ... . As derivadas da expansão resultam em d dn lnW N (n )=−ln n+ ln(N−n )+ ln p−ln q , 21 [ ddn ln W N (n)]n=n=−ln n+ ln(N−n)+ln p−ln q = n=Np − ln Np+ln(N−Np)+ln p−ln q =−ln N−ln p+ln [N (1−p)]+ ln p−ln q = q=1−p −ln N +ln N + ln q−ln q=0 Com este resultado, vemos que existe um ponto estacionário para n=n . [ d 2dn2 ln W N (n)]n=n= ddn [−ln n+ ln(N−n)+ln p−ln q]n = [−1n− 1N−n ]n=−1n− 1N−n=− 1Np− 1N (1−p)=− 1Np− 1Nq =− p+q Npq = −1 Npq =− 1 Δn2 <0 Como a derivada segunda é negativa, vemos que existe um máximo que ocorre em n=n . O termo de derivada terceira pode ser desprezado, pois envolve potências mais elevadas das probabilidades p e q, que consideramos como sendo números muito pequenos. Então, ln W N ( n)≈ln W N ( n̄)+0+ 1 2 [− 1Npq ]( n− n̄ )2=ln W N ( n̄ )−( n−n̄ ) 2 2( Δn)2 , W N ( n)=W N ( n̄ )exp[−( n− n̄ )22( Δn)2 ] DETERMINAÇÃO DO FATOR PRÉ-EXPONENCIAL W N ( n̄) : No domínio relevante em que n ~ n̄ , a variação relativa de W N ( n) , entre n e n±1 , é pequena. Então, podemos substituir a soma sobre n por uma integral e, como qualquer distribuição de probabilidades deve ser normalizada a 1, temos: 1=∑ n= 0 N W N ( n)≈∫ 0 N dx W N ( x )≈∫ −∞ ∞ dxW N ( x ) , 1=W N ( n̄ )∫ −∞ ∞ dxexp [−(n−n̄ )22(Δn )2 ]=W N ( n̄ )Δn√2π . Então, 21 W N ( n̄)= 1 Δn√2π . (1.23) Logo W N ( n)= 1 Δn√2π exp[−(n−n̄ )22(Δn)2 ] . (1.24) Vamos, agora, voltar ao caso do passeio aleatório unidimensional. Após n passos de mesmo comprimento l , a posição atingida é: x . Matematicamente, x=nl . Da mesma forma, temos para a média: x̄= n̄ l O desvio padrão da distância percorrida é equivalente a σ≡Δx=Δnl Se considerarmos que os passos tem tamanho muito pequeno, então, a distância percorrida passa a ser uma variável contínua. Assim, definimos densidade de probabilidade P (x ) , tal que, P (x )dx=probabilidade de encontrar a grandeza aleatória x entre xe x+dx A transformação da variável x de discreta para contínua equivale a considerar que o intervalo dx seja muito maior que l , dx >> l , ou seja, dxx >>1 . A comparação entre elas é mostrada na Figura 1.6. Figura 1.6: Comparação entre os tamanhos de dx e l . Assim, temos: P (x )dx= ∑ n ' em dx W N (n ' )= dx l W N (n) = dx l 1 Δn √2π exp[−(n−n̄ )22 (Δn)2 ] . No caso contínuo, ficamos com a chamada distribuição gaussiana ou normal: p ( x )= 1 σ √2π exp [−( x− x̄ )22σ2 ] . (1.25) 21 A distribuição gaussiana está adequadamente normalizada: ∫ −∞ ∞ p( x )dx=1 . (1.26) Figura 1.7: Gráfico que mostra a distribuição normal sendo uma gaussiana. 1.5.1 APROXIMAÇÃO NORMAL DA DISTRIBUIÇÃO BINOMIAL No passeio aleatório, x é restrito aos valores discretos x=nl , enquanto que a distribuição gaussiana é contínua. Na figura 1.8 mostramos sobrepostas as duas distribuições. É fácil observar que para um número muito grande de passos, as duas distribuições coincidem. Figura 1.8: Aproximação normal para a distribuição binomial. Gráfico feito no software Matlab 21 1.6 DISTRIBUIÇÃO DE POISSON Consideremos distribuição binomial, W N ( n)= N! n!( N−n )! pn q N−n , em que n= número de vezes que ocorre determinado evento N= número total de tentativas p= probabilidade de ocorrência do evento (de sucesso ) 1− p= probabilidade de não ocorrência do evento Na situação em que N for grande, p for pequeno e que n << N a distribuição distribuição binomial é aproximada por uma expressão simples chamada distribuição de Poisson. Consideremos o fator associado às possíveis permutações na definição da distribuição binomial: N! (N−n) ! = N (N−1)(N−2 )(N−3 ). ..( N−n ) ! (N−n )! , Como é N grande, todos os termos (N – 1), (N – 2), ... são, aproximadamente iguais a N. Então, N! (N−n) ! N≃ n . O fator contendo as probabilidades pode ser escrito na seguinte forma: (1− p)N−n=(1− p )N (1− p )−n . Do teorema binomial temos que (1−x )±n=1∓ nx 1! + n (n−1) x2 2 ! ∓. . . . Portanto, (1− p)N=1−Np+ N ( N−1) p 2 2 −. . . e (1− p)−n=1 +np+ n( n−1 ) p 2 2 +. .. . Como, n << N , p <<1 , em primeira aproximação, chegamos a (1− p)N≃1−Np , (1− p)−n≃1 +np≃1 , (1− p)N−n=(1− p )N (1− p )−n≃(1−Np)⋅1=1−Np . A expansão em série de potências para uma exponencial é e−ax=1−ax+ (ax ) 2 2 ! − (ax )3 3 ! +. . . , que, em aproximação de primeira ordem, fica e−ax≃1−ax . 21 Aplicando parao nosso caso, e−Np≃1−Np . Por fim, podemos chegar a uma forma aproximada da distribuição: W N ( n)= N! n! pn (1−Np )= N! n! pn e−Np . Definimos λ≡n=Np , que pode ser pensado como a frequência de ocorrências de um determinado evento. Portanto, N= λ p ⇒N n=( λp ) n , Chegamos na distribuição de Poisson: W N ( n)= λn n! e−λ . (1.27) 1. 7 EXERCÍCIOS RESOLVIDOS Exercício 1.1: Uma carta é extraída de um baralho comum de 52 cartas. Qual a probabilidade de a carta ser a) um ás? p (A)=p(A ouro )+p( A espada )+p( A copas)+p(A paus )= 1 52 + 1 52 + 1 52 + 1 52 = 4 52 = 1 13 b) um valete de copas? p ( J copas )= 1 52 c) um 3 de paus ou um 6 de ouro (mutuamente excludentes)? p (3 paus ou 6 ouro)= 1 52 + 1 52 = 1 26 d) uma carta de copas? 21 p (copas )=1 4 e) qualquer naipe exceto copas? p' (copas )=1− p(copas )=1- 1 4 =3 4 f) um 10 ou uma carta de espadas (não são mutuamente excludentes)? p (10 ou espadas)=p(10 )+p (espadas)− p(10espadas)= 1 13 + 1 4 − 1 52 =4 3 g) não ser um 4 ou uma carta de paus? p' ( 4 paus )=1− p( 4 paus )=1- [ p (4 )+p (paus ) -p( 4paus )]=1−[ 113 + 14− 152 ]= 913 Exercício 1.2: Uma moeda é lançada várias vezes para cima, a fim de se analisar a face que cai virada para cima. a) Qual a probabilidade de que, em 3 lançamentos de uma moeda, todas sejam “cara”? p= 1 2 ⋅1 2 ⋅1 2 =( 12 ) 3 =1 8 b) Qual a probabilidade de que resulte “cara” em 10 lançamentos? p= 1 2 ⋅1 2 ⋅.. .⋅1 2 =( 12 ) 10 c) Qual a probabilidade de, ao menos, uma “coroa” em 10 lançamentos? p= 1 2 −( 12 ) 10 ≃0,999 . .. . Figura 1.9: Resultados possíveis para 10 lançamentos de uma moda. Exercício 1.3: 21 Para o problema do caminha aleatório, supõe que p=q= 1 2 e N=3 . As possibilidades de serem dados passos para a direita são n1=3, 2, 1, 0 , para os correspondentes deslocamentos m=3, 1 ,−1,−3 . Calcula as probabilidades associadas a cada deslocamento. De acordo com a equação 1.18, temos W N (m)= N! ( N+m2 )! ( N−m2 )! p N+m 2 q N−m 2 . Substituindo os valores fornecidos, W 3(m=3)= 3 ! ( 3+32 )!( 3−32 )! ( 12 ) 3 ( 12 ) 0 =1 8 =0,125 ou 12,5% , W 3(m=1 )= 3 ! ( 3+12 )!( 3−12 )! (12 ) 2 ( 12 ) 1 =3 8 =0,375 ou 37,5% , W 3(m=−1 )= 3 ! ( 3+(−1)2 )! ( 3−(−1 )2 )! ( 12 ) 1 ( 12 ) 2 = 3 8 =0,375 ou 37,5% , W 3(m=−3 )= 3 ! ( 3+(−3 )2 )!( 3−(−3)2 )! ( 12 ) 0 ( 12 ) 3 =1 8 =0,125 ou 12,5% . Exercício 1.4: Encontra a probabilidade de se obter entre 3 e 6 caras, inclusive, em 10 lançamentos de uma moeda honesta, usando a) a distribuição normal; b) a aproximação normal para a distribuição binomial. a) A equação binomial é dada por W N ( n)= N! n!( N−n )! pn q N−n . Resolvendo para cada caso do lançamento da moeda: W 10( 3)= 10 ! 3! 7 ! ( 12 ) 3 ( 12 ) 7 =60 512 W 10( 4 )= 10 ! 4 !6 ! ( 12 ) 4 ( 12 ) 6 =105 512 W 10(5 )= 10 ! 5! 5! ( 12 ) 5 ( 12 ) 5 =126 512 21 W 10(6 )= 10 ! 6 ! 4 ! ( 12 ) 6 ( 12 ) 4 =105 512 p=W 10(3 )+W 10(4 )+W 10(5 )+W 10(6)= 60+150+126+105 512 =396 512 =0,7734375 b) A aproximação normal p ( x )= 1 σ √2π exp [−( x− x̄ )22σ2 ] fica p (2,5≤ x≤6,5)=∫ 2,5 6,5 1 σ √2π exp [−( x− x̄ )22σ2 ]dx sendo σ=Δnl; Δn=√Npq ; l=1⇒σ=√Npq=√10⋅12⋅12=1,58 , e x̄ =Np=10⋅12=5 , então p (2,5≤ x≤6,5)= 1 1,58√2π ∫2,5 6,5 exp[−( x−5)22⋅2,5 ]dx= 0,771686 Exercício 1.5: O número de partículas emitidas a cada minuto por uma fonte radioativa é registrado por um período de 10 horas; um total de 3000 contagens são registradas. Encontra a probabilidade de se obterem 3 contagens por minuto. Para sabermos quantas contagens são registradas por minuto, ou seja, a frequência de contagens, fazemos uma regra de três, 600min=10 h→3000 contagens 1min→ λ , ou seja, obtemos uma frequência de 5contagens /min . Como o total é de 3000 contagens, ou seja, N é grande, podemos utilizar a distribuição de Poisson (equação 1.27) para resolver este problema. W N ( n)= λn n! e−λ W 3000(3 )= 53 3! e−5≃0,14=14 Exercício 1.6: Uma central telefônica recebe uma média de 5 chamadas por minuto. Qual a probabilidade de ela não receber nenhuma chamada durante um intervalo de 1 minuto? W N ( n)= λn n! e−λ W 3000(3 )= 50 0 ! e−5=0,0067=0,67 21 Exercício 1.7: Uma grande empresa faz uso de milhares de lâmpadas elétricas que permanecem acessas continuamente. A vida de uma lâmpada pode ser considerada como uma variável aleatória normal com vida média de 50 dias e desvio-padrão de 15 dias. Se no dia 1° de agosto foram instaladas 8000 lâmpadas novas, aproximadamente quantas deverão ser substituídas no dia 1° de setembro? f ( x )=∫ 1σ √2π exp [−( x− x̄ ) 2 2σ2 ] dx f (0<x<31)=∫ 0 31 1 15√2π exp[−( x−50 )22⋅152 ]dx= 0,102208=10 ,22 0,102208×8000=817 lâmpadas Exercício 1.8: Um sistema de segurança consiste em 4 alarmes (idênticos) de alta pressão, com probabilidade de sucesso p= 0,8 (cada um). a) Qual a probabilidade de se ter exatamente 3 alarmes soando quando a pressão atingir o valor limite? b) Qual a probabilidade de se ter pelo menos 3 alarmes soando? a) W N ( n)= N! n!( N−n )! pn q N−n W 4(3)= 4! 3 !1 ! 0,830,21=0,4096 b) p (n≥3)=W 4(3 )+W 4(4 ) W 4(4 )= 4 ! 4 ! 0! 0,84 0,20=0,4096 p (n≥3)=0,4096+0,4096=0,8192 Exercício 1.9: Qual a probabilidade de fazer pelo menos seis pontos numa jogada de três dados? Há 10 resultados em que a soma é menor que 6. Número de combinações: 63=216 Resultados favoráveis: 216−10=206 p= 206 216 =0,9537=95 ,37 DADOS SOMA 1 2 3 3 1 1 1 4 1 2 1 4 1 1 2 4 2 1 1 5 1 2 2 5 2 1 2 5 2 2 1 5 3 1 1 5 1 3 1 5 1 1 3 21 Exercício 1.10: Para um baralho de cartas embaralhado aleatoriamente, quais são as probabilidades: a) de tirar um sete; b) de tirar uma carta do naipe de copas; c) de tirar um sete de copas; a) p= 1 52 + 1 52 + 1 52 + 1 52 = 4 52 = 1 13 b) p= 1 52 ⋅13= 1 4 c) p= 1 52 Exercício 1.11: Quinze rapazes vão fazer trilha nas montanhas. Cinco deles se perdem, oito ficam queima- dos do sol, e seis retornam para casa sem nenhum problema. Qual é a probabilidade de que um ra- paz queimado pelo sol se perca? p (perder )= 5 15 p (sol)= 8 15 p (casa)= 6 15 p (perder,sol )= 5 15 ⋅ 8 15 = 8 45 Exercício 1.12: Uma urna contém 7 bolas vermelhas, 4 bolas brancas e 5 bolas azuis. Se três bolas são reti- radas sucessivamente (cada uma sendo posta para dentro novamente antes da próxima ser retirada). Qual é a probabilidade de a primeira bola ser vermelha, a segunda branca e a terceira azul? p (vermelha )= 7 16 p (branca )= 4 16 21 p (azul)= 5 16 p= 7 16 ⋅ 4 16 ⋅ 5 16 =0,034 Exercício 1.13: Três moedas indistinguíveis são lançadas. Encontre a probabilidade de termos: a) nenhuma “cara”; b) ao menos uma “cara”. a) p (coroa)=1 2 ⋅1 2 ⋅1 2 =1 8 b) p (coroa)=1−1 8 =7 8 Figura 1.11: Resultados possívei para o lançamento de três moedas. Exercício 1.15: Dois dados não viciados, um preto e outro branco, são jogados aleatoriamente. Represente- mos o resultado das jogadas por (p, b), onde p é o número do dado preto (na face para cima, após imobilizado o dado) e b, o número do dado branco. Calcula as probabilidades de dar: a) p ≤ 2 e b ≥ 5; b) p + b = 7; c) p = b. a) p ( p≤2 )⇒ p ( p=1 ) ou p ( p= 2 )=16 + 1 6 =2 6 p (b≥5 )⇒ p (b=5 ) ou p( b=6 )=1 6 + 1 6 =2 6 p= 2 6 ⋅2 6 =1 9 b) p+b= 7 p b 1 6 1/6 1/6 2 5 1/6 1/6 3 4 1/6 1/6 4 3 1/6 1/6 5 2 1/6 1/6 6 1 1/6 1/6 p= 6⋅( 16 ) 2 =1 6 21 c) p=b p b 1 1 1/6 1/6 2 2 1/6 1/6 3 3 1/6 1/6 4 4 1/6 1/6 5 5 1/6 1/6 6 6 1/6 1/6 p= 6⋅( 16 ) 2 =1 6 Exercício 1.16: As faces de um dado viciado apresentam a seguinte distribuição de probabilidades em cada lançamento: p1= 1 12 , p2= 2 12 , p3= 2 12 , p4= 2 12 , p5= 2 12 , p6= 3 12 . Calcula a probabilidade de, em dois lançamentos, a soma das faces dar 7. 1 2 1 6 p=1/12 3/12 2 5 p=2/12 2/12 3 4 p=2/12 2/12 4 3 p=2/12 2/12 5 2 p=2/12 2/12 6 1 p=3/12 1/12 p=( 3122 + 4122 + 4122 + 4122 + 4122 + 3122 )=1172 Exercício 1.17: Se 1000 pessoas selecionam um número entre 1 e 500, qual é a probabilidade de 3 pessoas selecionarem o número 29? W N ( n)= N! n!( N−n ) ! pnq N−n W 1000(3 )= 1000 ! 3! 997! ( 1500 ) 3 (499500 ) 997 ≃0,18 ou W N ( n)= λn n! e−λ n= 3, λ=Np= 1000⋅ 1 500 =2 W 1000(3 )= 23 3! e−2≃0,18 Exercício 1.17: 21 Dois bêbados começam a caminhar sobre uma linha reta, a partir da origem, dando passos de mesmo comprimento para a direita ou para a esquerda, com a mesma probabilidade. Supõe que os passos dos dois sejam simultâneos. Acha a probabilidade de que eles se encontrem novamente de- pois de dar N passos. W N (m)= N! ( N+m2 )!( N−m2 )! p N+m 2 q N−m 2 W 2N(m)= (2N )! (2N +m2 )!(2N−m2 )! p 2N +m 2 q 2N−m 2 Se p=q= 1 2 , m=0 , Então, W 2N(0 )= ( 2N) ! (2N +m2 )!(2N2 )! p 2N 2 q 2N 2 = (2N ) ! N!N! ( 12 ) N ( 12 ) N = ( 2N )! (N! )2 ( 12 ) 2N . Exercício 1.18: Um metal é evaporado em vácuo a partir de um filamento aquecido. Os átomos de metal re- sultantes incidem sobre uma placa de quartzo que se encontra a alguma distância e formam um filme metálico fino. Esta placa de quartzo é mantida a baixa temperatura de modo que qualquer áto- mo de metal incidente sobre ela cola-se no lugar do impacto sem migração adicional. Pode-se supor que os átomos de metal têm a mesma probabilidade de atingir qualquer elemento de área da placa. Quando se considera um elemento de área do substrato de tamanho b2 (onde b é o diâmetro do áto- mo de metal), o número de átomos de metal empilhados nesta área deve distribuir-se de acordo com uma distribuição de Poisson. Supõe que a quantidade de metal evaporada é suficiente para formar um filme de espessura média correspondente a 6 camadas atômicas. Que fração da área do substrato não é coberta por nenhum átomo? Que fração é coberta, respectivamente, por camadas metálicas de três átomos de espessura e de 6 átomos de espessura? W N ( n)= λn n! e−λ λ=Np= 6 é o número médio de camadas atômicas Fração de metal não coberta por nenhuma camada atômica: W N (0 )= 60 0 ! e−6=0,0025 Fração de metal não coberta por 3 camadas atômicas: 21 W N (3 )= 63 3! e−6=0,089 Fração de metal não coberta por 6 camadas atômicas: W N (6 )= 66 6 ! e−6=0,161 Exercício 1.19: A probabilidade de um arqueiro acertar o alvo é 1/3. Se ele lança a flecha 5 vezes, qual é a probabilidade de ele acertar o alvo pelo menos 3 vezes? W 5( x≥3)=W 5(3)+W 5( 4 )+W 5(5 ) W N ( n)= N! n!( N−n ) ! pnq N−n W 5(3)= 5 ! 3 ! 2 ! ( 13 ) 3 ( 23 ) 2 =0,165 W 5(4 )= 5! 4! 1! ( 13 ) 4 ( 23 ) 1 =0,041 W 5(5)= 5 ! 5 !0 ! ( 13 ) 5 ( 23 ) 0 =0,004 W 5( x≥3)=0,165+0,041+0,004=0,21 Exercício 1.20: A probabilidade de uma pessoa ser atingida por uma descarga atmosférica é de aproximada- mente 2 x 10-6. Utilizando a distribuição de Poisson, calcula a probabilidade de que, em uma cidade com população de 1 milhão de habitantes, a) nenhuma pessoa seja atingida por um raio; b) uma pessoa seja atingida por um raio; c) duas pessoas sejam atingidas por um raio; d) três pessoas sejam atingidas por um raio; e) dez pessoas sejam atingidas por um raio. W N ( n)= λn n! e−λ λ=Np= 1×106×2×10−6=2 a) W N (0 )= 20 0 ! e−2=0,14 b) W N (1)= 21 1 ! e−2=0,27 21 c) W N (2 )= 22 2 ! e−2=0,27 d) W N (3 )= 23 3! e−2=0,18 e) W N (10 )= 210 10 ! e−2=3,82×10−5 Exercício 1.21: Dada a seguinte função de densidade de probabilidade, denominada distribuição Gaussiana ou normal: f ( x )= 1 σ √2π exp [− x22σ2 ] , −∞<x<∞ , calcula o valor médio de x e a variância. x̄= ∫ −∞ ∞ xf ( x )dx ∫ −∞ ∞ f ( x )dx ∫ −∞ ∞ f ( x )dx=∫ −∞ ∞ 1 σ √2π exp [− x22σ2 ] dx= 1σ √2π⋅2⋅∫0 ∞ 1 σ √2π exp [− x22σ2 ] dx= 1σ √2π⋅2⋅12⋅√ π12σ2 ∫ −∞ ∞ f ( x )dx=1 x̄= ∫ −∞ ∞ xf ( x )dx 1 =∫−∞ ∞ xf ( x )dx=∫ −∞ ∞ x 1 σ √2π exp [− x22σ2 ]dx=− σ exp [− x22σ2 ] √2π ∣−∞ ∞ =0 σ2=x2− x2 σ2=x2−0= ∫ −∞ ∞ x 2 1 σ √2π exp[− x22σ2 ]dx ∫ −∞ ∞ f ( x )dx = ∫ −∞ ∞ x2 1 σ √2π exp [− x22σ2 ] dx 1 = ∫ −∞ ∞ x2 1 σ √2π exp[− x22σ2 ]dx= 2σ √2π∫0 ∞ x2exp [− x22σ2 ]dx= ∫ −∞ ∞ x2 1 σ √2π exp[− x22σ2 ]dx= 2σ √2π∫0 ∞ x2exp [− x22σ2 ]dx= Exercício 1.22: As moléculas de um gás perfeito em equilíbrio apresentam distribuição de probabilidade 21 conjunta f (v x ,v y ,vz ) proporcional a exp [−m vx2+v y2+vz22 k BT ] . Normaliza a distribuição em questão. Para trocar o termo proporcional pelo termo igual, usamos uma constante A, que deverá ser determinada: f (v x , v y , vz)=A exp[−m v x2+v y2+v z22k B T ] . A distribuição deve ser normalizada, portanto, ∫ −∞ ∞ f ( v x ,v y ,v z )d v x dv y dv z=1 1=∫ −∞ ∞ ∫ −∞ ∞ ∫ −∞ ∞ Aexp [−m v x2+v y2+v z22 k B T ]dv x dv y dv z 1 A =∫ −∞ ∞ e − m 2kB T vx2 dvx∫ −∞ ∞ e − m 2kB T v y2 dv y∫ −∞ ∞ e − m 2kB T vz2 dv z 1 A =∫ −∞ ∞ dvx e − mv x 2 2kB T ∫ −∞ ∞ dv y e − mv y 2 2kB T ∫ −∞ ∞ dv z e − mv z 2 2kB T 1 A =[2∫ 0 ∞ e − m2kB T v2 dv ] 3 =8[ 12 √ π2k B Tm ] 3 =[ 2π k B Tm ] 3 2 A=[ m2π k BT ] 3 2 f (v x , v y , vz)=[ m2π k BT ] 3 2 exp [−m v x2+v y2+v z22 k B T ] Exercício 1.23: Um bêbado começa a caminhar a partir de um poste localizado no meio de um quarteirão, dando passos de mesmo comprimento para direita ou para esquerda com igual probabilidade. Qual é a probabilidade de que o bêbado esteja exatamente na posição do poste após dar um número N de passos se... a) N for par? b) N for ímpar? a) W N (m)= N! ( N+m2 )! ( N−m2 )! p N+m 2 q N−m 2 p=q= 1 2 , m=0 , já que o bêbado voltará à posição inicial. 21 W N (0 )= N! ( N2 )! ( N2 )! (12 ) N 2 ( 12 ) N 2 = N! (( N2 )! ) 2 (12 ) N b) Se N for ímpar, é impossível ter 0=m , já que Nnm −= 2 . Exercício 1.24: Assume que um datilógrafo cometa erros de maneira aleatória, dados pela distribuição de Poisson. Supõe que um livro contenha 600 páginas e 600 erros tipográficos no total. Usa a distribuição de Poisson para calcular a probabilidade de que: a) uma página não contenha erros tipográficos. b) uma página contenha pelo menos 3 erros tipográficos. W N ( n)= λn n! e−λ λ=Np= 600⋅ 1 600 =1 é o número médio de erros por página. a) W N (0 )= 10 0 ! e−1=0,37 b) p= 1−W N (0 )−W N (1)−W N (2 ) W N (1)= 11 1 ! e−1=0,37 W N (2 )= 12 2 ! e−1=0,18 p= 1−0,37−0,37−0,18=0,08 Exercício 1.25: Uma moeda é jogada 400 vezes, num jogo de cara e coroa. Encontra a probabilidade de obter 215 caras através da aproximação gaussiana. W (n )= 1 σ √2π exp[−(n−n̄ )22σ2 ] , n̄=Np=400⋅12=200 , σ=Δn=√Npq=√400⋅12⋅12=10W (215)= 1 10√2π exp [−(215−200 )22⋅102 ]=0,0129=1,29 Exercício 1.26: Considera as partículas α emitidas por uma fonte radioativa durante um intervalo de tempo t . Podemos imaginar que esse intervalo de tempo possa ser dividido em vários intervalinhos de duração δt . Como as partículas α são emitidas em instantes aleatórios, a probabilidade de uma desintegração radioativa ocorrer no intervalinho δt é completamente independente de quaisquer 21 desintegrações ocorridas nos outros instantes. Além disso, imagine, que δt seja escolhido de forma que seja curto o suficiente para que a probabilidade de mais de uma desintegração ocorrer no tempo δt seja insignificante. Isso significa que existe uma probabilidade p de que uma desintegração ocorra durante o intervalinho δt (com p <<1 , desde que δt seja escolhido pequeno o suficiente), e que existe uma probabilidade ( 1− p ) de não ocorrer desintegração neste intervalo de tempo. Cada um dos intervalinhos δt pode ser tomado como uma tentativa independente de decaimento durante o tempo t . A probabilidade W (n ) de que n desintegrações ocorram no tempo t é dada por uma distribuição de Poisson. Supõe que uma fonte radiativa seja tão intensa que o número médio de decaimentos é tal que ocorrem em média 24 decaimentos por minuto. Qual é a probabilidade de obtermos n contagens num intervalo de 10 segundos? Obtém valores numéricos para todos os valores inteiros de n de 0 a 4. W N ( n)= λn n! e−λ 24 decaimentos → 1min = 60 s λ→ 10 s λ= 4 decaimentos /s W N (0 )= 40 0 ! e−4=0,0183=1,83 W N (1)= 41 1 ! e−4=0,0733=7,33 W N (2 )= 42 2 ! e−4=0,1465=14 ,65 W N (3 )= 43 3! e−4=0,1954=19 ,54 W N ( 4)= 44 4 ! e−4=0,1954=19 ,54 1 NOÇÕES DE PROBABILIDADE E ESTATÍSTICA 1.1 TEOREMAS DA PROBABILIDADE 1.1.1 PROBABILIDADE DE OCORRÊNCIA DE DOIS EVENTOS SUCESSIVOS 1.1.2 PROBABILIDADE DE OCORRÊNCIA OU DO EVENTO i OU DO EVENTO j 1.2 MEDIDAS E ERROS 1.3 MÉTODOS DE CONTAGEM 1.4 O PASSEIO ALEATÓRIO: DISTRIBUIÇÃO BINOMIAL 1.4.1 VALOR MÉDIO DE n 1.4.2 DESVIO MÉDIO DE n 1.5 DISTRIBUIÇÃO NORMAL OU GAUSSIANA 1.5.1 APROXIMAÇÃO NORMAL DA DISTRIBUIÇÃO BINOMIAL 1.6 DISTRIBUIÇÃO DE POISSON 1.7 EXERCÍCIOS RESOLVIDOS
Compartilhar