Baixe o app para aproveitar ainda mais
Prévia do material em texto
Cap´ıtulo 2 Probabilidades 2.1 Nosso senso comum Vamos comec¸ar explorando a noc¸a˜o cotidiana para o conceito de probabilidade. Em primeiro lugar, a necessidade de empregar esse conceito vem da impossibilidade de prever o resultado de um determinado experimento. Por experimento entende-se uma enorme variedade de situac¸o˜es, por exemplo podemos estar interessados em saber se uma jogada de moeda vai ter como resultado cara ou coroa, ou se vai chover ou na˜o no dia seguinte. O que ha´ de comum nesses exemplos? A quantidade de varia´veis necessa´rias para uma previsa˜o exata do resultado. Tomemos o caso da moeda, em princ´ıpio podemos verificar a posic¸a˜o exata do centro de massa dela, e calcular as forc¸as que atuara˜o sobre ela quando for jogada, assim como durante seu movimento no ar. Se realmente pude´ssemos fazer todos esses ca´lculos, para cada jogada de cada moeda, poder´ıamos conhecer exatamente o seu movimento, e portanto prever se o resultado seria cara ou coroa. E´ claro que isso na˜o e´ via´vel, e nem deseja´vel. Em vez disso, preferimos construir um modelo que nos permita calcular a probabilidade de cada resultado poss´ıvel. Nesse modelo certamente entrara˜o considerac¸o˜es sobre a distribuic¸a˜o de massa da moeda, sobre a forma com que e´ jogada e sobre o nu´mero de resultados poss´ıveis, ou seja, devemos considerar a possibilidade da moeda cair em pe´? A esse u´ltimo passo chamamos de definir o espac¸o de amostragem, e e´ uma etapa fundamental no ca´lculo de probabilidades. Para a moeda, em geral, supomos dois resultados poss´ıveis e igualmente prova´veis, ja´ que cair em pe´ e´ um evento muito raro, e, em geral, na˜o ha´ raza˜o para se supor que uma face tenha prioridade sobre a outra. Note que estamos usando a qualificac¸a˜o evento raro de forma bastante qualitativa. Chamando de P (?) a` probabilidade do evento ? ocorrer, obtemos enta˜o P (cara) = P (coroa) = 1 2 . (2.1) Como podemos comprovar experimentalmente esse modelo? Jogando a moeda. Na verdade poder´ıamos ter determinado P (cara) e P (coroa) jogando a moeda, e aqui entra em cena outro elemento importante, o nu´mero de vezes, N , que jogamos a moeda. Aplicando a previsa˜o do modelo sem muito cuidado, podemos dizer que ao jogar a moeda N vezes teremos que o nu´mero de resultados cara (Ncara) seria Ncara = P (cara)N = N 2 = Ncoroa. (2.2) E´ claro que se N for pequeno muitas vezes teremos resultados bem diferentes desse. A` medida que formos aumentando o nu´mero de jogadas chegaremos cada vez mais perto de ter Ncara = Ncoroa = N/2. Se foˆssemos determinar as probabilidades experimentalmente ter´ıamos que ter o cuidado de repetir a experieˆncia (jogar a moeda, no caso) um grande nu´mero de vezes, e assim ter´ıamos uma definic¸a˜o experimental P (cara) = lim N→∞ Ncara N . (2.3) Mas, quanto grande N deve ser? O maior poss´ıvel. Veremos mais tarde que a pergunta correta e´ : Que erro estamos cometendo ao usar a definic¸a˜o (2.3) com N finito? Ou melhor, quanto o valor observado para Ncara e´ diferente de N/2? E e´ claro, as respostas estara˜o relacionada com a precisa˜o com que estamos medindo. 24 CAPI´TULO 2. PROBABILIDADES 25 i X Y 1 cara coroa 2 cara cara 3 coroa cara 4 coroa coroa Tabela 2.1: Resultados posss´ıveis quando duas pessoas, X e Y , jogam moedas. Continuando com a moeda, passamos para um problema um pouquinho mais complicado. Temos duas pessoas (X e Y ), cada uma com uma moeda. As moedas sa˜o ideˆnticas e queremos saber, por exemplo, qual a probabilidade de que as duas pessoas obtenham cara. Nosso modelo vai precisar de mais hipo´teses. Ja´ estabelecemos que as moedas sa˜o iguais, precisamos tambe´m dizer que as pessoas jogara˜o as moedas do mesmo jeito, e de forma independente. Podemos resolver este problema de va´rias maneiras. Vamos primeiro por contagem. O espac¸o de amostragem neste caso e´: Ω = {cara-cara, cara-coroa, etc. . .}, e tem 22 = 4 elementos. Se tive´ssemos N jogadores, ter´ıamos 2N elementos em Ω. Os elementos de Ω esta˜o listados na tabela (2.1): Qual a probabilidade de se obter duas caras? O resultado (ou evento) desejado, duas caras, aparece uma vez em Ω. Portanto P (duas caras) = 1 4 . (2.4) Outra maneira de resolver: X tem probabilidade 1/2 de tirar cara, assim como Y tem probabilidade 1/2 de tirar cara. Como sa˜o eventos independentes P (duas caras) = PX(cara)× PY (cara) = 1 2 1 2 = 1 4 . (2.5) E agora, qual a probabilidade das duas pessoas terem o mesmo resultado? Esse evento ocorre duas vezes, com duas caras e duas coroas, portanto P (iguais) = 2 4 = 1 2 , (2.6) ou, P (iguais) = P (duas caras) + P (duas coroas) = 1 4 + 1 4 = 1 2 . (2.7) Uma complicac¸a˜o extra aparece se queremos calcular qual a probabilidade de sairem resultados diferentes para X e Y . Se na˜o importa quem tira o que, enta˜o ha´ duas possibilidades e P (diferente) = 2 4 = 1 2 X e Y sa˜o indistingu´ıveis (2.8) Se especificamos, por exemplo, que os resultados devem ser diferentes, e X deve tirar coroa, enta˜o so´ ha´ uma possibilidade e P (diferente) = 1 4 X e Y sa˜o distingu´ıveis (2.9) 2.2 Definic¸o˜es. Probabilidades Conjunta e Eventos Mutuamente Exclusivos Usaremos aqui alguns conceitos ba´sicos de teoria de conjuntos. Comec¸amos com duas definic¸o˜es importantes espac¸o de amostragem de um determinado experimento = o conjunto Ω com elementos tais que qualquer resultado do experimento corresponde a um ou mais elementos de Ω. evento = subconjunto do conjunto Ω relativo a um experimento. A probabilidade de um evento A pode ser encontrada seguindo o seguinte procedimento: 1. Construa o espac¸o de amostragem Ω CAPI´TULO 2. PROBABILIDADES 26 Figura 2.1: Representac¸a˜o gra´fica de um espac¸o de amostragem Ω, e dos subconjuntos relativos a eventos do tipo A e B. Em (a) A e B sa˜o eventos mutuamente exclusivos, as regio˜es coloridas de cinza sa˜o proporcionais a P (A) e a P (B); em (b) a parte cinza corresponde ao subconjunto A ∩B, sendo proporcional a P (A,B) = P (A ∩B), e em (c) a a´rea cinza e´ proporcional a P (A ∪B). 2. Designe probabilidades para cada elemento de Ω. O caso mais simples e´ aquele em que Ω e´ composto por N elementos todos igualmente prova´veis, neste caso designe a probabilidade 1/N a cada um. 3. Para obter a probabilidade P (A) de um evento A, some as probabilidades designadas a todos os elementos do subconjunto de Ω correspondente a A, que chamamos simplesmente de conjunto A. Fica claro que P (Ω) = 1 e P (∅) = 0. Exemplo 2.1 Um dado e´ jogado. O resultado sera´ um inteiro de 1 a 6, ou seja Ω = {1, 2, 3, 4, 5, 6}. Cada elemento de Ω pode ocorrer com igual probabilidade que e´ 1/6. Considere os eventos A, B e C definidos como: A = o resultado e´ um nu´mero par B = o resultado e´ um nu´mero maior que 2 C = o resultado e´ um nu´mero mu´ltiplo de 3 O subconjunto correspondente ao evento A e´ A = {2, 4, 6}, portanto P (A) = 3× 1/6 = 1/2. Ja´ B = {3, 4, 5, 6} e P (B) = 4× 1/6 = 2/3. Finalmente, C = {3, 6} e P (C) = 1/3. Podemos agora relacionar probabilidades para diferentes eventos. • P (A ∩ B), ou P (A,B) e´ a probabilidade de que ambos eventos A e B ocorram como resultado de um experimento. E´ chamada de probabilidade conjunta. • P (A ∪B) e´ a probabilidade de que eventos A ou B ocorram como resultado de um experimento. Temos assim que P (A ∪B) = P (A) + P (B)− P (A ∩B) (2.10) Se dois eventos sa˜o mutuamente exclusivos enta˜o P (A ∩B) = 0 (2.11) P (A ∪B) = P (A) + P (B) eventos mutuamente exclusivos Exemplo 2.2 Voltando ao exemplo anterior: A ∩B = {4, 6}, portanto P (A ∩ B) = 1/3. P (A ∪ B) = 1/2 + 2/3− 1/3 = 5/6. Esse resultado poderia ser achado diretamente, ja´ que apenas o 1 fica de fora. Se agora definimos o evento D como sendo tirar um nu´mero ı´mpar, temos que D = {1, 3, 5}, P (D) = 1/2, P (A∩D) = 0 e A e D sa˜o mutuamenteexclusivos, em outras palavras, um nu´mero na˜o pode ser par e ı´mpar ao mesmo tempo. Se Ω = A1 ∪A2 ∪ . . .∪Am, sendo os eventos Ai mutuamente exclusivos, enta˜o os m eventos formam uma partic¸a˜o do espac¸o de amostragem Ω em m subconjuntos. Neste caso temos m∑ i=1 P (Ai) = 1 , (2.12) CAPI´TULO 2. PROBABILIDADES 27 uma relac¸a˜o que usaremos bastante como condic¸a˜o de normalizac¸a˜o. Uma das principais questo˜es de todas as ana´lises probabil´ısticas e´ a determinac¸a˜o da independeˆncia de eventos. Dois eventos A e B sa˜o eventos independentes se e somente se P (A,B) = P (A ∩B) = P (A)P (B) eventos independentes (2.13) 2.3 Distribuic¸o˜es Chamamos de varia´vel estoca´stica ou aleato´ria, a varia´vel cujo valor so´ pode ser determinado atrave´s de uma experieˆncia. Usaremos a partir de agora a seguinte notac¸a˜o: em letras maiu´sculas teremos o nome da varia´vel (ex: X e´ resultado da jogada da moeda), e em minu´sculas, o seu valor (ex:x = 1 para cara ou x = 0 para coroa). Uma varia´vel estoca´stica X e´ uma func¸a˜o que associa um nu´mero real a cada ponto do espac¸o de amostragem. Varia´veis estoca´sticas discretas Seja X uma varia´vel estoca´stica em Ω que pode tomar um nu´mero conta´vel (finito ou infinito) de valores, ou seja, X(Ω) = {x1, x2, . . .}. Sabendo a probabilidade para cada valor xi podemos definir a distribuic¸a˜o de probabilidade, f(xi) = P (xi) satisfazendo as seguintes condic¸o˜es f(xi) ≥ 0 , (2.14) e ∑ i f(xi) = 1 , (2.15) onde a soma e´ sobre todos os valores poss´ıveis da varia´vel X. Exemplo 2.3 Voltemos para o exemplo do dado. X e´ o nu´mero tirado, e x1 = 1, . . . , x6 = 6. Todos os valores tem probabilidade 1/6 de ocorrer, portanto f(xi) = 1/6. Essa distribuic¸a˜o chama-se distribuic¸a˜o uniforme . A determinac¸a˜o de f(xi) (que em geral na˜o e´ poss´ıvel), permite o conhecimento completo de um sistema. Em geral podemos apenas determinar alguns momentos da distribuic¸a˜o que sa˜o relacionados com observa´veis que podem ser medidos. O n-e´simo momento de X e´ definido como Mn = 〈Xn〉 = ∑ i xni f(xi) . (2.16) Alguns momentos tem nomes especiais devido a sua frequ¨ente utilizac¸a˜o primeiro momento → M1 = 〈X〉 = me´dia ou valor esperado segundo momento → M2 = 〈X2〉 O segundo momento em geral aparece combinado com o primeiro na forma M2 − M21 = 〈X2〉 − 〈X〉2 = variaˆncia de X. Varia´veis estoca´sticas cont´ınuas Fica sem sentido falar na probabilidade de ter x como resultado se X e´ uma varia´vel cont´ınua. Neste caso devemos definir um intervalo infinitesimal dx e definir dP (x) ≡ fX(x)dx como a probabilidade de encontrar o resultado entre x e x + dx. Essa probabilidade depende, em princ´ıpio, de x, mas tambe´m do tamanho de dx. Quanto maior for o intervalo considerado, maior sera´ o valor nume´rico de P (x)dx para um mesmo x. Neste caso e´ mais significativa a definic¸a˜o de densidade de probabilidade, da seguinte forma fX(x) = dP (x) dx , (2.17) ou seja, a func¸a˜ofX(x) define a distribuic¸a˜o da varia´vel aleato´ria X, e da´ a densidade de probabilidade de X. Aqui estamos usando a seguinte notac¸a˜o: as letras maiu´sculas denotam as grandezas que queremos CAPI´TULO 2. PROBABILIDADES 28 Figura 2.2: Esboc¸o de distribuic¸o˜es:(a) distribuic¸a˜o de uma varia´vel discreta e (b) de uma varia´vel cont´ıua. estudar, e as minu´sculas o valor da grandeza. Por exemplo, X e´ a nota em f´ısica no vestibular, x e´ o valor da nota. Se queremos tratar de um intervalo na˜o infinitesimal, por exemplo se queremos saber qual a probabilidade de ter x entre os valores a e b, temos P (a ≤ x ≤ b) = ∫ b a fX(x)dx = ∫ b a dP (x) . (2.18) A densidade de probabilidade, fX(x), e´ uma func¸a˜o cont´ınua por partes satisfazendo fX(x) ≥ 0 (2.19) e ∫ Ω dP = ∫ Ω fX(x) dx = 1. (2.20) Os momentos ficam definidos como Mn = 〈Xn〉 = ∫ Ω xnfX(x)dx = ∫ Ω xndP (x) . (2.21) Exemplo 2.4 Um a´tomo tem um momento magne´tico ~m definido como um vetor de comprimento m que aponta numa certa direc¸a˜o definida pelos aˆngulos θ e φ. Se todas as direc¸o˜es de ~m sa˜o igualmente prova´veis, qual a densidade de probabilidade associada com a componente z de ~m? Neste problema uma visa˜o geome´trica ajuda muito. Sejam N a´tomos, se deslocamos todos os vetores ~m de forma a que comecem todos no mesmo ponto, suas extremidades estara˜o cobrindo de forma uniforme uma superf´ıcie esfe´rica de raio m. Temos que mz = m cos θ. A probabilidade de que θ esteja entre θ e θ+dθ e´ igual a` a´rea do anel de raio m e espessura dθ (= 2pi(m sin θ)mdθ), como na figura ao lado, dividida pela a´rea total da esfera (4pim2). Ou seja, dP (θ) = f(θ)dθ = (1/2) sin θ dθ. Mas cos θ = mz/m, logo, sin θ dθ = dmz/m e P (mz)dmz = dmz/2m. Isso implica, que a densidade de probabilidade de ter a componente mz e´ f(mz) = 1/2m, ou seja, os valores de mz sa˜o uniformente distribuidos no intervalo −m ≤ mz ≤ m. Exemplo 2.5 Um sistema e´ constituido por va´rios osciladores harmoˆnicos unidimensionais, cujas posic¸o˜es sa˜o descritas por x = A cos(ωt+φ), onde a constante de fase φ e´ uma varia´vel estoca´stica uniformemente distribuida entre 0 e 2pi. Queremos saber qual a probabilidade de encontrar um desses osciladores entre x e x + dx. Se as fases sa˜o uniformemente distribuidas, enta˜o fΦ(φ) = 1/2pi. No intervalo entre 0 e 2pi ha´ dois valores de φ que geram o mesmo valor de x, portanto, dP (x) = 2dP (φ). Como dx = A sin(ωt + φ)dφ, temos que dφ = dx/(A2 − x2)1/2, e finalmente, a probabilidade desejada e´ dP (x) = fXdx = 2dP (φ) = 2fΦdφ = 2 1 2pi dx (A2 − x2)1/2 → fX(x) = 1 pi(A2 − x2)1/2 CAPI´TULO 2. PROBABILIDADES 29 Ou seja, e´ mais prova´vel que encontremos os osciladores nas regio˜es pro´ximas aos extremos, onde a velocidade e´ menor. Relac¸o˜es entre Distribuic¸o˜es Suponha que conhecemos fX(x) mas queremos achar a densidade de probabilidade de uma outra varia´vel estoca´stica Y = H(X) onde a func¸a˜o H(X) e´ conhecida. Neste caso temos fY (y) = ∫ dx δ(y −H(x))fX(x) (2.22) Exemplo 2.6 Voltamos ao exemplo do momento magne´tico. Com a informac¸a˜o sobre a distribuicao uniforme dos aˆngulos, obtivemos fθ = sin θ/2. Queremos calcular fmz , sabendo a relac¸a˜o entre mz e θ que e´ mz = m cos θ. Usamos (2.22): fmz = ∫ pi −pi dθ δ(mz −m cos θ)1 2 sin θ = 1 2m ∫ 1 −1 du δ(mz − u) = 1 2m , (2.23) onde fizemos a troca de varia´vel u = m cos θ. 2.3.1 Distribuic¸a˜o binomial Voltamos ao problema da moeda. Queremos saber qual a probabilidade, PN (n), de se obter exatamente n caras em N jogadas da moeda. Vamos considerar que a moeda na˜o e´ sime´trica, chamando de p a probabilidade de obter cara em uma jogada, e q a de obter coroa. Tirar cara ou coroa sa˜o eventos mutuamente exclusivos, portanto, p + q = 1. Vamos associar o nu´mero +1 para cara e −1 para coroa. Vamos supor que N = 4 e n = 3. Uma sequ¨eˆncia que corresponde ao evento especificado e´ {+ + −+}. A probabilidade de se obter essa sequ¨eˆncia em particular e´ ppqp = p3q, onde usamos o fato de que o resultado de cada jogada e´ independente dos outros, quer dizer, se tiro cara numa jogada, isso na˜o afeta o resultado das pro´ximas. Existem outras sequ¨eˆncias que igualmente satisfazem ao evento especificado, ao todo sera˜o 4, com o − em cada uma das quatro posic¸o˜es. Como na˜o importa a ordem das jogadas, posso tirar coroa em qualquer delas, devemos somar as probabilidades de todas essas sequ¨eˆncias equivalentes, ou seja P4(3) = 4p 3q. Vamos agora sistematizar esse ca´lculo. A probabilidade de uma dada sequ¨eˆncia e´ pnqN−n. Para contar o nu´mero de sequ¨eˆncias equivalentes, imaginamos que as moedas esta˜o numeradas. Construimos uma sequ¨eˆncia qualquer com n caras e N −n coroas. Podemos fazer N ! sequ¨eˆncias de nu´meros diferentes, independente do resultado cara ou coroa. Designamos agora quais sera˜o carae quais sera˜o coroa (por exemplo as com numerac¸a˜o de 1 a n sera˜o cara), e apagamos os nu´meros. Todas as sequ¨eˆncias que antes eram diferentes apenas pela ordem nume´rica entre as caras (n! no total) e coroas ((N −n)! no total) sera˜o iguais. O nu´mero final de sequ¨eˆncias e´ enta˜o N !/n!(N −n)! Assim, a probabilidade de obter n resultados +1, ou cara, na sequ¨eˆncia de N jogadas e´ PN (n) = N ! n!(N − n)!p nqN−n = Ω(N,n)pnqN−n. (2.24) Ja´ adiantando a nomenclatura que usaremos na descric¸a˜o estat´ıstica de um sistems, dizemos que n define o macroestado do sistema. O coeficiente do termo pnqN−n e´ chamado de multiplicidade do macroestado definido por n, ou seja, existem Ω(N,n) microestados para cada macroestado. Os nomes micro e macroestado indicam que do ponto de vista macrosco´pico na˜o somos capazes de distinguir uma certa estrutura interna, microsco´pica do sistema, e que todos os estados microsco´picos que levem a um mesmo estado macrosco´pico ficam equivalentes. A distribuic¸a˜o binomial pode ser obtida atrave´s da expansa˜o do binoˆmio (p + q)N , basta verificar a estrutura dos termos que aparecera˜o ao realizar-se o produto. Assim, a condic¸a˜o de normalizac¸a˜o fica N∑ n=0 PN (n) = (p + q) N = 1 . (2.25) CAPI´TULO 2. PROBABILIDADES 30 Figura 2.3: Veja o modo de contar as sequ¨eˆncias equivalentes com 3 moedas. A moeda com cara foi pintada de cinza. Ao apagar os nu´meros, restam apenas 3 sequ¨eˆncias diferentes das 6 iniciais. Temos tambe´m que N∑ n=0 Ω(N,n) = 2N . (2.26) O valor me´dio de n e a variaˆncia da distribuic¸a˜o podem ser facilmente calculados usando-se as expresso˜es (2.25) e (2.24), 〈n〉 = N∑ n=0 nPN (n) = p d dp N∑ n=0 PN (n) = p d dp (p + q)N = pN (2.27) e 〈n2〉 = N∑ n=0 n2PN (n) = ( p d dp )2 N∑ n=0 PN (n) = ( p d dp )2 (p + q)N = pN + (pN)2 − p2N , (2.28) levando a σ2 = 〈n2〉 − 〈n〉2 = pN − p2N = pN − p(1− q)N = Npq . (2.29) A grandeza realmente importante e´ o desvio relativo σ/N = (qp)1/2N−1/2, que diz que a` medida que aumentamos N , a distribuic¸a˜o fica mais concentrada em n = 〈n〉. Para muitos problemas descritos pela distribuic¸a˜o binomial, e´ mais significativo o nu´mero que da´ a diferenc¸a entre as quantidades de cada tipo. Por exemplo, um movimento erra´tico ao longo de uma reta pode ser descrito como uma sequ¨eˆncia aleato´ria de passos de tamanho ` para a direita e para a esquerda. Em geral queremos saber qual a distaˆncia do ponto inicial depois de N passos, e na˜o quantos passos foram dados para a direita, ou para a esquerda. Outro exemplo e´ o ordenamento magne´tico num cristal muito anisotro´pico. Podemos considerar que, na auseˆncia de um campo magne´tico externo, o momento magne´tico atoˆmico tenha duas orientac¸o˜es favora´veis, paralela e anti-paralela a uma determinada direc¸a˜o. Numa dada temperatura, alguns a´tomos tera˜o um alinhamento e outros o contra´rio, desta forma, o momento magne´tico total do cristal sera´ dado pela diferenc¸a entre o nu´mero de a´tomos alinhados em cada direc¸a˜o. Vamos enta˜o reescrever a multiplicidade da distribuic¸a˜o binomial (2.24) como Ω(N,m) = N !( N+m 2 ) ! ( N−m 2 ) ! , (2.30) onde m = N+ −N− = n− (N − n) = 2n−N (2.31) e N+ = n = N + m 2 e N− = N − n = N −m 2 , (2.32) sendo N+(−) o nu´mero de caras(coroas) ou de passos para a direita(esquerda), ou de momentos magne´ticos na direc¸a˜o +(-). Neste caso, m passa a ser o ro´tulo do macroestado. CAPI´TULO 2. PROBABILIDADES 31 Figura 2.4: PN (m) para diferentes valores de N . Na linha superior N = 40, e na inferior, N = 20. Na coluna da esquerda p = q = 0.5, a distribuic¸a˜o e´ sime´trica com relac¸a˜o ao ponto de ma´ximo, que ocorre para m = 〈m〉 = 0. Na coluna da direita um dos resultados e´ bem mais prova´vel, p = 0.9 e q = 0.1, levando a uma distribuic¸a˜o assime´trica, cujo ma´ximo ocorre para m = 0.8N . Note que, para N = 40, embora m esteja definido entre −40 e 40, a distribuic¸a˜o e´ bem concentrada em torno de m = 0. Exemplo 2.7 Considere o caso N = 4. Podemos montar uma tabela com os 24 = 16 microestados do sistema e classifica´-los de acordo com os ro´tulos de macroestado n ou m. O resultado e´ i a b c d n m g(4,m) 1 + + + + 4 4 1 2 + + + − 3 + + − + 4 + − + + 3 2 4 5 − + + + 6 + + − − 7 + − + − 8 + − − + 9 − + + − 2 0 6 10 − + − + 11 − − + + 12 − − − + 13 − − + − 3 −2 4 14 − + − − 15 + − − − 16 − − − − 0 −4 1 Usando a expressa˜o (2.30) podemos calcular PN (m) para diferentes valores de N . A figura ?? mostra o comportamento de PN (m) para N = 20 e 40, para dois casos, sime´trico (p = q = 0.5) e assime´trico (p = 0.9 e q = 0.1). Em ambos os caso, PN (m) tera´ seu valor ma´ximo quando n = 〈n〉 = Np, ou m = 2〈n〉 − N = N(2p − 1). No caso sime´trico esse ponto aparece para m = 0, e no assime´trico para m = 0.8N . Exemplo 2.8 Considere um ga´s com N mole´culas num volume V0. A probabilidade p de que cada mole´cula, individualmente, esteja num subvolume v e´ dada por p = v/V0, se supomos que as mole´culas estejam unifor- CAPI´TULO 2. PROBABILIDADES 32 memente distribuidas. A probabilidade de que exatamente n mole´culas estejam no mesmo subvolume v,( na˜o interessa quais n), e´ dada diretamente pela distribuic¸a˜o binomial: PN (n) = N ! n!(N − n)! ( v V0 )n ( V0 − v V0 )N−n . O nu´mero me´dio 〈n〉 em v e´ 〈n〉 = Nv V0 A dispersa˜o relativa R = 〈(n− 〈n〉)2〉/〈n〉2 em v, pode ser enta˜o calculada como R = V0 − v Nv Se v � V0 R sera´ um nu´mero muito grande, indicando que medic¸o˜es do nu´mero de mole´culas dentro de v tera˜o bastante flutuac¸a˜o. Por outro lado, se v → V0, R ≈ 0, ou seja, a me´dia sera´ bem definida. 2.3.2 Distribuic¸a˜o Gaussiana A distribuic¸a˜o Gaussiana pode ser facilmente obtida a partir da distribuic¸a˜o binomial. A` medida que aumentamos N , PN (n) tem valores aprecia´veis apenas nas vizinhanc¸as de seu ma´ximo, como pode ser visto na figura 2.4. Vamos trabalhar com o log da distribuic¸a˜o, porque estaremos considerando um regime em que ha´ grandes variac¸o˜es de probabilidade. Temos assim, a partir de (2.24) ln PN (n) = ln N !− ln n!− ln(N − n)! + n ln p + (N − n) ln q (2.33) Estamos sempre interessados em valores de N muito grandes, esse e´ um requisito fundamental para que a probabilidade de se obter um resultado muito diferente da me´dia seja baixa. Nesse caso podemos usar a aproximac¸a˜o de Stirling para os fatoriais desses nu´meros, ln N ! = 1 2 ln 2pi + ( N + 1 2 ) ln N −N + 1 12n +O ( 1 n2 ) , N � 1. (2.34) Na maioria dos casos podemos usar a aproximac¸a˜o de Stirling na forma ln N ! = N ln N −N +O(ln N) , N � 1. (2.35) Seja n˜ o valor mais prova´vel de n, ou seja, aquele para o qual PN (n) e´ ma´xima. Podemos escrever esse valor como n˜ = rN , 0 < r < 1. Se p e q na˜o forem muito diferentes, perto do ma´ximo, tanto n quanto N −n sera˜o nu´meros da ordem de N . Usamos a aproximac¸a˜o de Stirling para os fatoriais desses nu´meros, ficando com ln PN = N ln N−N−n ln n+n−(N−n) ln(N−n)+N−n+n ln p+(N−n) ln q+O(ln n, ln(N−n)) . (2.36) Podemos calcular a posic¸a˜o do ma´ximo para N � 1 extremizando ln PN , com isso obtemos dln PN dn = − ln n˜ + ln(N − n˜) + ln p− ln q = 0 , (2.37) dando n˜ = pN = 〈n〉 , (2.38) onde usamos a expressa˜o (2.27) para 〈n〉. Verificamos a concavidade: d2ln PN dn2 = − 1 n − 1 N − n +O ( 1 n2 , 1 (N − n)2 ) , (2.39) que quando n = n˜, para N grande, da´ d2ln PN dn2 ∣∣∣∣ n=n˜ = − 1 Npq = − 1 σ2 < 0 . (2.40) CAPI´TULO 2. PROBABILIDADES 33 Agora, expandimos a distribuic¸a˜o perto do ma´ximo. Para isso tomamos n = n˜ + �. ln PN (n) ≈ ln PN (n˜) + � dln PN dn ∣∣∣∣ n=n˜︸ ︷︷ ︸ 0 + 1 2 �2 d2ln PN dn2 ∣∣∣∣ n=n˜︸ ︷︷ ︸ − 1 Npq + · · · (2.41) Exponenciando,teremos PN (n) = C exp [ − (n− n˜) 2 2Npq ] = C exp [ − (n− 〈n〉) 2 2σ2 ] , (2.42) onde a expressa˜o (2.29) foi usada na identificac¸a˜o de σ. Normalizamos,∫ +∞ −∞ dn C exp [ − (n− 〈n〉) 2 2σ2 ] = 1 , (2.43) para obter a expressa˜o final P (n) = 1 σ √ 2pi exp [ − (n− 〈n〉) 2 2σ2 ] , (2.44) ou PN (n) = 1√ 2piNpq exp [ − (n−Np) 2 2Npq ] . (2.45) Para verificar a validade da aproximac¸a˜o devemos ver os efeitos da truncagem da expansa˜o em se´rie. Calculamos o pro´ximo termo, que envolve a terceira derivada: d3ln PN dn3 ∣∣∣∣ n=n˜ = q − p N2p2q2 . Para que a aproximac¸a˜o Gaussiana seja boa devemos ter 1 2Npq |n− n˜|2 � |q − p| 6N2p2q2 |n− n˜|3 , ou seja, |n− n˜| � 3Npq|q − p| definindo assim a regia˜o em torno do ma´ximo onde a aproximac¸a˜o e´ va´lida. Fora desse intervalo, ou seja, para |n − n˜| ≥ 3Npq/|q − p|, temos P ∼ exp[−9N 2p2q2/(2Npq|q − p|2)] → 0 para N → ∞, portanto a aproximac¸a˜o e´ boa para Npq � 1. 2.3.3 Distribuic¸a˜o de Poisson A distribuic¸a˜o de Poisson corresponde a um outro limite da distribuic¸a˜o binomial, neste caso temos um processo em que N → ∞, mas p → 0, tal que o produto Np e´ finito, ou seja Np = a � N . Novamente olhamos para a distribuicao binomial (2.24) na regia˜o de ma´ximo, onde n ≈ Np � N . Novamente usamos a aproximac¸a˜ode Stirling para os fatoriais dos nu´meros grandes, agora na forma N ! ≈ √ 2piN NN exp [ −N + 1 12N +O ( 1 N2 )] . (2.46) N ! (N − n)! ≈ √ N√ N − n (N/e)N (N − n)/e)N−n ≈ N n Para p → 0, (1− p)N−n ≈ (1− p)a/p → e−a, onde usamos ez = limn→∞[1 + (z/n)]n. Combinando tudo, PN (n) = ane−a n! . (2.47) CAPI´TULO 2. PROBABILIDADES 34 2.4 O limite N →∞ Os dois resultados abaixo sa˜o especialmente importantes porque lidam com o comportamento de distri- buic¸o˜es como as que vamos considerar na f´ısica estat´ıstica, e porque nos ensinam como tratar resultados experimentais, obtidos com um nu´mero finito de realizac¸o˜es. As demonstrac¸o˜es envolvem diversos conceitos mais avanc¸ados de distribuic¸o˜es, por isso na˜o entraremos nesses detalhes, que podem ser vistos, por exemplo, em [7]. Teorema do valor central Quando realizamos uma medida, podemos verificar que, se estamos trabalhando com o instrumento correto, encontraremos resultados diferentes ao repetir o processo de medic¸a˜o. Logo nos vem a` cabec¸a associar a me´dia dos resultados encontrados com o valor da medida. Mas, se realizamos um outro conjunto de medidas equivalente ao primeiro (ou seja, com o mesmo instrumento, mesmo procedimento e mesmo nu´mero de repetic¸o˜es), encontramos outro valor me´dio. Afinal, qual e´ o valor da medida? O teorema do valor central vem exatamente resolver essa questa˜o, ele nos diz como essas me´dias esta˜o distribuidas em torno do valor verdadeiro da medida, que e´ inating´ıvel. Sejam X a grandeza que queremos medir e Y o seu valor me´dio resultante de N medic¸o˜es. yN = x1 + x2 + · · ·+ xN N . (2.48) X e´ uma varia´vel estoca´stica, e consequ¨entemente Y e Y − 〈X〉 tambe´m sa˜o. Note a diferenc¸a entre o valor verdadeiro, proveniente de infinitas medic¸o˜es, 〈X〉, e a me´dia dos N valores medidos, Y . Seja fX a func¸a˜o distribuic¸a˜o para X, e σ2X = 〈X2〉 − 〈X〉2. Se fX vai a zero rapidamente quando |x − 〈X〉| → ∞ (na˜o importando a sua forma), o teorema do limite central diz que a densidade de probabilidade para Y − 〈X〉 e´ fY (yN − 〈X〉) = 1 σY √( N 2pi ) exp [−(yN − 〈X〉)2 2σ2Y ] . (2.49) Vemos assim, que independente da forma de fX(x), fY (yN ) tem a forma gaussiana, e´ centrada em 〈X〉 e tem largura σY = σX/ √ N . Com isso conclu´ımos que, mesmo sendo imposs´ıvel realizar os infinitos experimentos, quanto mais vezes realizamos a medic¸a˜o, mais a me´dia resultante se aproximara´ do valor real da grandeza que estamos medindo. Lei dos nu´meros grandes Este tambe´m e´ um resultado que diz respeito a um grande nu´mero de experimentos. A lei pode ser enunciada como : Se um evento A tem a probabilidade p de ocorrer, enta˜o a frac¸a˜o de resultados A tende a p quando N →∞. Bibliografia [1] H. B. Callen. Thermodynamics and an Introduction to Thermostatistics. John Wiley & Sons, 1985. [2] H. Moyse´s Nussenzveig. Curso de F´ısica Ba´sica 1 - Mecaˆnica. Edgard Blu¨cher, 1983. [3] H. Moyse´s Nussenzveig. Curso de F´ısica Ba´sica 2 - Flu´ıdos, Oscilac¸o˜es e Ondas, Calor. Edgard Blu¨cher, 2002. [4] E. A. Jackson. Perspectives of nonlinear dynamics, volume 1. Cambridge, 1989. [5] O cientista sueco Svante Arrhenius (1859-1927), ganhou o preˆmio Nobel em 1903 pela teoria da dissociac¸a˜o dos eletro´litos. Entre outras coisas ele estudou a dependeˆncia da taxa de reac¸a˜o em func¸a˜o da temperatura e propos a lei fenomenolo´gia que atualmente leva o seu nome. Sua formulac¸a˜o original foi em func¸a˜o da energia de ativac¸a˜o, ou energia necessa´ria para iniciar um reac¸a˜o qu´ımica. [6] P. Collet and J. P. Eckmann. Instabilities and Fronts in Extended Systems. Princeton University, 1990. [7] L. E. Reichl. A Modern Course in Statistical Physics. Univertity of Texas Press, 1980. 35
Compartilhar