Baixe o app para aproveitar ainda mais
Prévia do material em texto
PROCESSOS ESTOCA´STICOS Prof. Daniel Branda˜o 2010 Suma´rio 1 Teoria da Probabilidade 4 1.1 Espac¸o Amostral e Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 A Noc¸a˜o e os Aximas da Probabilidade . . . . . . . . . . . . . . . . . . . . 5 1.2.1 Definic¸a˜o da Frequeˆncia Relativa . . . . . . . . . . . . . . . . . . . 5 1.2.2 Definic¸a˜o Axioma´tica . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2.3 Propriedades Elementares da Probabilidade . . . . . . . . . . . . . 6 1.3 Eventos Igualmente Prova´veis . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3.1 Espac¸o Amostral Finito . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3.2 Eventos Igualmente Prova´veis . . . . . . . . . . . . . . . . . . . . . 6 1.4 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.2 Regra de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.5 Probabilidade Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.6 Eventos independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2 Varia´veis Aleato´rias 9 2.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2 Varia´veis Aleato´rias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2.2 Eventos Definidos por Varia´veis Aleato´rias . . . . . . . . . . . . . . 10 2.3 Func¸a˜o de Distribuic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.2 Propriedades da FX(x) . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.3 Determinac¸a˜o de Probabilidades pela Func¸a˜o de Distribuic¸a˜o . . . . 10 2.4 Varia´veis Aleato´rias Discretas e fmp . . . . . . . . . . . . . . . . . . . . . . 11 2.4.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.4.2 Func¸a˜o Massa de Probabilidade . . . . . . . . . . . . . . . . . . . . 11 2.4.3 Propriedades da pX(x) . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.5 Varia´veis Aleato´rias Cont´ınuas e fdp . . . . . . . . . . . . . . . . . . . . . 11 2.5.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.5.2 Func¸a˜o Densidade de Probabilidade . . . . . . . . . . . . . . . . . . 12 2.5.3 Propriedades de fX(x) . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.6 Me´dia e Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.6.1 Me´dia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.6.2 Momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.6.3 Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.7 Algumas Distribuic¸o˜es Especiais . . . . . . . . . . . . . . . . . . . . . . . . 13 2.7.1 Distribuic¸a˜o Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 13 1 2.7.2 Distribuic¸a˜o Binomial . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.7.3 Distribuic¸a˜o de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.7.4 Distribuic¸a˜o Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.7.5 Distribuic¸a˜o Exponencial . . . . . . . . . . . . . . . . . . . . . . . . 15 2.7.6 Distribuic¸a˜o Normal (ou Gaussiana) . . . . . . . . . . . . . . . . . 16 2.8 Distribuic¸a˜o Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.9 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3 Varia´veis Aleato´rias Multidimensionais 20 3.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2 Varia´veis Aleato´rias Bidimensionais . . . . . . . . . . . . . . . . . . . . . . 20 3.2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3 Func¸a˜o de Distribuic¸a˜o Conjunta . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.2 Propriedades de FXY (x, y) . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.3 Func¸a˜o de Distribuic¸a˜o Marginal . . . . . . . . . . . . . . . . . . . 22 3.4 V.A. Discreta - FMP Conjunta . . . . . . . . . . . . . . . . . . . . . . . . 22 3.4.1 FMP Conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.4.2 Propriedades de pXY (xi, yj) . . . . . . . . . . . . . . . . . . . . . . 22 3.4.3 FMP Marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.4.4 Varia´veis Aleato´rias Independentes . . . . . . . . . . . . . . . . . . 23 3.5 Varia´veis Aleato´rias Cont´ınuas - FDP Conjunta . . . . . . . . . . . . . . . 24 3.5.1 Func¸a˜o Densidade de Probabilidade Conjunta . . . . . . . . . . . . 24 3.5.2 Propriedades de fXY (x, y) . . . . . . . . . . . . . . . . . . . . . . . 24 3.5.3 FDP Marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.5.4 Varia´veis Aleato´rias Independentes . . . . . . . . . . . . . . . . . . 25 3.6 Distribuic¸o˜es Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.6.1 Func¸a˜o Massa de Probabilidade Condicional . . . . . . . . . . . . . 25 3.6.2 Propriedades de pY |X(yj|xi) . . . . . . . . . . . . . . . . . . . . . . 26 3.6.3 Func¸a˜o Densidade de Probabilidade Condicional . . . . . . . . . . . 26 3.6.4 Propriedades de fY |X(x|y) . . . . . . . . . . . . . . . . . . . . . . . 26 3.7 Coeficientes de Covariaˆncia e Correlac¸a˜o . . . . . . . . . . . . . . . . . . . 27 3.8 Me´dia e Variaˆncia Condicionais . . . . . . . . . . . . . . . . . . . . . . . . 29 3.9 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 4 Func¸a˜o de uma Varia´vel Aleato´ria 32 4.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.2 Func¸o˜es de Uma Varia´vel Aleato´ria . . . . . . . . . . . . . . . . . . . . . . 32 4.2.1 Varia´vel Aleato´ria g(X) . . . . . . . . . . . . . . . . . . . . . . . . 32 4.2.2 Determinac¸a˜o de fY (y) por fX(x) . . . . . . . . . . . . . . . . . . . 32 4.3 Func¸a˜o de Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . . . . . . . . 33 4.3.1 Um Func¸a˜o de Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . . 33 4.3.2 Duas Func¸o˜es de Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . 33 4.3.3 Determinando fZW (z, w) por fXY (x, y) . . . . . . . . . . . . . . . . 34 4.4 Esperanc¸a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.4.1 Esperanc¸a de uma Func¸a˜o de Uma Varia´vel Aleato´ria . . . . . . . . 35 4.4.2 Esperanc¸a de uma Func¸a˜o de Mais de Uma Varia´vel Aleato´ria . . . 35 4.4.3 Propriedade de Linearidade da Esperanc¸a . . . . . . . . . . . . . . 35 4.4.4 Esperanc¸a Condicional com uma Varia´vel Aleato´ria . . . . . . . . . 35 2 4.5 Func¸o˜es Geradoras de Momento . . . . . . . . . . . . . . . . . . . . . . . . 36 4.5.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.5.2 Func¸a˜o Geradora de Momento Conjunta . . . . . . . . . . . . . . . 36 4.6 Func¸a˜o Caracter´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.6.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.6.2 Func¸o˜es Caracter´ısticas Conjuntas . . . . . . . . . . . . . . . . . . . 37 3 Cap´ıtulo 1 Teoria da Probabilidade O estudo da Teoria da Probabilidade iniciou da ana´lise de certos jogos de azar e possui aplicac¸o˜es na maioria das a´reas da cieˆncia e engenharia. No´s iremos relebrar os conceitos ba´sicos de probabilidade. 1.1 Espac¸o Amostral e Eventos No estudo da probabilidade, qualquer processo de observac¸a˜o e´ referido como um exper- imento. Os resultados deuma observac¸a˜o sa˜o chamados resultados do experimento. Um experimento e´ chamado um experimento aleato´rio se seus resultados na˜o podem ser previstos. Exemplos t´ıpicos de experimento aleato´rio sa˜o jogar um dado ou tirar uma carta de um mac¸o. O conjunto de todos os poss´ıveis resultados de um experimento aleato´rio e´ chamado espac¸o amostral, e sera´ denotado por S. Um elemento em S e´ chamado de ponto amostral. Cada resultado de um experimento aleato´rio corresponde a um ponto amostral. Exemplo 1.1.1. O espac¸o amostral do exeprimento de jogar uma moeda (a) uma vez e (b) duas vezes e´: (a)Existem duas possibilidades, cara ou coroa. Enta˜o: S = {H,T} (b) Existem 4 poss´ıveis resultados. Eles sa˜o pares de caras e coroas. Enta˜o S = {HH,HT, TH, TT} Exemplo 1.1.2. O espac¸o amostral de um experimento de medir (em horas) o tempo de vida de um transistor: Claramente todos os poss´ıveis resultados sa˜o todos os nu´meros reais na˜o negativos. Isto e´, S = {τ : 0 ≤ τ ≤ ∞} onde τ representa a vida de um transistor em horas. Uma vez que no´s identificamos o espac¸o amostral S, como o conjunto de todos os poss´ıveis resultados de um experimento aleato´rio, vamos rever algumas anotac¸o˜es no seguinte conjunto. 4 Se ζ e´ um elemento de S, enta˜o no´s escrevemos ζ ∈ S. Se ζ na˜o e´ um elemento de S, enta˜o escrevemos: ζ /∈ S. Um conjunto A e´ chamado subconjunto de B, denotado por A ⊂ B. Se cada elemento de A e´ tambe´m elemento de B Qualquer subconjunto de um espac¸o amostral S e´ chamado um evento. Um ponto amostal de S e´ frequentemente referido como um evento elementar. Note que o espac¸o amostral S e´ o subconjunto de si pro´prio, isto e´, S ⊂ S. Uma vez que S e´ o conjunto de todos os poss´ıveis resultados, ele e´ frequentemnte chamado de evento determinado. 1.2 A Noc¸a˜o e os Aximas da Probabilidade Uma atribuic¸a˜o de um nu´mero real a um evento definido em um espac¸o amostral S e´ conhecido como a medida da probabilidade. Considere um experimento aleato´rio com um espac¸o amostral S e seja A um evento particular definido em S. 1.2.1 Definic¸a˜o da Frequeˆncia Relativa Suponha que o experimento aleato´rio e´ repetido n vezes. Se o evento A ocorre n(A) vezes, enta˜o a probabilidade do evento A, denotado por P (A), e´ definido como P (A) = lim n→∞ n(A) n onde n(A)/n e´ chamado de frequencia relativa do evento A. Note que este limite talvez na˜o exista, e, ale´m disso, ha´ muitas situac¸o˜es em que o conceito de repetibilidade talvez na˜o seja va´lido. E´ claro que para um evento qualquer A, a frenqueˆncia relativa de A possue as seguintes propriedades: 1. 0 ≤ n(A)/n ≤ 1, onde n(A)/n = 0 se A na˜o ocorre em nenhuma das n repetic¸o˜es e n(A)/n = 1 se A ocorre em todas as n repetic¸o˜es. 2. Se A e B sa˜o eventos mutualmente exclusivos, enta˜o n(A ∪B) = n(A) + n(B) e n(A ∪B) n = n(A) n + n(B) n . 5 1.2.2 Definic¸a˜o Axioma´tica Seja S um espac¸o amostral e A um evento em S. Enta˜o na definic¸a˜o axioma´tica, a probabilidade P (A) de um evento A e´ um nu´mero real atribu´ıdo a A o qual satisfaz os treˆs seguintes axiomas: 1. P (A) ≥ 0; 2. P (S) = 1; 3. P (A ∪B) = P (A) + P (B), se A ∩B = ∅. 1.2.3 Propriedades Elementares da Probabilidade Usando os axiomas acima, as seguintes propriedades de probabilidade podem ser obtidas: 1. P (A¯) = 1− P (A); 2. P (∅) = 0; 3. P (A) ≤ P (B) se A ⊂ B; 4. P (A) ≤ 1; 5. P (A ∪B) = P (A) + P (B)− P (A ∩B); 1.3 Eventos Igualmente Prova´veis 1.3.1 Espac¸o Amostral Finito Considere um espac¸o amostral finito S com n elementos S = {ζ1, ζ2, ..., ζn} onde ζi sa˜o eventos elementares. Seja P (ζi) = pi. Enta˜o 1. 0 ≤ pi ≤ 1 i = 1, 2, ..., n; 2. ∑n i=1 pi = p1 + p2 + ...+ pn = 1; 3. Se A = ∪i∈Iζi, onde I e´ uma colec¸a˜o de subscritos, enta˜o P (A) = ∑ ζi∈A P (ζi) = ∑ i∈I pi 1.3.2 Eventos Igualmente Prova´veis Quando todos os eventos elementares ζi (i=1,2,...,n) sa˜o igualmente prova´veis, isto e´, p1 = p2 = · · · = pn enta˜o, da propriedade 2 acima, temos pi = 1/n e P (A) = n(A)/n onde n(A) e´ o nu´mero de resultados pertencentes ao evento A e n e´ o nu´mero de pontos amostrais em S. 6 1.4 Probabilidade Condicional 1.4.1 Definic¸a˜o A probabilidade condicional de um evento A dado um evento B, denotado por P (A|B), e´ definido como P (A|B) = P (A ∩B) P (B) , P (B) > 0 onde P (A ∩B) e´ a probabilidade conjunta de A e B. Similarmente, P (B|A) = P (A ∩B) P (A) , P (A) > 0 e´ a probabilidade condicional de um evento B dado o evento A. Das equac¸o˜es acima, temos P (A ∩B) = P (A|B)P (B) = P (B|A)P (A) Esta equac¸a˜o e´ usada na maioria das vezes para encontrar a probabilidade conjunta de eventos. 1.4.2 Regra de Bayes Da equac¸a˜o acima, podemos obter a seguinte regra de Bayes: P (A|B) = P (B|A)P (A) P (B) 1.5 Probabilidade Total Os eventos A1, A2, ..., An sa˜o chamados mutualmente exclusivos e exaustivos se ∪ni=1Ai = A1 ∪ A2 ∪ · · · ∪ An = S e Ai ∩ Aj = ∅ i 6= j Seja B um evento qualquer em S. Enta˜o P (B) = n∑ i=1 P (B ∩ Ai) = n∑ i=1 P (B|Ai)P (Ai) o qual e´ conhecida como a probabilidade total do evento B. Seja A = Ai na regra de Bayes; enta˜o, usando a equac¸a˜o anterior, obtemos P (Ai|B) = P (B|Ai)P (Ai)∑n i=1 P (B|Ai)P (Ai) Note que os termos do lado direito sa˜o todos condicionais aos eventos Ai, enquanto que o termo da esquerda e´ condicional a` B. 7 1.6 Eventos independentes Dois eventos A e B sa˜o ditos independentes se e somente se P (A ∩B) = P (A)P (B) Segue imediatemente que se A e B sa˜o independentes, enta˜o P (A|B) = P (A) P (B|A) = P (B) Se dois eventos A e B sa˜o indenpendentes, enta˜o podemos mostrar que A e B¯ sa˜o tambe´m independentes; isto e´ P (A ∩ B¯) = P (A)P (B¯) Enta˜o P (A|B¯) = P (A) Assim, se A e´ independente de B, enta˜o a probabilidade de A permanece inalterada independentemente se B acontece ou na˜o. De uma forma geral, os eventos A1, A2, ..., An sa˜o independentes se e somente se para cada subconjunto {Ai1, Ai2, ..., Aik} (2 ≤ k ≤ n) destes eventos, P (Ai1 ∩ Ai2 ∩ ... ∩ Aik) = P (Ai1)P (Ai2)...P (Aik) Finalmente, definimos um conjunto infinito de eventos como independente e se, somente se, todo subconjunto finito destes eventos e´ independente. 8 Cap´ıtulo 2 Varia´veis Aleato´rias 2.1 Introduc¸a˜o Neste cap´ıtulo, introduziremos os conceito de varia´veis aleato´rias. O propo´sito principal de usar uma varia´vel aleato´ria e´ assim que podemos definir certas func¸o˜es de probabilidade que tornam conveniente e fa´cil de calcular a probabilidade de va´rios eventos. 2.2 Varia´veis Aleato´rias 2.2.1 Definic¸a˜o Considere um experimento aleato´rio com espac¸o amostral S. Uma varia´vel aleato´ria X(ζ) e´ uma func¸a˜o real que associa um nu´mero real chamado valor de X(ζ) para cada ponto amostral ζ de S. Frequentemente, usamos simplesmente X para esta func¸a˜o em vez de X(ζ) e usamos “v.a” para denotar a varia´vel aleato´ria. O espac¸o amostral S e´ chamado de domı´nio da v.a X, e a colec¸a˜o de todos os nu´meros (valores de X(ζ)) e´ chamado de imagem da v.a X. Assim, a imagem de X e´ subconjunto dos nu´meros reais. Note que duas ou mais pontos amostrais diferentes podem dar o mesmo valor de X, mas diferentes nu´meros na imagem na˜o podem ser atribu´ıdos ao mesmo ponto amostral. Exemplo 2.2.1. No exeprimento de jogar uma moeda uma vez, podemos definir a v.a X como X(H) = 1 e X(T ) = 0 (2.1) 9 Note que podemos tambe´m definir outra v.a., digamos que Y com Y (H) = 0, Y (T ) = 1 (2.2) 2.2.2 Eventos Definidos por Varia´veis Aleato´rias Se X e´ uma v.a. e x e´ um nu´mero real fixado, podemos definir o evento (X = x) como (X = x) = {ζ;X(ζ) = x} (2.3) Similarmente, para nu´meros fixados x, x1, x2, podemos definir os seguintes eventos:(X ≤ x) = {ζ;X(ζ) ≤ x} (2.4) (X > x) = {ζ;X(ζ) > x} (2.5) (x1 < X ≤ x2) = {ζ;x1 < X(ζ) ≤ x2} (2.6) Exemplo 2.2.2. No experimento de jogar uma moeda treˆs vezes, o espac¸o amostral S1 consistindo de oito pontos amostrais igualmente prova´veis S1 = {HHH, . . . , TTT}. Se X e´ uma v.a. dando o nu´mero de caras obtidas, calcule (a) P(X=2); (b) P(x¡2). 2.3 Func¸a˜o de Distribuic¸a˜o 2.3.1 Definic¸a˜o A func¸a˜o de ditribuic¸a˜o [ ou func¸a˜o de distribuic¸a˜o acumulada(fda)] de X e´ a func¸a˜o definida por FX(x) = P (X ≤ x) −∞ < x <∞ (2.7) A maioria das informac¸o˜es sobre um experimento aleato´rio descrito pelo v.a. X e´ determinada pelo comportamento da FX(x). 2.3.2 Propriedades da FX(x) 1. 0 ≤ FX(x) ≤ 1; 2. FX(x1) ≤ FX(x2) se x1 ≤ x2; 3. limxto∞ FX(x) = FX(∞) = 1; 4. limx→−∞ FX(x) = FX(−∞) = 0; 5. limx→a+ FX(a+) = FX(a) a+ = lim0<�→0 a+ �. Exemplo 2.3.1. Considere a v.a definida no exemplo 2. Calcule e esbocea fda FX(x) de X. 2.3.3 Determinac¸a˜o de Probabilidades pela Func¸a˜o de Distribuic¸a˜o Pela definic¸a˜o de fda, podemos calcular outras probabilidades, tal como P (a < X ≤ b), P (X > a), e P (X < b): P (a < X ≤ b) = FX(b)− FX(a) (2.8) P (X > a) = 1− FX(a) (2.9) P (x < b) = FX(b −) b− = lim 0<�→0 b− � (2.10) 10 2.4 Varia´veis Aleato´rias Discretas e fmp 2.4.1 Definic¸a˜o Seja X uma v.a. com fda FX(x). Se FX(x) assume somente valores inteiros e e´ constante entre esses valores, enta˜o X e´ chamada uma varia´vel aleato´ria discreta. 2.4.2 Func¸a˜o Massa de Probabilidade Suponha que os saltos em FX(x) de uma v.a. discreta X ocorre nos pontos x1, x2, ... onde a sequencia pode ser finita ou infinita conta´vel, e assumimos xi < xj se i < j. Enta˜o FX(xi)− FX(xi−1) = P (X ≤ xi)− P (X ≤ xi−1) = P (X = x) (2.11) Seja pX(x) = P (X = x) (2.12) A func¸a˜o pX(x) e´ chamada de func¸a˜o massa de probabilidade (fmp) da v.a. discreta X. 2.4.3 Propriedades da pX(x) 1. 0 ≤ pX(xk) ≤ 1; k = 1, 2, ...; 2. pX(x) = 0, se x 6= xk(k = 1, 2, ...); 3. ∑ k pX(xk) = 1. A fda FX(x) de uma v.a. discreta X pode ser obtida por FX(x) = P (X ≤ x) = ∑ xk≤x pX(xk) (2.13) 2.5 Varia´veis Aleato´rias Cont´ınuas e fdp 2.5.1 Definic¸a˜o Seja X uma v.a. com fda FX(x). Se FX(x) e´ cont´ınua e tambe´m possiu uma derivada dFX(x)/dx a qual existe em toda parte exceto em um poss´ıvel nu´mero de pontos e e´ cont´ınua por partes, enta˜o X e´ chamada uma varia´vel aleato´ria cont´ınua Alternativa- mente, X e´ uma v.a. cont´ınua somente se a imagem de FX(x) conte´m um intervalo de nu´meros reais. Assim, se X e´ uma v.a. cont´ınua, enta˜o P (X = x) = 0 (2.14) Note que este e´ um exemplo de um evento com probabilidade 0, isto na˜o e´ necessariamante o evento imposs´ıvel ∅. Na maioria das aplicac¸o˜es, a v.a. e´ discreta ou cont´ınua. Mas se a FX(x) de uma v.a. X possui caracter´ısticas de v.a discreta e cont´ınua, enta˜o a v.a. X e´ chamada v.a. mista. 11 2.5.2 Func¸a˜o Densidade de Probabilidade Seja fX(x) = dFX(x) dx (2.15) A func¸a˜o fX(x) e´ chamada de func¸a˜o densidade de probabilidade de uma v.a. cont´ınua X. 2.5.3 Propriedades de fX(x) 1. fX(x) ≥ 0; 2. ∫∞ −∞ dx = 1; 3. fX(x) e´ cont´ınua por partes; 4. P (a < X ≤ b) = ∫ b a fX(x)dx. A fda FX(x) de uma v.a. cont´ınua X pode ser obtida por FX(x) = P (X ≤ x) = ∫ x −∞ fX(ξ)dξ (2.16) Pela eq. 2.14, se X e´ uma v.a. cont´ınua, enta˜o P (a < X ≤ b) = P (a ≤ X ≤ b) = P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X < b)(2.17) = ∫ b a fX(x)dx = FX(b)− FX(a) (2.18) 2.6 Me´dia e Variaˆncia 2.6.1 Me´dia A Me´dia (ou valor experado) de uma v.a. X, denotado por µX ou E(X), e´ definida por µX = E(X) = { ∑ k xkpX(xk) se X e´ discreta∫∞ −∞ xfX(x)dx se X e´ cont´ınua (2.19) 2.6.2 Momento O n-e´simo momento de uma v.a. X e´ definido por E(Xn) = { ∑ k x n kpX(xk) se X e´ discreta∫∞ −∞ x nfX(x)dx se X e´ cont´ınua (2.20) Note que a me´dia de X e´ o primeiro momento de X. 12 2.6.3 Variaˆncia A variaˆncia de uma v.a. X, denotado por σ2X ou V ar(X), e´ definido por σ2X = V ar(X) = E{[X − E(X)]2} (2.21) Assim, σ2X = { ∑ k(xk − µX)2pX(xk) se X e´ discreta∫∞ −∞(x− µX)2fX(x)dx se X e´ cont´ınua (2.22) Note da definic¸a˜o 2.21 que V ar(X) ≥ 0 O desvio padra˜o de uma v.a. X, denotado por σX , e´ a raiz quadrada positiva da V ar(X). Expandindo o lado direito da eq. 2.21, podemos obter a seguinte relac¸a˜o: V ar(X) = E(X2)− [E(X)]2 a qual e´ uma fo´rmula u´til para determinar a variaˆncia. 2.7 Algumas Distribuic¸o˜es Especiais 2.7.1 Distribuic¸a˜o Bernoulli Uma v.a. X e´ chamada de v.a. de Bernoulli com paraˆmetro p se a fmp e´ dada por pX(k) = P (X = k) = p k(1− p)1−k, k=0,1 onde 0 ≤ p ≤ 1. Pela eq. ??, a fda FX(x) da v.a. Bernoulli X e´ dado por FX(x) = 0 se x < 0 1− p se 0 ≤ x < 1 1 se x ≥ 1 (2.23) A me´dia e a variaˆncia de uma v.a. de Bernoulli X sa˜o µX = E(X) = p (2.24) σ2X = V ar(X) = p(1− p) (2.25) Uma v.a. de Bernoulli X e´ associado com algum experimento o qual o resultado pode ser classificado como um ”sucesso´´ ou um ”fracasso´´, e a probabilidade de um sucesso e´ p e a probabilidade de um fracasso e´ 1− p. 2.7.2 Distribuic¸a˜o Binomial Uma v.a. X e´ chamada de v.a. binomial com paraˆmetros (n, p) se sua fmp e´ dada por pX(x) = P (X = k) = ( n k ) pk(1− p)n−k k = 0, 1, ..., n (2.26) onde 0 ≤ p ≤ 1 e ( n k ) = n! k!(n− k)! (2.27) 13 o qual e´ conhecido como o coeficiente binomial. A fda de X correspondente e´ FX(x) = n∑ k=0 ( n k ) pk(1− p)n−k n ≤ x < n+ 1 A me´dia e a variaˆncia de uma v.a. binomial X sa˜o µX = E(X) = np σ2X = V ar(X) = np(1− p) Uma v.a. binomial X e´ associado com algum experimento nos quais n tentativas de Bernoulli independentes sa˜o executadas e X representa o nu´mero de sucessos que ocorrer em n experimentos. Note que a v.a. Bernoulli e´ justamente uma v.a. binomial com paraˆmetros (1, p). Exemplo 2.7.1. Uma fonte de bina´rios gera os digitos 1 e 0 aleatoriamente com proba- bilidade 0.6 e 0.4 respectivamente. (a) Qual a probabilidade de dois 1s e treˆs 0s ocorrerem em uma sequeˆncia de cinco digitos; (b) Qual a probabilidade que pelo menos treˆs 1s ocorram em uma sequeˆncia de cinco digitos. Exemplo 2.7.2. Uma moeda honesta e´ lanc¸ada 10 vezes. Calcule a probabilidade de ocorrer 5 ou 6 caras. 2.7.3 Distribuic¸a˜o de Poisson Uma v.a. X e´ chamada de v.a. de Poisson com paraˆmetro λ(> 0) se sua fmp e´ dada por pX(k) = P (X = k) = e −λλ k k! k = 0, 1, ... A fda correspondente de X e´ FX(x) = e −λ n∑ k=0 λk k! n ≤ x < n+ 1 A me´dia e a variaˆncia de uma v.a. de Poisson X sa˜o µX = E(X) = λ σ2X = V ar(X) = λ A v.a. de Poisson possui uma gama enorme de aplicac¸o˜es em diversas a´reas porque ela pode ser usada como uma aproximac¸a˜o para uma v.a. binomial com paraˆmetros (n, p) quando n e´ grande e p e´ suficientemente pequeno de forma que np e´ de um tamanho moderado. E´ fa´cil provar que ( n k ) pk(1− p)1−k ≈ e−λλ k k! Alguns exemplos de uma v.a. de Poisson sa˜o: 14 1. O nu´mero de chamadas telefonicas chegando a` um centro de comutac¸a˜o durante va´rios intervalos de tempo; 2. O nu´mero de erros de impressa˜o em uma pa´gina de um livro; 3. o nu´mero de clientes entrando em um banco durante va´rios intervalos de tempo. Exemplo 2.7.3. Um canal de transmissa˜o de ru´ıdo tem probabilidade de erro por digito de p=0.01. (a) Calcule a probabilidade de receber mais de um erro em 10 digitos. (b) Repita (a), usando a aproximac¸a˜o de Poisson. Exemplo 2.7.4. O nu´mero de chamadas telefoˆnicas chegando em um painel de comando durante um per´ıodo de 10 minutos e´ conhecido como uma v.a. de Poisson X com λ = 2. (a) Calcule a probabilidade que mais de treˆs chamadas cheguem durante um per´ıodode 10 minutos. (b) Calcule a probabilidade que nenhuma chamada chegue durante o per´ıodo de 10 minutos. 2.7.4 Distribuic¸a˜o Uniforme Uma v.a. X e´ chamada v.a. uniforme sobre (a, b) se sua fdp e´ dada por fX(x) = { 1 b−a a < x < b 0 caso contra´rio A fda correspondente de X e´ FX(x) = 0 x ≤ a x−a b−a a < x < b 1 x ≥ b A me´dia e a variaˆncia de uma v.a. uniforme X sa˜o µX = a+ b 2 σ2X = (b− a)2 12 Uma v.a. X e´ frequentemente usada quando na˜o temos nenhum conhecimento pre´vio da fda e todos os valores cont´ınuos em algum intervalo sa˜o igualmente prova´veis. 2.7.5 Distribuic¸a˜o Exponencial Uma v.a. X e´ chamada v.a. exponencial com paraˆmetro λ(> 0) se sua fdp e´ dada por fX(x) = { λe−λx x > 0 0 x < 0 A fda corespondente de X e´ fX(x) = { 1− e−λx x ≥ 0 0 x < 0 15 A me´dia e a variaˆncia de uma v.a. exponencial X sa˜o µX = 1/λ σ2X = 1/λ 2 Exemplo 2.7.5. Assuma que o tempo de uma chamada telefoˆnica em minutos e´ uma v.a. exponencial X com paraˆmetro λ = 1/10. Se algue´m chega a uma cabine de telefone pouco antes de sua chegada, encontre a probabilidade de que voceˆ tera´ que esperar (a) menos que 5 minutos, e (b) entre 5 e 10 minutos. 2.7.6 Distribuic¸a˜o Normal (ou Gaussiana) Uma v.a. X e´ chamada v.a. normal se sua fdp e´ dada por fX(x) = 1√ 2piσ e−(x−µ) 2/2σ2 A fda correspondente de X e´ FX(x) = 1√ 2piσ ∫ x −∞ e−(ξ−µ) 2/(2σ2)dξ = ∫ (x−µ)/σ) −∞ e−ξ 2/2dξ (2.28) Esta integral na˜o pode ser resolvida em uma forma fechada e deve ser resolvida nu- mericamente. E´ conveniente usar a func¸a˜o Φ(z), definida como Φ(z) = 1√ 2pi ∫ z −∞ e−ξ 2/2dξ para ajudar a resolver o valor de FX(x). Enta˜o, a eq. 2.28 pode ser escrita como FX(x) = Φ ( x− µ σ ) Note que Φ(−z) = 1− Φ(z). A me´dia e a variaˆncia de uma v.a. normal X sa˜o µX = µ σ2X = σ 2 Usamos a notac¸a˜o N(µ, σ2) para denotar que X e´ uma v.a. normal com me´dia µ e variaˆncia σ2. Uma v.a. normal Z com me´dia zero e variaˆncia um - isto e´, Z = N(0, 1) - e´ chamada de v.a. normal padra˜o. Exemplo 2.7.6. Uma linha de produc¸a˜o fabrica resistores de 1000-ohm (Ω) que tem toleraˆncia de 10%. Seja X a v.a. que denota a resisteˆncia do resistor. Assumindo que X e´ uma v.a. normal com me´dia 1000 e variaˆncia 2500, calcule a probabilidade de um resistor escolhido aleatoriamente seja rejeitado. 16 2.8 Distribuic¸a˜o Condicional Ja´ vimos que a probabilidade condicional de um evento A dado o evento B e´ definido como P (A|B) = P (A ∩B) P (B) P (B) > 0 A fda condicional FX(x|B) de uma v.a. X dado o evento B e´ definido por FX(x|B) = P (X ≤ x|B) = P{(X ≤ X) ∩B} P (B) A fda condicional FX(x|B) tem as mesmas propriedades de FX(x).Em particular, FX(−∞|B) = 0 FX(∞|B) = 1 P (a < X ≤ b|B) = FX(b|B)− FX(a|B) Se X e´ uma v.a. discreta, enta˜o a fmp condicional pX(xk|B) e´ definida como pX(xk|B) = P (X = xk|B) = P{(X = xk) ∩B} P (B) Se X e´ uma v.a. cont´ınua, enta˜o a fdp condicional fX(x|B) e´ definida como fX(x|B) = dFX(x|B) dx 2.9 Exerc´ıcios 1. A probabilidade de um bem sucedido lanc¸amento de foguete e´ igual a 0,8. Suponha que tentativas de lanc¸amento sejam feitas ate´ que tenham ocorrido 3 lanc¸amentos bem sucedidos. Qual o nu´mero me´dio de tentativas para a ocorreˆncia dos 3 lanc¸amentos bem sucedidos? 2. Considere a v.a discreta X que tem como fmp pX(x) = ( 1 2 )xk ;xk = 1, 2, 3, ... Seja A = {ζ;X(ζ) = 1, 3, 5, 7, ...}. Calcule P (A). 3. Considere a func¸a˜o dada por p(x) = { k x2 ;x = 1, 2, 3, ... 0, caso contrario onde k e´ uma constante. Calcule o valor de k tal que p(x) pode ser a fmp de uma v.a discreta X. 4. Sabe-se que o disquete produzido por uma empresa A sera´ defeituoso com proba- bilidade 0.01. A empresa vende o disquete em pacotes de 10 e oferece a garantia de substituic¸a˜o que, no ma´ximo, 1 dos 10 discos esta´ com defeito. Calcule a probabili- dade que um pacote comprado tera´ que ser substituido. 17 5. Um sistema de transmissa˜o digital tem uma probabilidade de erro de 10−6 por d´ıgito. Calcule a probabilidade de 3 ou mais erros em 106 d´ıgitos usando a aproximac¸a˜o da Distribuic¸a˜o de Poisson. 6. Sabe-se que o tempo (em horas) entre consecutivos acidentes de tra´fego pode ser descrito por uma v.a exponencial X com paraˆmetro λ = 1/60. Calcule (a) P (X ≤ 60), (b) P (X > 120); e (c) P (10 < X ≤ 100). 7. Dados Bina´rios sa˜o transmitidos atrave´s de um canal de ru´ıdos em blocos de 16 d´ıgitos bina´rios. A probabilidade que um d´ıgito recebido e´ em erro como resultado do canal de ru´ıdo e´ 0.01. Assuma que os erros ocorridos em va´rias posic¸o˜es d´ıgito dentro de um bloco sa˜o independentes. (a) Calcule a me´dia e a variaˆncia do nu´mero de erros por bloco. (b) Calcule a probabilidade que o nu´mero de erros por blocos e´ maior ou igual a 4. 8. Seja a v.a cont´ınua X que denota o peso ( em libras) de um pacote. O conjunto imagem do peso do pacote e´ entre 45 e 60 libras. (a) Determine a probabilidade que um pacote ter peso maior que 50 libras. (b) Calcule a me´dia e a variaˆncia de peso dos pacotes. dica: Assuma que X e´ uma distribuic¸a˜o uniforme (45,60). 9. Em uma produc¸a˜o de chips de memoria de computador, a empresa A produz um chip com defeito para cada nove chips bons. Seja X o tempo para falha (em meses) dos chips. Sabendo que X e´ uma v.a exponencial com paraˆmetro λ = 1/2 para um chip defeituoso e λ = 1/10 para um chip bom. Calcule a probabilidade que um chip comprado aleatoriamente ira´ falhar antes de (a) seis meses de uso; (b) um ano de uso. 10. Seja X a v.a denota o nu´mero de componentes defeituosos em um amostra aleato´ria de n componentes, selecionado sem reposic¸a˜o de um total de N componentes, r das quais esta˜o com defeitos. A v.a X e´ conhecida como a v.a hipergeome´trica com paraˆmetros (N, r, n). (a) Calcule a fmp de X. (b) Calcule a me´dia e a variaˆncia de X. Dica: Para Achar E(X), note que: ( r x ) = r x ( r − 1 x− 1 ) e ( N n ) = n∑ x=0 ( r x )( N − r n− x ) Para encontrar a V ar(X), primeiro calcule E[X(X − 1)]. 11. Um lote de 100 fus´ıveis e´ inspecionado pelo seguinte processo: cinco fus´ıveis sa˜o selecionados aleatoriamente, e se todos cinco ”enchem”a amperagem especificada, o lote e´ aceito. Suponha que o lote contenha 10 fus´ıveis defeituosos. Calcule a probabilidade de aceitac¸a˜o do lote. Dica: Seja X a v.a igual ao nu´mero de fus´ıveis defeituosos na amostra de 5 e use o resultado do problema anterior. 18 12. Suponha que a probabilidade que um bit transmitido atrave´s de um canal de co- municac¸a˜o digital e recebido com erro e´ 0.1. Assumindo que as transmisso˜es sa˜o eventos independentes, calcule a probabilidade que o terceiro erro ocorra no 10o bit. 19 Cap´ıtulo 3 Varia´veis Aleato´rias Multidimensionais 3.1 Introduc¸a˜o Em muitas aplicac¸o˜es e´ importante estudar duas ou mais v.a.’s definidas no mesmo espac¸o amostral. Neste cap´ıtulo, no´s primeiro consideraremos o caso de duas v.a.’s com dis- tribuic¸o˜es associadas e algumas propriedades, tal como independencia de v.a.’s. Estes conceitos sa˜o enta˜o extendidos para o caso de va´rias v.a.’s definidas em um mesmo espac¸o amostral. 3.2 Varia´veis Aleato´rias Bidimensionais 3.2.1 Definic¸a˜o Seja S o espac¸o amostral de um experimento aleato´rio. Seja X e Y duas v.a.’s. Enta˜o o par (X, Y ) e´ chamado de v.a. bidimensional (ou vetor aleato´rio bidimensional), se cada X e Y associam um nu´mero real com cada elemento de S. Assim, a v.a. bidimensional (X, Y ) pode ser considerado como uma func¸a˜o que para cada ponto ζ em S associa um ponto (x, y) no plano. O contra-domı´nio de uma v.a. bidimensional (X, Y ) e´ denotado por Rxy e definido por Rxy = {(x, y); ζ ∈ S e X(ζ) = x, Y (ζ)= y} Se a v.a.’s X e Y sa˜o cada uma, por si mesmas, v.a.’s discretas, enta˜o (X, Y ) e´ chamada v.a. bidimensional discreta. Similarmente, se X e Y sa˜o cada uma, por si mesmas, v.a.’s cont´ınuas, enta˜o (X, Y ) e´ chamada v.a. bidimensional cont´ıua. Se X ou Y e´ discreta e a outra e´ cont´ınua, enta˜o (X, Y ) e´ chamada v.a. bidimensional mista. Exemplo 3.2.1. Considere um experimento de lanc¸ar uma moeda honesta duas vezes. Seja (X, Y ) uma v.a. 2D, onde X e´ o nu´mero de caras que ocorre nos dois lanc¸amentos e Y e´ o nu´mero de coroas que ocorre nos dois lanc¸amentos. Calcule P (X = 2, Y = 0), P (X = 0, Y = 2), P (X = 1, Y = 1) 20 3.3 Func¸a˜o de Distribuic¸a˜o Conjunta 3.3.1 Definic¸a˜o A func¸a˜o de distribuic¸a˜o acumulada conjunta (fda conjunta) de X e Y , denotada por FXY (x, y), e´ a func¸a˜o definida por FXY (x, y) = P (X ≤ x, Y ≤ y) (3.1) O evento (X ≤ x, Y ≤ y) na equac¸a˜o 3.1 e´ equivalente ao evento A ∩ B, onde A e B sa˜o os eventos definidos por A = {ζ ∈ S;X(ζ) ≤ x} e B = {ζ ∈ S;Y (ζ) ≤ y} e P (A) = FX(x) e P (B) = FY (y) Assim, FXY (x, y) = P (A ∩B) Se, para valores particulares de x e y, A e B sa˜o eventos independentes de S, enta˜o FXY (x, y) = P (A ∩B) = P (A)P (B) = FX(x)FY (y) Duas v.a.s X e Y sera˜o chamadas independentes se FXY (x, y) = FX(x)FY (y) para todos os valores de x e y. 3.3.2 Propriedades de FXY (x, y) A fda conjunta de duas v.a.’s possuem muitas propriedades ana´logas a`s das fda de uma v.a. simples. • 0 ≤ FXY (x, y) ≤ 1; • Se x1 ≤ x2 e y1 ≤ y2 enta˜o FXY (x1, y1) ≤ FXY (x2, y1) ≤ FXY (x2, y2) e FXY (x1, y1) ≤ FXY (x1, y2) ≤ FXY (x2, y2) • limx→∞;y→∞ FXY (x, y) = FXY (∞,∞) = 1; • limx→−∞ FXY (x, y) = FXY (−∞, y) = 0; • limy→−∞ FXY (x, y) = FXY (x,−∞) = 0 • limx→a+ FXY (a+, y) = FXY (a, y); • limy→b+ FXY (x, b+) = FXY (x, b); • P (x1 < X ≤ x2, Y ≤ y) = FXY (x2, y) − FXY (x1, y); P (X ≤ x, y1 < Y ≤ y2) = FXY (x, y2)− FXY (x, y1); 21 3.3.3 Func¸a˜o de Distribuic¸a˜o Marginal Visto que lim y→∞ (X ≤ x, Y ≤ y) = (X ≤ x, Y ≤ ∞) = (X ≤ X) desde que a condic¸a˜o y ≤ ∞ e´ sempre satisfeita. Enta˜o lim y→∞ FXY (x, y) = FXY (x,∞) = FX(x) (3.2) Similarmente, lim x→∞ FXY (x, y) = FXY (∞, y) = FY (y) (3.3) As fda’s FX(x) e FY (y), quando obtidas pelas equac¸o˜es 3.2 e 3.3, sa˜o referidas como as fda’s marginais de X e Y respectivamente. Exemplo 3.3.1. A fda conjunta de uma v.a. 2D e´ dada por FXY (x, y) = { (1− eαx)(1− e−βy) x ≥ 0; y ≥ 0;α, β > 0 0 caso contra´rio (a) Calcule as fda’s marginais de X e Y . (b) Mostre que X e Y sa˜o independentes. (c) Calcule P (X ≤ 1, Y ≤ 1), P (X ≤ 1), P (Y > 1), P (X > x, Y > y) 3.4 V.A. Discreta - FMP Conjunta 3.4.1 FMP Conjunta Seja (X, Y ) uma v.a. 2D discreta e suponha que (X, Y ) assumam os valores (xi, yj) para um certo conjunto de inteiros i e j. A func¸a˜o pXY = P (X = xi, Y = yj) e´ chamada a func¸a˜o massa de probabilidade conjunta (fmp conjunta) de (X, Y ). 3.4.2 Propriedades de pXY (xi, yj) 1. 0 ≤ pXY (xi, yj) ≤ 1; 2. ∑ xy ∑ xy pXY (xi, yj) = 1; 3. P [(X, Y ) ∈ A] = ∑∑(xi,yj)∈RApXY (xi, yj), onde o somato´rio e´ sobre os pontos (xi, yj) no contra-domı´nio RA correspondente ao evento A. A fda conjunta de uma v.a. 2D (X, Y ) e´ dada por FXY (x, y) = ∑ xi≤x ∑ yj≤y pXY (xi, yj) 22 3.4.3 FMP Marginal Suponha que para um valor fixo X = xi, a v.a. Y pode assumir apenas os poss´ıveis valores yj (j = 1, 2, ..., n). Enta˜o P (X = xi) = pX(xi) = ∑ yi pXY (xi, yj) onde o somato´rio e´ tomado sobre todos os pares (xi, yj) com xi fixo. Similarmente, P (Y = yj) = pY (yj) = ∑ xi pXY (xi, yj) onde o somato´rio e´ tomado sobre todos os pares (xi, yj) com yj fixo. As fmp’s pX(xi) e pY (yj) sa˜o chamadas de fmp’s marginais de X e Y , respectivamente. 3.4.4 Varia´veis Aleato´rias Independentes Se X e Y sa˜o v.a.’s independentes, enta˜o pXY (xi, yj) = pX(xi)pY (yj) Exemplo 3.4.1. Dois dados honestos sa˜o jogados. Considere uma v.a. 2D (X, Y ). Seja X = 0 ou 1 conforme o primeiro dado mostre um nu´mero par ou ı´mpar de pontos. Similarmente, seja Y = 0 ou 1 conforme o segundo dado. (a) Encontre o contra-domı´nio RXY de (X, Y ); (b) Calcule a fmp’s conjuntas de (X, Y ). Exemplo 3.4.2. Considere um canal de comunicac¸a˜o bina´rio mostrado na figura Seja (X, Y ) a v.a. 2D onde X e´ a entrada do canal e Y e´ a saida do canal. Seja P (X = 0) = 0.5 e P (Y = 1|X = 0) = 0.1, e P (Y = 0|X = 1) = 0.2. (a)Calcule a fmp conjunta de (X, Y ); (b)Encontre a fmp’s marginais de X e de Y ; (c)X e Y sa˜o independentes? 23 3.5 Varia´veis Aleato´rias Cont´ınuas - FDP Conjunta 3.5.1 Func¸a˜o Densidade de Probabilidade Conjunta Seja (X, Y ) uma v.a. 2D cont´ınua com fda FXY (x, y). A func¸a˜o fXY (x, y) = ∂2fXY (x, y) ∂x∂y (3.4) e´ chamada func¸a˜o densidade de probabilidade conjunta de (X, Y ). Integrando a Eq. 3.4, obtemos FXY (x, y) = ∫ x −∞ ∫ y −∞ fXY (ξ, η)dηdξ 3.5.2 Propriedades de fXY (x, y) 1. fXY (x, y) ≥ 0; 2. ∫∞ −∞ ∫∞ −∞ fXY (x, y)dydx = 1; 3. fXY (x, y) e´ cont´ınua para todos os valores de x e y exceto em um conjunto finito de pontos; 4. P [(X, Y ) ∈ A] = ∫ ∫ RA fXY (x, y)dydx 5. P (a < X ≤ b, c < Y ≤ d) = ∫ d c ∫ b a fXY (x, y)dxdy Visto que P (X = a) = 0 = P (Y = c), segue-se que P (a < X ≤ b, c < Y ≤ d) = P (a ≤ X ≤ b, c ≤ Y ≤ d) = P (a ≤ X < b, c ≤ Y < d) = P (a < X < b, c < Y < d) = ∫ d c ∫ b a fXY (x, y)dxdy 3.5.3 FDP Marginal Pela Eq. 3.2, FX(x) = FXY (x,∞) = ∫ x −∞ ∫ ∞ −∞ fXY (ξ, η)dηdξ Enta˜o, fX(x) = dFX(x) dx = ∫ ∞ −∞ fXY (x, η)dη ou fX(x) = ∫ ∞ ∞ fXY (x, y)dy (3.5) Similarmente, fY (y) = ∫ ∞ −∞ (x, y)dx (3.6) As fdp’s fX(x) e fY (y), quando obtidas pelas equac¸o˜es 3.5 e 3.6, sa˜o chamadas de fdp’s marginais de X e de Y , respectivamente. 24 3.5.4 Varia´veis Aleato´rias Independentes Se X e Y sa˜o independentes, temos FXY (x, y) = FX(x)FY (y) Enta˜o ∂2FXY (x, y) ∂x∂y = ∂ ∂x FX(x) ∂ ∂y FY (x) ou fXY (x, y) = fX(x)fY (Y ) (3.7) Assim, dizemos que duas v.a.’s X e Y sa˜o independentes se e somente se a Eq. 3.7 e´ satisfeita. Exemplo 3.5.1. A fdp conjunta de uma v.a. 2D (X, Y ) e´ dada por fXY (x, y) = { k(x+ y) 0 < x < 2, 0 < y < 2 0 caso contra´rio onde k e´ uma constante. (a)Calcule o valor de k; (b) Encontre as fdp’s marginais de X e Y ; (c) X e Y sa˜o independentes? Exemplo 3.5.2. Suponha que seja selecionado um ponto aleatoriamente dentro de um c´ırculo com raio R. Se colocarmos o centro do c´ırculo na origem e definir X e Y para as coordenadas dos pontos escolhidos, enta˜o (X, Y ) e´ uma v.a. uniforme 2D com fdp conjunta dada por fXY (x, y) = { k x2 + y2 ≤ R2 0 x2 + y2 > R2 onde k e´ uma constante. (a) Determine o valor de k. (b) Calcule as fdp’s marginais de X e Y . (c) Encontrar a probabilidade da distaˆncia entre a origem e o ponto selecionado na˜o ser maior do que a. 3.6 Distribuic¸o˜es Condicionais 3.6.1 Func¸a˜o Massa de Probabilidade Condicional Se (X, Y ) e´ uma v.a. 2D com fmp conjunta pXY (x, y), enta˜o a fmp condicional de Y dado X = xi, e´ definido por pY |X(yj|xi) = pXY (xi, yj) pX(xi) pX(xi) > 0. Similarmente, podemos definir pX|Y (xi|yj) como pX|Y (xi|yj) = pXY (xi, yj) pY (yj) pY (yj) > 0. 25 3.6.2 Propriedades de pY |X(yj|xi) 1. 0 ≤ pY |X(yj|xi) ≤ 1; 2. ∑ yj pY |X(yj|xi) = 1. Observe que se X e Y sa˜o independentes, enta˜o pY |X(yj|xi) = pY (yj) e pX|Y (xi|yj) = pX(xi) 3.6.3 Func¸a˜o Densidade de Probabilidade Condicional Se (X, Y ) e´ uma v.a. 2D com fdp conjunta fXY (x, y), enta˜o a fdp condicional de Y , dado que X = xi, e´ definido por fY |X(y|x) = fXY (x, y) fX(x) fX(x) > 0. Similarmente, podemos definir fX|Y (x|y) fX|Y (x|y) = fXY (x, y) fY (y) fY (y) > 0. 3.6.4Propriedades de fY |X(x|y) 1. fY |X(y|x) ≥ 0; 2. ∫∞ −∞ fY |Xdy = 1 Como definido no caso discreto, se X e Y sa˜o independentes, enta˜o fY |X(x, y) = fY (y) e fX|Y (x|y) = fX(x) Exemplo 3.6.1. Considere a v.a. 2D (X, Y ) com fdp conjunta fXY (x, y) = { k(x+ y) 0 < x < 2, 0 < y < 2 0 caso contra´rio (a) Encontre as fdp’s condicionais fY |X(y|x) e fX|Y (x|y); (b) Encontre P (0 < Y < 1/2|X = 1). Exemplo 3.6.2. A fdp conjunta da v.a. (X, Y ) e´ dada por fXY (x, y) = { 1 y e−x/ye−y x > 0, y > 0 0 caso contra´rio (a) Mostre que fXY (x, y) satisfaz a propriedade (2) das fdp’s; (b) Calcule P (X > 1|Y = y). 26 3.7 Coeficientes de Covariaˆncia e Correlac¸a˜o A (k, n)-e´simo momento de uma v.a. bidimensional (X, Y ) e´ definido por mkn = E(X kY n) = { ∑ yj ∑ xi xki y n j pXY (xi, yj) caso discreto∫∞ −∞ ∫∞ −∞ x kynfXY (x, y)dxdy caso cont´ınuo Se n = 0, obtemos o k-e´simo momento de X e se k = 0 obtemos o n-e´simo momento de Y . Assim, m10 = E(X) = µX e m01 = E(Y ) = µY Se (X, Y ) e´ uma v.a. bidimensional discreta, enta˜o µX = ∑ yj ∑ xi xipXY (xi, yj) = ∑ xi xi ∑ yj pXY (xi, yj) = ∑ xi xipX(xi) Da mesma forma, µY = ∑ xi ∑ yj yjpXY (xi, yj) = ∑ yj yj [∑ xi pXY (xi, yj) ] = ∑ yj yjpY (yj) Similarmente, temos E(X2) = ∑ yj ∑ xi x2i pXY (xi, yj) = ∑ xi x2i pX(xi) E(Y 2) = ∑ yj ∑ xi y2jpXY (xi, yj) = ∑ xi y2jpX(xi) Se (X, Y ) e´ uma v.a. bidimensional cont´ınua, enta˜o µX = ∫ ∞ −∞ ∫ ∞ −∞ xfXY (x, y)dxdy = ∫ ∞ −∞ x [∫ ∞ −∞ fXY (x, y)dy ] dx = ∫ ∞ −∞ xfX(x)dx 27 E, µY = ∫ ∞ −∞ ∫ ∞ −∞ yfXY (x, y)dxdy = ∫ ∞ −∞ y [∫ ∞ −∞ fXY (x, y)dx ] dy = ∫ ∞ −∞ yfY (y)dy Similarmente, µX = ∫ ∞ −∞ ∫ ∞ −∞ x2fXY (x, y)dxdy = ∫ ∞ −∞ x2fX(x)dx µY = ∫ ∞ −∞ ∫ ∞ −∞ y2fXY (x, y)dxdy = ∫ ∞ −∞ y2fY (y)dx A variaˆncia de X e de Y sa˜o facilmente obtidas. O (1, 1)-e´simo momento conjunto de (X, Y ) m11 = E(XY ) e´ chamado de correlac¸a˜o de X e Y . Se E(XY ) = 0, enta˜o dizemos que X e Y sa˜o ortogonais. A covariaˆncia de X e Y , denotado por Cov(X, Y ) ou σXY e´ definido como Cov(X, Y ) = σXYE[(X − µX)(Y − µY )] (3.8) Expandindo a Eq. 3.8, obtemos Cov(X, Y ) = E(XY )− E(X)E(Y ) (3.9) Se Cov(X, Y ) = 0, enta˜o dizemos que X e Y sa˜o na˜o-correlatados. Da Eq. 3.9, vemos que X e Y sa˜o na˜o-correlatados se E(XY ) = E(X)E(Y ). Note que se X e Y sa˜o independentes, enta˜o pode ser mostrada que elas sa˜o de- scorrelatadas, mas o oposto na˜o e´ verdeiro em geral: isto e´, o fato de X e Y serem descorrelatadas, em geral, na˜o implica na sua independeˆncia. O coeficiente de correlac¸a˜o, denotado por ρ(X, Y ) ou ρXY e´ definido por ρ(X, Y ) = Cov(X, Y ) σXσY = σXY σXσY Pode ser provado que |ρXY | ≤ 1. Note que o coeficiente de correlac¸a˜o de X e Y e´ uma medida de dependeˆncia linear entre X e Y . Exemplo 3.7.1. Suponha que a v.a. 2D (X, Y ) e´ uniformemente distribuida sobre um c´ırculo unita´rio. (a) X e Y sa˜o independentes? (b) X e Y sa˜o correlatados? Exemplo 3.7.2. Seja (X, Y ) uma v.a. 2D com fdp conjunta fXY (x, y) = x2 + y2 4pi e−(x 2+y2)/2 ∞ < x <∞,−∞ < y <∞ Mostre que X e Y na˜o sa˜o independentes mas sa˜o descorrelatadas. 28 3.8 Me´dia e Variaˆncia Condicionais SE (X, Y ) e´ uma v.a. 2D discreta com fmp conjunta pXY (xi, yj), enta˜o a me´dia condicional (ou esperanc¸a condicional) de Y dado X = xi, e´ defeinido por µY |xi = E(Y |xi) = ∑ yj yjpXY (yj|xi) A variaˆncia condicional de Y dado que X = xi e´ definido por σ2Y |xi = V ar(Y |xi) = E[(Y − µY |xi)2|xi] = ∑ yi (yi − µY |xi)2pY |xi(Y |xi) a qual pode ser reduzida para V ar(Y |xi) = E(Y 2|xi)− [E(Y |xi)]2 A me´dia de X dado Y = yj e a variaˆncia de X dado Y = yj sa˜o definidas por expresso˜es similares. Note que a me´dia condicional de Y dado X = xi, e´ uma func¸a˜o de xi somente. Similarmente, a me´dia condicional de X dado Y = yj e´ uma func¸a˜o de yj. Se (X, Y ) e´ uma v.a. 2D cont´ınua com fdp conjunta fXY (x, y), a me´dia condicional de Y dado X = x e´ definido por µY |x = E(Y |x) = ∫ ∞ ∞ yfY |X(y, x)dy A variaˆncia condicional de Y dado X = x e´ definida como σY |x = V ar(Y |x) = ∫ ∞ −∞ (y − µY |x)2fY |X(y|x)dy Que pode ser reduzida para V ar(Y |x) = E(Y 2|x)− [E(Y |x)]2 Exemplo 3.8.1. A fdp conjunta de uma v.a. 2D (X, Y ) dada por fXY (x, y) = { k 0 < y ≤ x < 1 0 caso contra´rio (a) Calcule as fdp’s marginais de X e Y . (b) Encontre as fdp’s condicionais fY |X(y|x) e fX|Y (x|y) (c) Calcule as me´dias condicionais E(Y |x) e E(X|y). (d) Calcule as variaˆncias condicionais V ar(Y |x) e V ar(X|y). 3.9 Exerc´ıcios 1. Considere um experimento de tirar aleatoriamente treˆs bolas de uma urna contendo duas vermelhas, treˆs brancas e quatro bolas azuis. Seja (X, Y ) uma v.a bidimen- sional onde X e Y denotam, respectivamente, o nu´mero de bolas vermelhas e de bolas brancas selecinadas. (a) Calcule a imagem de (X, Y ). (b) Calcule as fmp’s conjuntas de (X, Y ). (c) X e Y sa˜o independentes? 29 2. A fmp de uma v.a bidimensional (X, Y ) e´ dada por pxy(xi, yj) = { k(2xi + yj), xi = 1, 2; yj = 1, 2 0, caso contra´rio onde k e´ uma constante. (a) Calcule o valor de k. (b) Calcule as fmp’s marginais de X e Y . (c) X e Y sa˜o independentes? 3. Considere um experimento de jogar duas moedas treˆs vezes. A moeda A e´ honesta, mas a moeda B na˜o e´ honesta, com P (H) = 1/4 e P (T ) = 3/4. Considere uma v.a bidimensional (X, Y ), onde X denota o nu´mero de caras resultantes da moeda A e Y denota o nu´mero de caras resutantes da moeda B. (a) Ache a imagem de (X, Y ). (b) Calcule as fmp’s conjuntas de (X, Y ). (c) Calcule P (X = Y ), P (X > Y ) e P (X + Y ≤ 4). 4. Um elaborador tem usado dois processos de produc¸a˜o diferentes para fabricar chips de memo´ria de computador. Seja (X, Y ) uma v.a bidimensional onde X denota o tempo de falha do chip criado pelo processo A e Y denota o tempo de falha do chip criado pelo processo B. Assuma que a fdp de (X, Y ) e´ fxy(xi, yj) = { abe−(ax+by), x > 0; y > 0 0, caso contra´rio onde a = 10−4 e b = 1.2(10−4), determine P (X > Y ). 5. Considere a v.a bidimensional (X, Y ) do problema 2. (a) calcule as fmp’s condicionais pY |X(yj|xi) e pX|Y (xi|yj). (b) Calcule P (Y = 2|X = 2) e P (X = 2|Y = 2). 6. Seja (X,Y) uma v.a bidimensional. Se X e Y sa˜o independentes, mostre que X e Y sa˜o descorrelatados. 7. Suponha que a fmp conjunta de uma v.a bidimensional (X,Y) e´ dada por pxy(xi, yj) = { 1/3, (0, 1), (1, 0), (2, 1) 0, caso contra´rio (a) X e Y sa˜o independentes? (b) X e Y sa˜o descorrelatadas? 8. Seja (X,Y) uma v.a bidimensional com fdp conjunta fxy(x, y) = x2 + y2 4pi e−(x 2+y2)/2 −∞ < x <∞, −∞ < x <∞ Mostre que X e Y na˜o sa˜o independentes mas sa˜o descorrelatadas. 30 9. Considere a v.a bidimensional (X,Y) do problema 2. Calcule a me´dia e a variaˆncia condicionais de Y dado xi = 2. 10. Considere um experimento de jogar uma moeda honesta treˆs vezes. Seja (X,Y) a v.a bidimensional onde X denota o nu´mero de caras nos primeiros dois lanc¸amentos e Y denota o nu´mero de caras no terceiro lanc¸amento. (a) Ache a imagem de X, Y e de (X,Y). (b) Calcule (i) P (X ≤ 2, Y ≤ 1); (ii) P (X ≤ 1, Y ≤ 1); e (iii) P (X ≤ 0, Y ≤ 0). 11. A fdp conjunta de (X,Y) e´ dada por fxy(x, y) = { e−(x+y), x > 0, y > 0 0, caso contra´rio (a) X e Y sa˜o independentes? (b) Calcule as fdp’s condicionais de X e Y. 31 Cap´ıtulo 4 Func¸a˜o de uma Varia´vel Aleato´ria 4.1 Introduc¸a˜o Neste cap´ıtulo estudaremos um pouco sobre os conceitos ba´sicos de func¸o˜es de varia´veis aleato´rias e investigaremos ovalor esperado de uma certa func¸a˜o de uma varia´vel aleato´ria. 4.2 Func¸o˜es de Uma Varia´vel Aleato´ria 4.2.1 Varia´vel Aleato´ria g(X) Dado uma v.a. X e uma func¸a˜o g(X), a expressa˜o Y = g(X) define uma nova v.a. Y . Com y um nu´mero dado, denotamos Dy o subconjunto de RX (contra-domı´nio de X) tal que g(x) ≤ y. Enta˜o (Y ≤ y) = [g(X) ≤ y] = (X ∈ Dy) onde (X ∈ Dy) e´ o envento consistindo de todos os resultados ζ tal que o ponto X(ζ) ∈ DY . Enta˜o FY (y) = P (Y ≤ y) = P [g(X) ≤ y] = P (X ∈ Dy) Se X e´ uma v.a. cont´ınua com fdp fX(x), enta˜o FY (y) = ∫ DY fX(x)dx 4.2.2 Determinac¸a˜o de fY (y) por fX(x) Seja X uma v.a. cont´ınua com fdp fX(x). Se a transformac¸a˜o y = g(x) e´ um-a-um e possui a transformac¸a˜o inversa x = g−1(y) = h(y) enta˜o a fdp de Y e´ dada por fY (y) = fX(x) ∣∣∣∣dxdy ∣∣∣∣ = fX [h(y)] ∣∣∣∣dh(y)d(y) ∣∣∣∣ 32 Note que se g(x) e´ uma func¸a˜o cont´ınua mono´tona crecente ou decrescente, enta˜o a transformac¸a˜o y = g(x) e´ uma-a-uma. Se a transformac¸a˜o y = g(x) na˜o e´ uma-a-uma, fY (y) e´ obtida como segue: Denotando as ra´ızes reais de y = g(x) por xk, isto e´ , y = g(x1) = · · · = g(xk) = · · · enta˜o fY (y) = ∑ k fX(xk) |g′(xk)| onde g′(x) e´ a derivada de g(x). Exemplo 4.2.1. Seja Y = aX + b. Determine a fdp de Y , se X e´ uma v.a. uniforme em (0, 1). Exemplo 4.2.2. Seja Y = X2. Calcule a fdp de Y se X e´ uma v.a. uniforme em (1, 2). 4.3 Func¸a˜o de Duas Varia´veis Aleato´rias 4.3.1 Um Func¸a˜o de Duas Varia´veis Aleato´rias Dado duas v.a.’s X e Y e uma func¸a˜o g(x, y), a expressa˜o Z = g(X, Y ) define uma nova v.a. Z. Sendo z um nu´mero dado, denotamos DZ o subconjunto de RXY [contra-domı´nio de (X, Y )] tal que g(x, y) ≤ z. Enta˜o (Z ≤ z) = [g(X, Y ) ≤ z] = {(X, y) ∈ DZ} onde {(X, Y )inDZ} e´ o evento consistindo de todos os resultados ζ tal que o ponto {X(ζ), Y (ζ)}inDZ . Enta˜o FZ(z) = P (Z ≤ z) = P [g(X, Y ) ≤ z] = P{(X, Y ) ∈ DZ} Se X e Y sa˜o v.a.’s cont´ınuas com fdp conjunta fXY (x, y), enta˜o FZ(z) = ∫ ∫ DZ fXY (x, y)dxdy 4.3.2 Duas Func¸o˜es de Duas Varia´veis Aleato´rias Dado duas v.a.’s X e Y e duas func¸o˜es g(x, y) e h(x, y), a expressa˜o Z = g(X, Y ) e W = h(X, Y ) define duas novas v.a.’s Z e W . Sendo z e w dois nu´meros dados, denotamos por DZW o subconjunto de RXY [contra-domı´nio de (X, Y )] tal que g(x, y) ≤ z e h(x, y) ≤ w. Enta˜o (Z ≤ z,W ≤ w) = [g(X, Y ) ≤ z, h(X, Y ) ≤ w] = {(X, Y ) ∈ DZW} 33 onde {(X, Y ) ∈ DZW} e´ o evento consistindo de todos os resultados poss´ıveis ζ tal que o ponto {X(ζ), Y (ζ)} ∈ DZW . Enta˜o FZW (z, w) = P (Z ≤ z,W ≤ w) = P [g(X, Y ) ≤ z, h(X, Y ) ≤ w] = P{(X, Y ) ∈ DZW} No caso cont´ınuo, temos FZW (z, w) = ∫ ∫ DZW fXY (x, y)dxdy 4.3.3 Determinando fZW (z, w) por fXY (x, y) Seja X e Y v.a.’s cont´ınuas com fdp conjunta fXY (x, y). Se a transformac¸a˜o z = g(x, y) e w = h(x, y) e´ injetiva e possui a transformac¸a˜o inversa x = q(z, w) e y = r(z, w) enta˜o a fdp conjunta de Z e W e´ dada por fZW (z, w) = fXY (x, y)|J(x, y)|−1 onde x = q(z, w), y = r(x, y), e J(x, y) = ∣∣∣∣∣ ∂g∂x ∂g∂y∂h∂x ∂h∂y ∣∣∣∣∣ = ∣∣∣∣ ∂z∂x ∂z∂y∂w ∂x ∂w ∂y ∣∣∣∣ o qual e´ o jacobiano da transformac¸a˜o. Definimos J(x, y) = ∣∣∣∣ ∂q∂z ∂q∂w∂r ∂z ∂r ∂w ∣∣∣∣ = ∣∣∣∣ ∂x∂z ∂x∂w∂y ∂z ∂y ∂w ∣∣∣∣ enta˜o |J(z, w)| = |J(x, y)|−1. Exemplo 4.3.1. A voltagem V e´ um func¸a˜o do tempo t e e´ dada por V (t) = X cos(ωt) + Y sin(ωt) na qual ω e´ uma frequencia angular constante e X = Y = N(0;σ2) e sa˜o independentes. (a) Mostre que V (t) pode ser escrita como V (t) = R(cos(ωt−Θ)) onde R = √ X2 + Y 2 e Θ = tan−1 X Y . (b) Calcule as fdp’s das v.a.’s R e Θ e mostre que R e Theta sa˜o independentes. 34 4.4 Esperanc¸a 4.4.1 Esperanc¸a de uma Func¸a˜o de Uma Varia´vel Aleato´ria A esperanc¸a de Y = g(X) e´ dada por E(Y ) = E[g(X)] = { ∑ i g(xi)pX(xi) caso discreto∫∞ −∞ g(x)fX(x)dx caso cont´ınuo 4.4.2 Esperanc¸a de uma Func¸a˜o de Mais de Uma Varia´vel Aleato´ria Seja X1, . . . , Xn n v.a.’s e seja Y = g(X1, . . . , Xn). Enta˜o E(Y ) = E[g(X)] = { ∑ x1 · · ·∑xn g(x1, . . . , xn)pX1···Xn(x1, . . . , xn) c. d.∫∞ −∞ · · · ∫∞ −∞ g(x1, . . . , xn)fX1···Xn(x1, . . . , xn)dx1 · · · dxn c. c. 4.4.3 Propriedade de Linearidade da Esperanc¸a Note que a operac¸a˜o esperanc¸a e´ linear, e temos E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(xi) onde os a′is sa˜o constantes. Se as v.a.’s X e Y sa˜o independentes, enta˜o temos E[g(X)h(Y )] = E[g(X)]E[h(Y )] A relac¸a˜o acima pode ser generalizado para um conjunto mutualmente independentes de n v.a.’s X1, . . . Xn: E [ n∏ i=1 gi(Xi) ] = n∏ i=1 e[gi(Xi)] 4.4.4 Esperanc¸a Condicional com uma Varia´vel Aleato´ria Ja´ definimos a esperanc¸a condicional de Y dado X = x , E(Y |x), o que e´, em geral, uma func¸a˜o de x, dizemos H(X). Agora H(X) e´ uma func¸a˜o da v.a. X; isto e´, H(X) = E(Y |x) Assim, E(Y |x) e´ uma func¸a˜o da v.a. X. Note que E(Y |x) tem a seguinte propriedade E[E(Y |X)] = E(Y ). Exemplo 4.4.1. Seja X uma v.a. uniforme sobre (0, 1) e Y = eX (a)Encontre E(Y ) usando fY (y); (b)Encontre E(X) usando fX(x). Exemplo 4.4.2. Seja X e Y definidos por X = cos Θ e Y = sin Θ onde Θ e´ uma v.a. uniformemente distribuida sobre (0, 2pi). (a) Mostre que X e Y sa˜o descorrelatadas; (b) Mostre que X e Y sa˜o independentes. 35 4.5 Func¸o˜es Geradoras de Momento 4.5.1 Definic¸a˜o A func¸a˜o geradora de momento de uma v.a. X e´ definido por MX(t) = E(e tX) = { ∑ i e txipX(xi) caso discreto∫∞ −∞ e txfX(x)dx caso cont´ınuo onde t e´ uma varia´vel real. Note que MX(t) pode na˜o existir para algumas v.a.’s. Em geral, MX(t) existira´ somente para aqueles valores de t para o qual a soma ou integral converge absolutamente. Suponha que MX(t) existe. Se expressarmos e tX formalmente e tomarmos a esperanc¸a, temos MX(t) = E(e tX) = E [ 1 + tX + 1 2! (tX)2 + · · ·+ 1 k! (tX)k + · · · ] = 1 + tE(X) + t2 2! E(X2) + · · ·+ t k k! E(Xk) + · · · Suponha que MX(t) existe. Se expressarmos e tX formalmente e tomarmos a esperanc¸a, temos MX(t) = E(e tX) = E [ 1 + tX + 1 2! (tX)2 + · · ·+ 1 k! (tX)k + · · · ] (4.1) = 1 + tE(X) + t2 2! E(X2) + · · ·+ t k k! E(Xk) + · · · (4.2) e o k-e´simo momento de X e´ dado por mk = E(X k) = MX(0) com k = 1, 2, . . ., onde M (k) X (0) = dk dtk MX(t) ∣∣∣∣ t=0 4.5.2 Func¸a˜o Geradora de Momento Conjunta A func¸a˜o geradora de momento conjunta MXY (t1, t2) de duas v.a.’s X e Y e´ definda por MXY (t1, t2) = E[e (t1X+t2Y )] onde t1 e t2 sa˜o varia´veis reais. Procedendo como na eq. 4.1, podemos estabelecer que MXY (t1, t2) = E[e (t1X+t2Y )] = ∞∑ k=0 ∞∑ n=0 tk1t n 2 k!n! E(XkY n) e o (k, n) momento conjunto de X e Y e´ dado por mkn = E(X kY n) = M (kn) XY (0, 0) onde M (kn) XY (0, 0) = ∂k+n ∂kt1∂nt2 MXY (t1, t2) ∣∣∣∣ t1=t2=0 36 Exemplo 4.5.1. Seja o momento de uma v.a. discreta X dado por E(Xk) = 0.8 k = 1, 2, ... (a)Encontre a func¸a˜o geradora de momento de X; (b)Calcule P (X = 0) e P (X = 1). Exemplo 4.5.2. Calcule a func¸a˜o geradora de momento de uma v.a. normal padra˜o X = N(0; 1) e calcule os treˆs primeiros momentos de X. 4.6 Func¸a˜o Caracter´ıstica 4.6.1 Definic¸a˜o A func¸a˜o Caracter´ıtica de uma v.a. X e´ definida por ΨX(ω) = E(e jωX = { ∑ i e jωxipX(xi) caso discreto∫∞ −∞ e jωxfX(x)dx caso cont´ınuo (4.3) quando ω e´ uma varia´vel real e j = √−1. Note que ΨX(ω) e´ obtida trocando t em MX(t) por jω se MX(t) existe. Assim, a func¸a˜o caracter´ıstica possue todas as propriedades da func¸a˜o geradora de momento. Agora, |ΨX(ω)| = ∣∣∣∣∣∑ i ejωxipX(xi) ∣∣∣∣∣ ≤∑i ∣∣ejωxi∣∣ pX(xi) = ∑ i pX(xi) = 1 <∞ para o caso discreto e |ΨX(ω)| = ∣∣∣∣∫ ∞−∞ ejωxfX(x)dx ∣∣∣∣ ≤ ∫ ∞−∞ ∣∣ejωx∣∣ fX(x)dx = ∫ ∞ −∞ fX(x)dx = 1 <∞ para o caso cont´ınuo. Dessa forma, A func¸a˜o caracter´ıstica ΨX(ω) e´ sempre definida mesmo se a func¸a˜o momento MX(t) na˜o e´. Note que ΨX(ω) da Eq. 4.3 para o caso cont´ınuo e´ a transformada de Fourier ( com o sinal de j trocado) de fX(x). Por causa deste fato, se ΨX(ω) e´ conhecida, fX(x) pode ser encontrada pela transformada de Fourier inversa; isto e´, fX(x) = 1 2pi ∫ ∞ −∞ ΨX(ω)e −jωxdω 4.6.2 Func¸o˜es Caracter´ısticas Conjuntas A func¸a˜o caracter´ıstica conjunta ΨXY (ω1, ω2) de duas v.a.’s X e Y e´ definida por ΨXY (ω1, ω2) = E[e j(ω1X+ω2Y )] = { ∑ i ∑ k e j(ω1xi+ω2yk)pXY (xi, yk) caso discreto∫∞ −∞ ∫∞ −∞ e j(ω1x+ω2y)fXY (x, y)dxdy caso cont´ınuo (4.4) onde ω1 e ω2 sa˜o varia´veis reais. 37 A expressa˜o da equac¸a˜o 4.4 para o caso cont´ınuo e´ reconhecida como a transformada de Fourier bidimensional ( com o sinal de j trocado) de fXY (x, y). Assim, da transformada de Fourier inversa, obtemos fXY (x, y) = 1 (2pi)2 ∫ ∞ −∞ ∫ ∞ −∞ ΨXY (ω1, ω2)e −j(ω1x+ω2y)dω1dω2 Das equac¸o˜es 4.3 e 4.4 vemos que ΨY (ω) = ΨXY (ω, 0) e ΨY (ω) = ΨXY (0, ω) as quais sa˜o chamadas func¸o˜es caracter´ısticas marginais. Exemplo 4.6.1 (4.59). A func¸a˜o caracter´ıstica de uma v.a. X e´ dada por ΨX(ω) = { 1− |ω|, |ω| < 1 0 |ω| > 1 Calcule a fdp de X. 38 Teoria da Probabilidade Espaço Amostral e Eventos A Noção e os Aximas da Probabilidade Definição da Frequência Relativa Definição Axiomática Propriedades Elementares da Probabilidade Eventos Igualmente Prováveis Espaço Amostral Finito Eventos Igualmente Prováveis Probabilidade Condicional Definição Regra de Bayes Probabilidade Total Eventos independentes Variáveis Aleatórias Introdução Variáveis Aleatórias Definição Eventos Definidos por Variáveis Aleatórias Função de Distribuição Definição Propriedades da FX(x) Determinação de Probabilidades pela Função de Distribuição Variáveis Aleatórias Discretas e fmp Definição Função Massa de Probabilidade Propriedades da pX(x) Variáveis Aleatórias Contínuas e fdp Definição Função Densidade de Probabilidade Propriedades de fX(x) Média e Variância Média Momento Variância Algumas Distribuições Especiais Distribuição Bernoulli Distribuição Binomial Distribuição de Poisson Distribuição Uniforme Distribuição Exponencial Distribuição Normal (ou Gaussiana) Distribuição Condicional Exercícios Variáveis Aleatórias Multidimensionais Introdução Variáveis Aleatórias Bidimensionais Definição Função de Distribuição Conjunta Definição Propriedades de FXY(x,y) Função de Distribuição Marginal V.A. Discreta - FMP Conjunta FMP Conjunta Propriedades de pXY(xi,yj) FMP Marginal Variáveis Aleatórias Independentes Variáveis Aleatórias Contínuas - FDP Conjunta Função Densidade de Probabilidade Conjunta Propriedades de fXY(x,y) FDP Marginal Variáveis Aleatórias Independentes Distribuições Condicionais Função Massa de Probabilidade Condicional Propriedades de pY|X(yj|xi) Função Densidade de Probabilidade Condicional Propriedades de fY|X(x|y) Coeficientes de Covariância e Correlação Média e Variância Condicionais Exercícios Função de uma Variável Aleatória Introdução Funções de Uma Variável Aleatória Variável Aleatória g(X) Determinação de fY(y) por fX(x) Função de Duas Variáveis Aleatórias Um Função de Duas Variáveis Aleatórias Duas Funções de Duas Variáveis Aleatórias Determinando fZW(z,w) por fXY(x,y) Esperança Esperança de uma Função de Uma Variável Aleatória Esperança de uma Função de Mais de Uma Variável Aleatória Propriedade de Linearidade da Esperança Esperança Condicional com uma Variável Aleatória Funções Geradoras de Momento Definição Função Geradora de Momento Conjunta Função Característica Definição Funções Características Conjuntas
Compartilhar