Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 EST029 – Cálculo de Probabilidade I Cap. 9 – Função Geratriz de Momentos Prof. Clécio da Silva Ferreira Depto Estatística - UFJF 2 Função Geradora de Momentos Utilidade: Vimos que podemos definir uma variável aleatória a partir de sua função densidade de probabilidade (ou função de probabilidade, no caso discreto) ou por sua função de distribuição acumulada. A função geratriz de momentos (fgm) é outra forma de identificarmos uma variável aleatória (v.a.). Isto é, uma v.a. possui uma única fgm. Por outro lado, uma fgm corresponde a uma única v.a. A fgm possui várias propriedades. 3 Definições de Momentos Momento não-centrado: Seja X uma variável aleatória e r≥0 um número inteiro. Dizemos que X tem um momento não centrado de ordem r se Xr tem esperança finita. Assim definimos o r-ésimo momento de X como E(Xr). Momento centrado: Seja X uma v.a. Então o r-ésimo momento centrado de X, onde µ é a média de X, é definido como E[(X- µ)r], caso exista. Casos particulares: O momento não centrado de ordem 1 corresponde ao valor esperado e o momento centrado de ordem 2 corresponde à variância. 4 Função Geratriz de Momentos - Definição A Função Geratriz de Momentos MX(t) da variável aleatória X é definida para todos os valores de 𝒕 ∈ ℝ como 𝑴𝑿 𝐭 = 𝑬 𝒆 𝒕𝑿 = 𝒙 𝒆𝒕𝒙𝒑(𝒙) , 𝒔𝒆 𝑿 é 𝒗. 𝒂. 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂 𝒄𝒐𝒎 𝒇𝒖𝒏çã𝒐 𝒅𝒆 𝒑𝒓𝒐𝒃𝒂𝒃𝒊𝒍𝒊𝒅𝒂𝒅𝒆 𝒑(𝒙) −∞ ∞ 𝒆𝒕𝒙𝒇(𝒙) , 𝒔𝒆 𝑿 é 𝒗. 𝒂. 𝒄𝒐𝒏𝒕í𝒏𝒖𝒂 𝒄𝒐𝒎 𝒇𝒖𝒏çã𝒐 𝒅𝒆 𝒅𝒆𝒏𝒔𝒊𝒅𝒂𝒅𝒆 𝒇(𝒙) Chama-se de Função Geratriz de Momentos porque todos os momentos de X podem ser obtidos pelo cálculo sucessivo da derivada de MX(t) e avaliando esta em t=0. Veremos isto mais adiante. 5 Exemplos Mostre que: Se X~Bernoulli(p), 𝑴𝑿 𝒕 = 𝒑𝒆 𝒕 + 𝟏 − 𝒑, 𝟎 ≤ 𝒑 ≤ 𝟏 Se X~Normal(0,1), 𝑴𝑿 𝒕 = 𝒆 𝒕 𝟐 𝟐, 𝝁 ∈ ℝ, 𝝈 > 𝟎 Se X~Poisson(λ), 𝑴𝑿 𝒕 = 𝒆 𝝀(𝒆𝒕−𝟏), 𝝀 > 𝟎 Se X~exp(λ), 𝑴𝑿 𝒕 = 𝝀 𝝀−𝒕 , 𝝀 > 𝟎 Se X~Geométrica(p), 𝑴𝑿 𝒕 = 𝒑𝒆𝒕 𝟏−(𝟏−𝒑)𝒆𝒕 , 𝟎 ≤ 𝒑 ≤ 𝟏 Se X~Uniforme(a,b), 𝑴𝑿 𝒕 = 𝒆𝒕𝒃−𝒆𝒕𝒂 𝒕(𝒃−𝒂) , 𝒂 < 𝒃 Se X~Gama(β,λ), 𝑴𝑿 𝒕 = 𝝀 𝝀−𝒕 𝜷 , 𝝀 > 𝟎, 𝜷 > 𝟎, 𝒕 < 𝝀 6 FGM e Momentos Série de Maclaurin: 𝒆𝒙 = 𝒌=𝟎 +∞ 𝒙 𝒌 𝒌! (converge para todo 𝒙 ∈ ℝ). Logo, 𝒆𝒕𝒙 = 𝒌=𝟎 +∞ (𝒕𝒙) 𝒌 𝒌! Portanto, 𝑴𝑿(𝒕) = 𝑬 𝒆 𝒕𝑿 = 𝑬 𝒌=𝟎 +∞ (𝒕𝑿) 𝒌 𝒌! = 𝟏 + 𝒕𝑬(𝑿) + 𝒕𝟐 𝟐 𝑬(𝑿𝟐) + 𝒕𝟑 𝟑! 𝑬(𝑿𝟑) + 𝒕𝟒 𝟒! 𝑬(𝑿𝟒) + ⋯+ 𝒕𝒏 𝒏! 𝑬(𝑿𝒏) + ⋯ Portanto, 𝑴𝑿 ′ 𝒕 = 𝑬(𝑿) + 𝒕𝑬(𝑿𝟐) + 𝒕𝟐 𝟐! 𝑬(𝑿𝟑) + 𝒕𝟑 𝟑! 𝑬(𝑿𝟒) + ⋯+ 𝒕𝒏−𝟏 (𝒏 − 𝟏)! 𝑬(𝑿𝒏) + ⋯ 𝑴𝑿 ′ 𝟎 = 𝑬(𝑿) 7 FGM e Momentos – Resultado Geral O m-ésimo momento não-centrado de uma v.a. X é dado pela derivada de ordemm de𝑴𝑿(𝒕) aplicada em t=0. Isto é, 𝑬 𝑿𝒎 = 𝑴𝑿 (𝒎) 𝟎 Em particular, 𝑬 𝑿 = 𝑴𝑿 ′ 𝟎 e 𝑬 𝑿𝟐 = 𝑴𝑿 ′′ 𝟎 . Sejam 𝝁𝒊 = 𝑬 𝑿 𝒊 . Logo, 𝑴𝑿 𝒕 = 𝟏 + 𝒊=𝟏 +∞ 𝝁𝒊𝒕 𝒊 𝒊! Exemplos: Calcule E(X) e V(X) pela fgm de X~Bernoulli(p) e X~N(0,1). 8 Mais propriedades da fgm 1. Combinação linear de uma v.a.: Seja X uma variável aleatória com f.g.m MX e seja Y=aX+b. Então a f.g.m de Y (MY) é dada por MY(t)= e btMX(at). Exemplo: Se Z~N(0,1) e X=μ+σZ ~N(μ, σ2). 2. Sejam as variáveis aleatórias X e Y com f.g.m MY(t) e MX(t). Se MY(t)=MX(t) para todo t, então X e Y têm a mesma distribuição de probabilidade. 3. Soma de n v.a’s independentes: Se X1, X2, ..., Xn são v.a. independentes, a fgm de 𝒁 = 𝒊=𝟏 𝒏 𝑿𝒊 é dada por MZ(t)=𝑴𝑿𝟏 𝒕 ∗ ⋯∗ 𝑴𝑿𝒏 𝒕 = 𝒊=𝟏 𝒏 𝑴𝑿𝒊 𝒕 . 9 Exemplos Utilizando a propriedade 3, mostre que: Se X~Binomial(n,p), 𝑴𝑿 𝒕 = (𝒑𝒆 𝒕 + 𝟏 − 𝒑)𝒏, 𝟎 ≤ 𝒑 ≤ 𝟏 Se X~Gama(n,λ), 𝑴𝑿 𝒕 = 𝝀 𝝀−𝒕 𝒏 , 𝝀 > 𝟎, 𝒏 ∈ ℤ∗, 𝒕 < 𝝀 Se X~Binomial Negativa(n,p), 𝑴𝑿 𝒕 = 𝒑𝒆𝒕 𝟏 − (𝟏 − 𝒑)𝒆𝒕 𝒏 , 𝟎 ≤ 𝒑 ≤ 𝟏 Somas de variáveis independentes: Se Xi~Poisson(λi), i=1,...,n, então 𝒁 = 𝒊=𝟏 𝒏 𝑿𝒊 ~Poisson( 𝒊=𝟏 𝒏 𝝀𝒊). Se Xi~ 𝝌𝝂𝒊 𝟐 , i=1,...,n, então 𝒁 = 𝒊=𝟏 𝒏 𝑿𝒊 ~𝝌𝜶 𝟐 , 𝜶 = 𝒊=𝟏 𝒏 𝝂𝒊. Se Xi~𝑵(𝝁𝒊, 𝝈𝒊 𝟐), i=1,...,n, então 𝒁 = 𝒊=𝟏 𝒏 𝑿𝒊~𝑵 𝝁𝒔, 𝝈𝒔 𝟐 , 𝝁𝒔 = 𝒊=𝟏 𝒏 𝝁𝒊 𝐞 𝝈𝒔 𝟐 = 𝒊=𝟏 𝒏 𝝈𝒊 𝟐.
Compartilhar