Baixe o app para aproveitar ainda mais
Prévia do material em texto
Lista 2 Aluno: André Rodrigues Vizzoni 1 Exercício Nessa lista, o exercício a ser feito envolve o prêmio de Bayes e sua aproxi- mação linear, o de Bühlmann. Sabe-se que o segundo é uma aproximação perfeita do primeiro em casos em que as distribuições a priori do parâme- tro e a dos dados são conjugadas. E o exercício consiste em verificar essa igualdade para os seguintes casos (antes do travessão vem a distribuição dos dados, e, depois dele, a priori) : Poisson - Gama, Binomial - Beta, Gama - Gama, Binomial Negativa - Beta e Normal - Normal. 2 Caso geral Xi ∼ fX(x) i = 1, ..., n Θ ∼ fΘ(θ) X = 1 n n∑ i=1 Xi E[Xn+1|θ] = E[X|θ] = µ(θ) V [Xn+1|θ] = V [X|θ] = σ2(θ) l(θ;X) = n∏ i=1 fX(xi) fθ|x ∝ l(θ;x)fΘ(θ) pcol = E[X] = E[µ(θ)] pBayes = E[Xn+1|x] = E[µ(θ)|x] = = z1x+ (1− z1)E[µ(θ)] pBuhlmann = E[Xn+1|x] = z2x+ (1− z2)E[µ(θ)] z2 = n n+ I I = E[σ2(θ)] V [µ(θ)] 1 3 Caso Normal - Normal Xi ∼ N(θ, σ2) σ2 é uma constante i = 1, ..., n Θ ∼ N(m0, v20) fΘ(θ) ∝ exp {− 1 2v20 (θ −m0)2} fX(x) ∝ exp {− 1 2σ2 (x− θ)2} Logo l(θ;X) = exp {− 1 2σ2 n∑ i=1 (Xi − θ)2} Assim fθ|x ∝ exp {− 1 2σ2 n∑ i=1 (xi − θ)2} exp {− 1 2v20 (θ −m0)2} = exp {− 1 2v21 (θ −m1)2} Portanto Θ|x ∼ N(m1, v21) v21 = 1 v20 + n σ2 m1 = 1 v21 ( m0 v20 + nx σ2 ) µ(θ) = θ σ2(θ) = σ2 pcol = E[θ] = m0 pBayes = E[θ|x] = m1 = 1 1 v20 + n σ2 ( m0 v20 + nx σ2 ) = σ2v20 σ2 + nv20 σ2m0 + nxv 2 0 σ2v20 = σ2m0 + nxv 2 0 σ2 + nv20 2 = nv20 σ2 + nv20 x+ σ2 σ2 + nv20 m0 Dessa forma, z1 = nv20 σ2 + nv20 I = E[σ2] V [θ] = σ2 v20 z2 = n n+ σ 2 v20 = nv20 nv20 + σ 2 Ou seja, z2 = z1 E, finalmente pBuhlmann = pBayes 4 Poisson - Gama Xi ∼ Poisson(θ) i = 1, ..., n Θ ∼ Gama(a, b) fΘ(θ) ∝ θa−1 exp {−bθ} fX(x) ∝ θx exp {−θ} Logo l(θ;X) = θnX exp {−nθ} Assim fθ|x ∝ θnx exp {−nθ}θa−1 exp {−bθ} = θa+nx−1 exp {−θ(b+ n)} Portanto Θ|x ∼ Gama(a+ nx, b+ n) µ(θ) = θ σ2(θ) = θ pcol = E[θ] = a b pBayes = E[θ|x] = a+ nx b+ n 3 = n n+ b x+ b n+ b a b Dessa forma, z1 = n n+ b I = E[θ] V [θ] = a b a b2 = b z2 = n n+ b Ou seja, z2 = z1 E, finalmente pBuhlmann = pBayes 5 Gama - Gama Xi ∼ Gama(k, θ) O parâmetro k é uma constante i = 1, ..., n Θ ∼ Gama(a, b) fΘ(θ) ∝ θa−1 exp {−bθ} fX(x) ∝ θk exp {−θx} Logo l(θ;X) = θnk exp {−nXθ} Assim fθ|x ∝ θnk exp {−nxθ}θa−1 exp {−bθ} = θa+nk−1 exp {−θ(b+ nx)} Portanto Θ|x ∼ Gama(a+ nk, b+ nx) µ(θ) = k θ σ2(θ) = k θ2 pcol = E[ k θ ] = kE[ 1 θ ] 4 = k ∫ ∞ 0 θ−1θa−1 exp {−bθ} b a Γ(a) dθ = k ba Γ(a) ∫ ∞ 0 θa−2 exp {−bθ}dθ = k b a Γ(a) Γ(a− 1) ba−1 = k b a− 1 De forma análoga, pBayes = E k θ |x] = k b+ nx a+ nk − 1 = nk nk + a− 1x+ a− 1 nk + a− 1 kb a− 1 Dessa forma, z1 = nk nk + a− 1 I = E[ k θ2 ] V [k θ ] = 1 k E[θ−2] V [θ−1] = 1 k E[θ−2] E[θ−2]− E2[θ−1] E[θ−2] = ∫ ∞ 0 θ−2θa−1 exp {−bθ} b a Γ(a) dθ = ba Γ(a) ∫ ∞ 0 θa−3 exp {−bθ}dθ = b a Γ(a) Γ(a− 2) ba−3 = b2 (a− 1)(a− 2) Por isso, E[θ−2]− E2[θ−1] = b 2 (a− 1)(a− 2) − b2 (a− 1)2 = b (a− 1)( b (a− 2) − b (a− 1)) = b (a− 1)( b(a− 1)− b(a− 2) (a− 1)(a− 2) ) = b2 (a− 1)2(a− 2) Assim, I = 1 k b2 (a− 1)(a− 2) (a− 1)2(a− 2) b2 = a− 1 k E z2 = n n+ a−1 k = nk nk + a− 1 Ou seja, z2 = z1 E, finalmente pBuhlmann = pBayes 5 6 Binomial - Beta Os prêmios de Bayes e de Bülmann são prêmios para uma apólice apenas, então, variáveis aleatórias com distribuições como a binomial devem ser pa- dronizadas - uma vez que elas podem ser vistas como representando múltiplas apólices -, já que são contagens dos resultados de ensaios de Bernoulli. As- sim, tanto nesse caso quanto no próximo, a variável de interesse, X, será padronizada, e será usada - em seu lugar - a variável X k Xi ∼ Bin(k, θ) i = 1, ..., n Θ ∼ Beta(a, b) fΘ(θ) ∝ θa−1(1− θ)b−1 fX(x) ∝ θx(1− θ)k−x Logo l(θ;X) = θnX(1− θ)nk−nX Assim fθ|x ∝ θnx(1− θ)nk−nxθa−1(1− θ)b−1 = θa+nx−1(1− θ)b+nk−nx−1 Portanto Θ|x ∼ Beta(a+ nx, b+ nk − nx) µ(θ) = E[ Xn+1 k |θ] = 1 k E[Xn+1|θ] = 1 k kθ = θ σ2(θ) = V [ Xn+1 k |θ] = 1 k2 V [Xn+1|θ] = 1 k2 kθ(1− θ) = 1 k θ(1− θ) pcol = E[θ] = a a+ b pBayes = E[θ|x] = a+ nx a+ nx+ b+ nk − nx = a+ nx a+ b+ nk = nk a+ b+ nk x k + a+ b a+ b+ nk a a+ b Dessa forma, z1 = nk a+ b+ nk I = E[ 1 k θ(1− θ)] V [θ] = 1 k E[θ(1− θ)] V [θ] 6 E[θ(1− θ)] = ∫ 1 0 θ(1− θ)θa−1(1− θ)b−1 Γ(a+ b) Γ(a)Γ(b) dθ = Γ(a+ b) Γ(a)Γ(b) ∫ 1 0 θa(1− θ)bdθ = Γ(a+ b) Γ(a)Γ(b) Γ(a+ 1)Γ(b+ 1) Γ(a+ b+ 2) = ab (a+ b)(a+ b+ 1) Logo I = 1 k ab (a+ b)(a+ b+ 1) (a+ b)2(a+ b+ 1) ab = ab k z2 = n n+ ab k = nk nk + a+ b Ou seja, z2 = z1 E, finalmente pBuhlmann = pBayes 7 Binomial Negativa - Beta Xi ∼ Bin(k, θ) i = 1, ..., n Θ ∼ Beta(a, b) fΘ(θ) ∝ θa−1(1− θ)b−1 fX(x) ∝ θx(1− θ)k Logo l(θ;X) = θnX(1− θ)nk Assim fθ|x ∝ θnX(1− θ)nkθa−1(1− θ)b−1 = θa+nx−1(1− θ)b+nk−1 Portanto Θ|x ∼ Beta(a+ nx, b+ nk) µ(θ) = E[ Xn+1 k |θ] = 1 k E[Xn+1|θ] = 1 k kθ 1− θ = θ 1− θ σ2(θ) = V [ Xn+1 k |θ] = 1 k2 V [Xn+1|θ] = 1 k2 kθ (1− θ)2 = θ k(1− θ)2 7 pcol = E[ θ 1− θ ] = ∫ 1 0 θ 1− θθ a−1(1− θ)b−1 Γ(a+ b) Γ(a)Γ(b) dθ = Γ(a+ b) Γ(a)Γ(b) ∫ 1 0 θa(1− θ)b−2dθ = Γ(a+ b) Γ(a)Γ(b) Γ(a+ 1)Γ(b− 1) Γ(a+ b) = a b− 1 De forma análoga, pBayes = E[ θ 1− θ |x] = a+ nx b+ nk − 1 = nk nk + b− 1 x k + b− 1 nk + b− 1 a b− 1 Dessa forma, z1 = nk nk + b− 1 I = E[ θ k(1−θ)2 ] V [ θ 1−θ ] = 1 k E[θ(1− θ)−2] V [θ(1− θ)−1] = 1 k E[θ(1− θ)−2] E[θ2(1− θ)−2]− E2[θ(1− θ)−1] E[θ(1− θ)−2] = ∫ 1 0 θ(1− θ)−2θa−1(1− θ)b−1 Γ(a+ b) Γ(a)Γ(b) dθ = Γ(a+ b) Γ(a)Γ(b) ∫ 1 0 θa(1− θ)b−3dθ = Γ(a+ b) Γ(a)Γ(b) Γ(a+ 1)Γ(b− 2) Γ(a+ b− 1) = a(a+ b− 1) (b− 1)(b− 2) E[θ2(1− θ)−2] = ∫ 1 0 θ2(1− θ)−2θa−1(1− θ)b−1 Γ(a+ b) Γ(a)Γ(b) dθ = Γ(a+ b) Γ(a)Γ(b) ∫ 1 0 θa+1(1− θ)b−3dθ = Γ(a+ b) Γ(a)Γ(b) Γ(a+ 2)Γ(b− 2) Γ(a+ b) = a(a+ 1) (b− 1)(b− 2) E[θ2(1−θ)−2]−E2[θ(1−θ)−1] = a(a+ 1) (b− 1)(b− 2)− a2 (b− 1)2 = a b− 1( a+ 1 b− 2− a b− 1) = a b− 1( (a+ 1)(b− 1)− a(b− 2) (b− 1)(b− 2) ) = a b− 1 a+ b− 1 (b− 1)(b− 2) = a(a+ b− 1) (b− 1)2(b− 2) Logo I = 1 k a(a+ b− 1) (b− 1)(b− 2) (b− 1)2(b− 2) a(a+ b− 1) = b− 1 k z2 = n n+ b−1 k = nk nk + b− 1 Ou seja, z2 = z1 E, finalmente pBuhlmann = pBayes 8
Compartilhar