Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 I – INTRODUÇÃO INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA A Estatística (ou Ciências Estatísticas) é uma coleção de métodos para planejar experimentos, obter dados e organizá-los, resumi-los, analisá-los, interpretá-los e deles extrair conclusões. A Estatística tem por objetivo fornecer métodos e técnicas para lidarmos, racionalmente, com situações sujeitas à incerteza. A Estatística pode ser dividida em 3 “áreas”: 1. Probabilidade: Teoria matemática utilizada para se estudar a incerteza oriunda de fenômenos de caráter aleatório, ou seja, trata das leis de probabilidade. 2. Estatística Descritiva: Conjunto de técnicas destinadas a descrever e resumir informações de um conjunto de dados para compreensão e visualização de suas características mais importantes. Apenas descreve o conjunto de dados, não importando a “origem” dos dados. 3. Inferência Estatística: É o estudo de técnicas que possibilitam a extrapolação (generalização), a um grande conjunto de dados, das informações e conclusões obtidas a partir de subconjuntos de valores, usualmente de dimensão muito menor. 2 I – INTRODUÇÃO INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA • Na inferência podemos construir um modelo que descreve a origem dos dados. • A Teoria da Probabilidade é muito útil na construção destes modelos. Exemplo: • Suponha que queiramos estudar a proporção de dias que um aluno de uma escola do ensino médio chega atrasado na aula, que começa às 7h30min. • Vamos denotar por p a probabilidade do aluno chegar atrasado e vamos assumir que a hora que ele chega em um dia seja independente da hora que ele chega nos outros dias. • Será anotado, durante n dias, se o aluno chega ou não atrasado. • Teremos então X1,...,Xn, n variáveis aleatórias Bernoulli(p) independentes e identicamente distribuídas, onde cada Xi pode assumir dois valores: o 1, se o aluno se atrasou no i-ésimo dia, e o 0, caso contrário. • Este parece ser o modelo adequado para descrever a origem destes dados. 3 I – INTRODUÇÃO INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA • Só definiríamos exatamente este modelo se o valor de p fosse conhecido. • Apesar de não conhecermos o valor deste parâmetro, através do uso de técnicas da Inferência Estatística iremos encontrar um valor que será um bom “chute” para nos dar idéia do valor deste parâmetro. • Veremos que a proporção amostral pˆ será bastante adequada para “representar” o valor de p, onde 1 ˆ n i i p x x n = = =∑ , x1,...,xn, é a seqüência de 0’s e 1’s dos valores observados desta amostra para os n dias, e 1 n i i x = ∑ é o nº de dias que o aluno chegou atrasado dos n dias observados. 4 I – INTRODUÇÃO INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA • O objetivo da Inferência Estatística é produzir afirmações sobre uma dada característica da população na qual estamos interessados, a partir de informações colhidas de uma parte da população. Idéia geral: • A característica de interesse na população será representada por uma variável aleatória. • Iremos usar alguns modelos probabilísticos para descrever a “fonte”, a “origem” dos dados. • Em geral, iremos definir a “família” do modelo probabilístico que descreve a origem dos dados, mas, como não se conhece a população inteira, não se sabe exatamente qual modelo probabilístico descreve exatamente a característica de interesse. • Raramente se consegue obter a distribuição exata de alguma variável, ou porque é muito dispendioso, ou porque é muito demorado, ou, às vezes, porque consiste num processo destrutivo. • Por exemplo, se estivéssemos observando a durabilidade de lâmpadas e testássemos todas até queimarem, não restaria nenhuma para ser vendida. • Assim, precisamos selecionar uma parte (amostra), analisá-la e inferir propriedades para o todo (população). 5 I – INTRODUÇÃO CONCEITOS DE POPULAÇÃO E AMOSTRA • POPULAÇÃO: É o conjunto de todos os elementos ou resultados de interesse. É o conjunto de valores de uma característica (observável) associada a uma coleção de indivíduos ou objetos de interesse. • AMOSTRA: Qualquer subconjunto da população de interesse. Existem dois tipos de população: • População finita: População que possui um número limitado de itens, em um determinado momento. Neste caso, para se obter uma amostra precisa-se utilizar técnicas de amostragem para selecionarmos indivíduos desta população finita. Este é o caso de pesquisas por amostra de institutos de pesquisa, como o IBGE. • População infinita: Uma população que não pode ser enumerada, onde os itens são produzidos por um processo aleatório. Neste caso, a população de origem é mais conceitual que real. Esta população é tal que seria produzida se o processo fosse repetido um nº infinito de vezes. A amostra, neste caso, seria uma parte dos itens produzidos por esse processo. o Exemplo: Medições de características de itens manufaturados, tais como chips de computador, lâmpadas ou pneus de carro. 6 I – INTRODUÇÃO AMOSTRA ALEATÓRIA • Nem sempre a escolha adequada da amostra é fácil. • A maneira de se obter a amostra é tão importante que isto constitui uma especialidade dentro da Estatística. • Podemos dividir os procedimentos de obtenção de dados amostrais em três grandes grupos: 1) Amostragem: A amostra é obtida de uma população bem definida, por meio de processos bem protocolados e controlados pelo pesquisador, e a característica de interesse é medida para os indivíduos da amostra. Existem dois tipos de amostragem: a) Probabilística: Técnicas que usam mecanismos aleatórios de seleção dos elementos de uma amostra, atribuindo a cada elemento da população de interesse uma probabilidade positiva, conhecida a priori ou calculável, de pertencer à amostra. b) Não probabilística: Procedimentos tais como amostras intencionais (elementos selecionados com o auxílio de especialistas) e amostras de voluntários. Nas amostras probabilísticas podemos medir a precisão das estimativas obtidas, baseando-se no resultado contido na própria amostra. Nas amostras não probabilísticas isso fica mais difícil. 7 I – INTRODUÇÃO AMOSTRA ALEATÓRIA 2) Planejamento de experimentos: Tem como objetivo analisar o efeito de uma variável sobre a outra. Requer interferências do pesquisador sobre o ambiente em estudo (população), bem como o controle de fatores externos, com o intuito de medir o efeito desejado. Utiliza-se esta técnica quando se quer determinar relações de causa e efeito. • Por exemplo, pode-se estar interessado em testar se um novo medicamento é eficaz ou não para curar certa doença. Pode-se, então, ministrar este novo medicamento a um grupo de pacientes (grupo de tratamento) e ministrar um placebo a um grupo de controle. Para evitar o efeito placebo, pode-se fazer um experimento cego (quando os indivíduos não sabem se receberam medicamento ou placebo) ou duplo cego (quando nem quem ministra o medicamento ou placebo sabe). 3) Levantamentos observacionais: Os dados são coletados sem que o pesquisador tenha controle sobre as informações obtidas, exceto sobre possíveis erros grosseiros. • Por exemplo, a coleta de séries de dados temporais, como vendas de uma loja, para prever futuras vendas. 8 I – INTRODUÇÃO AMOSTRAGEM ALEATÓRIA SIMPLES • Uma amostra obtida através de uma seleção aleatória é denominada amostra aleatória. • AMOSTRAGEM ALEATÓRIA SIMPLES é a maneira mais fácil de selecionarmos uma amostra probabilística de uma população. • Numa amostra aleatória simples de n elementos, toda a amostra de tamanho n possível tem a mesmachance de ser escolhida. • Na amostragem aleatória simples de uma população finita, temos a listagem de todas as N unidades da população. Utilizando-se um procedimento aleatório, sorteia-se um elemento da população, sendo que todos os elementos têm a mesma probabilidade de serem selecionados. Repete-se o procedimento até que sejam sorteadas as n unidades da amostra. • A AAS pode ser com e sem reposição. o Com reposição: Cada unidade pode ser sorteada mais de uma vez, ou seja, em cada sorteio devolve-se a unidade à população antes do próximo sorteio. o Sem reposição: A unidade sorteada é removida da população, ou seja, cada unidade só pode ser sorteada uma vez. 9 I – INTRODUÇÃO AMOSTRAGEM ALEATÓRIA SIMPLES • Na AAS sem reposição, a quantidade de informação contida na amostra é maior, porém, na AAS com reposição, o tratamento teórico é mais simples, pois implica em termos unidades amostrais independentes, ou seja, a seleção de cada elemento da amostra é independente da seleção dos elementos anteriores. • Assim, sempre que for dito que foi selecionada uma AAS, significará que a amostra foi selecionada por AAS com reposição e, deste modo, todos os elementos da amostra serão independentes e identicamente distribuídos DEFINIÇÃO: Uma amostra aleatória simples de tamanho n de uma variável aleatória X, com distribuição FX(x), é o conjunto de n variáveis aleatórias independentes X1,...,Xn, cada uma com a mesma distribuição de X. Ou seja, a amostra será a n-upla ordenada (X1,...,Xn), onde Xi indica a observação do i-ésimo elemento sorteado. Se X for discreta, a distribuição da amostra aleatória será a distribuição conjunta ( ) ( ) ( ) ( ) 1 1 2,..., 1 1 1 1 2 2 ,..., ... n nX X n n X X X n n P X x X x P X x P X x P X x= = = = = = . Se X for contínua, a distribuição da amostra aleatória será a distribuição conjunta ( ) ( ) ( ) ( ) 1 1 2,..., 1 1 2 ,..., ... n nX X n X X X n f x x f x f x f x= . 10 I – INTRODUÇÃO AMOSTRAGEM ALEATÓRIA SIMPLES NOTAÇÃO: • Letra maiúscula: estamos denotando a variável aleatória (por exemplo, Xi). • Letra minúscula: estamos denotando o valor daquela variável aleatória observado na amostra (por exemplo, xi). • Assim, dada uma variável aleatória X, correspondente à característica de interesse, temos: o ~ X =(X1,...,Xn) corresponde a uma amostra aleatória de tamanho n da variável aleatória X, onde Xi indica uma variável aleatória relacionada à i-ésima repetição do experimento. o ~ x=(x1,...,xn) são os valores da amostra efetivamente observados após a realização do experimento. 11 I – INTRODUÇÃO MODELOS ESTATÍSTICOS • Chama-se de modelo de distribuição de uma variável em uma população a um conjunto de hipóteses que se supõem válidas sobre a distribuição de “origem” de uma variável em uma população. • Essas hipóteses serão satisfeitas, em geral, de forma aproximada. • A qualidade de um modelo para descrever a distribuição de uma variável de uma população será dada pelo grau de aproximação que tenham as hipóteses do modelo com a real distribuição dos dados. • Quando construímos um modelo, partimos do princípio que todo o conhecimento que se tem a respeito da “origem” dos dados, e de que pressuposições razoáveis podem ser feitas com relação às características físicas da situação em estudo, está resumido no modelo. 12 I – INTRODUÇÃO MODELOS PARAMÉTRICOS E NÃO PARAMÉTRICOS • Modelos Paramétricos: São modelos onde supõem-se que a distribuição F(x) da variável na população pertence a uma família de distribuições que depende de um nº finito de parâmetros reais. De um modo geral, um modelo paramétrico terá a seguinte forma: se FX(x) é a distribuição de uma variável X, então FX(x) pertence à família ( ) ~ ,XF x θ , onde ~ θ = (θ1,...,θk) é o vetor de parâmetros que toma valores em um conjunto Θ ⊂ Rk. Isto significa que existe algum valor ~ θ∈ Θ, digamos 0 ~ θ , tal que 0 ~ ,XF x θ coincide com FX(x). Θ é o espaço paramétrico. o Exemplo: Modelo definido por FX(x), que pertence à família N(µ,σ2). O espaço paramétrico, neste caso, será: Θ = R × (0,∞). • Modelos Não Paramétricos: São modelos em que se supõem que a distribuição FX(x) da variável na população pertence a uma família F, mas esta família não pode ser identificada por um nº finito de parâmetros reais. 13 I – INTRODUÇÃO MODELOS ESTATÍSTICOS Um modelo estatístico para um fenômeno aleatório com espaço amostral Ω será constituído de elementos: � Uma família F de distribuições para um vetor aleatório ~ X . F é a classe das possíveis distribuições de ~ X . � Um conjunto X de todos os possíveis valores assumidos por ~ X : X = { ~ x ∈ Rn: ~ x = X(ω) para algum ω ∈ Ω}. � Um conjunto Θ ⊂ Rk chamado de espaço paramétrico, tal que exista uma bijeção entre F e Θ (família paramétrica identificável). 14 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 1) Bernoulli Situação: Ensaios de Bernoulli, onde temos 1, 0,i se sucesso X se fracasso = , onde p = probabilidade de sucesso. Empregado em situações onde associamos a cada observação 2 tipos de resposta (sim e não, sucesso ou fracasso). Por exemplo, em pesquisas eleitorais, onde o indivíduo é contra ou a favor de um determinado candidato. ( )P X x= =px(1-p)1-xI{0,1}(x) Ω = {x|x ∈{0,1}}; Θ = { ~ θ =(p) | p ∈ [0,1]} Média: E(X) = p Variância: Var(X) = p(1-p) Observações: Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que Xi~Bernoulli(p), 1 n i i X = ∑ ~Binomial(n,p). 15 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 2) Binomial Situação: Soma de n variáveis aleatórias independentes e identicamente distribuídas, onde Xi~Bernoulli(p). Indica a probabilidade de x sucessos em n ensaios. ( )P X x= = n x px(1-p)n-xI{0,1,...,n}(x) Ω = {x|x ∈{0,1,2,...,n}}; Θ = { ~ θ =(n,p) | p ∈ [0,1], n∈N*} Média: E(X) = np Variância: Var(X) = np(1-p) 16 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 3) Poisson Situação: Distribuição do nº de ocorrências de um evento em um grande nº de tentativas, quando a probabilidade de ocorrência do evento é muito pequena. Exemplo: Nº de chamadas que chegam a uma central telefônica, nº de pontos de bactérias na placa de Petri, nº de partículas emitidas por uma fonte radioativa, nº de pessoas que chegam a uma determinada fila, etc, tudo isso num intervalo fixo de tempo. É uma aproximação da Binomial, onde λ = np (ler página 184 do Larson) ( )P X x= = { } ( )0,1,...! xe I x x λλ− Ω = {x|x ∈N}; Θ = { ~ θ =(λ) | λ > 0} Média: E(X) = λ Variância: Var(X) = λ Observações: a) Se X1,...,Xn são variáveis aleatórias independentes tal que Xi~Poisson(λi), 1 n i i X = ∑ ~Poisson( 1 n i i λ = ∑ ) 17 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 4) Geométrica Situação: Ocorrência de x fracassos até ocorrer o primeiro sucesso. p = probabilidade de sucesso. ( )P X x= =p(1-p)xI{0,1,2,...}(x) Ω = {x|x ∈N}; Θ = { ~ θ =(p) | p ∈ (0,1]} Média: E(X) = q p Variância: Var(X) = 2 q p Observações: a) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que Xi~Geométrica(p), 1 n i i X = ∑ ~BNegativa(p,r). b) Outra formulação: Ocorrência de x provas independentes até ocorrer o 1º sucesso. ( )P X x= =p(1-p)x-1I{1,2,...}(x), Ω = {x|x ∈N*}; Θ = { ~ θ=(p) | p ∈ (0,1]} Média: E(X) = 1 p Variância: Var(X) = 2 q p 18 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 5) Binomial Negativa Situação: Probabilidade da ocorrência de x fracassos até que ocorram r sucessos. Provas realizadas: x+r. A Binomial Negativa é a soma de r variáveis aleatórias independentes e identicamente distribuídas, com distribuição geométrica. ( )P X x= = 1x r x + − pr(1-p)xI{0,1,2,...}(x) Ω = {x|x ∈N}; Θ = { ~ θ =(p,r) | p ∈ (0,1], r ∈N* } Média: E(X) = qr p Variância: Var(X) = 2 q r p Observações: a) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que Xi~Geométrica(p), 1 n i i X = ∑ ~BNegativa(n,p). 19 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 6) Hipergeométrica Situação: Probabilidade de encontrar x peças defeituosas, numa amostra de tamanho n, com r peças defeituosas num lote de tamanho N (amostragem sem reposição). ( )P X x= = r N r x n x N n − − I{0,1,2,...,n}(x), Ω = {x|x ∈N}; Θ = { ~ θ =(N,r,n) | r ∈ {0,1,...,N}; N ∈ N*; n ∈ {1,...,N}} Média: E(X) = rn N Variância: Var(X) = 1 r N r N n n N N N − − − 20 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 7) Multinominal Situação: Usado em bio-estatística (genótipo), face de dado, etc. ( )1 1 2 2, ,..., k kP X x X x X x= = = = 11 1 2 ... ... kxx k k n p p x x x Ω = { ~ X =(x1,x2,...,xk)|xi ∈{0,1,...,n},∀i=1,2,...,k, 1 k i i x n = =∑ } Θ = { ~ θ =(p1,p2,...,pk) | ~ θ ∈ [0,1]k; pi ∈[0,1] ∀i=1,2,...,k, 1 1 k i i p = =∑ }} Distribuição Marginal: Xi~Binomial(n,pi) E(Xi)=n pi Var(Xi) = n pi (1-pi) Cov(Xi,Xj) = n pi pj , ∀i ≠ j, i,j ∈ {1,2,...,k}. Exercício: Um maquinista conserva um grande número de arruelas em uma gaveta. Cerca de 50% dessas arruelas são de ¼ de polegada de diâmetro, cerca de 30% são de 1/8 de polegada de diâmetro, e os restantes 20% são de 3/8. Qual é a probabilidade de que existam exatamente 5 arruelas de ¼, 4 de 1/8 e 1 de 3/8? 21 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 1) Uniforme(a,b) fX(x) = ( )[ , ]1 a bI xb a− FX(x) = ( )[ , ] ( , ) ( )a b bx a I x I xb a ∞ − + − Ω = {x|x ∈[a,b]}; Θ = { ~ θ =(a,b) | -∞ < a < b < ∞} Média: E(X) = 2 a b+ Variância: Var(X) = ( ) 2 12 b a− Observações: a) Se X~U[0,1] e Y~U[0,1], X⊥Y, Z=X+Y tem densidade igual a fZ(z) = z I[0,1](z)+(2-z) I(1,2](z). b) Se X~Exp(λ) e Y~Exp(λ), X⊥Y, Z=X/(X+Y) ~U[0,1]. c) Se X~U[0,1], Y=-ln(X)~Exp(1). d) Se X~Beta(1,1), X~U[0,1]. 22 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 2) Normal(µµµµ,σσσσ2) Situação: A distribuição normal é usada em situações práticas, principalmente referentes a características populacionais, como peso, altura, pressão arterial, QI, etc. fX(x) = ( ) 2 22 1 exp 22 x µ σpiσ − − Ω = {x|x ∈ R}; Θ = { ~ θ =(µ,σ2) | µ ∈R, σ2>0} Média: E(X) = µ Variância: Var(X) = σ2 23 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS Observações: a) Se X~N(0,1), Y=σ X + µ ~N(µ,σ2). b) Se X1,...,Xn são variáveis aleatórias independentes tal que Xi~N(µi, 2iσ ), 1 n i i X = ∑ ~N( 1 n i i µ = ∑ , 2 1 n i i σ = ∑ ) c) Se X~N(0,1), Y~N(0,1), X⊥Y, X Y ~Cauchy(0,1). d) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que Xi~N(0,1), 2 1 n i i X = ∑ ~ 2nχ . e) Se X1,...,Xn são variáveis aleatórias independentes tal que Xi~N(µi, 2iσ ), 2 1 n i i i i X µ σ = − ∑ ~ 2nχ . f) Se X~N(0,1) e Y~ 2 n χ , X⊥Y, XT Y n = ~tn. 24 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 3) Exponencial(λλλλ) Situação: O modelo exponencial é empregado geralmente para descrever tempo de vida de equipamentos. fX(x) = ( ) ( )0,xe I xλλ − ∞ FX(x) = ( ) ( ) ( )0,1 xe I xλ− ∞− Ω = {x|x>0}; Θ = { ~ θ =(λ) | λ > 0} Média: E(X) = 1λ Variância: Var(X) = 2 1 λ 25 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS Observações: a) Se X~Exp(λ) e Y~Exp(λ), X⊥Y, Z=X/(X+Y) ~U[0,1]. b) Se X~U[0,1], Y=-ln(X)~Exp(1). c) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que Xi~Exp(λ), 1 n i i X = ∑ ~Gama(n,λ). d) Se X~ 22χ , X~Exp 1 2 , X~Gama 11, 2 . e) A Exponencial tem a propriedade de falta de memória, isto é, se T~Exp(λ), P(T > a+b | T > a) = P(T > b). f) Se X ~ Weibull(a,1), X~Exp(a). 26 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 4) Gama(r,λλλλ) Situação: Tempos de vida. fX(x) = ( ) ( ) ( ) 1 0, r r xx e I x r λλ − − ∞Γ Ω = {x|x>0}; Θ = { ~ θ =(r,λ) | r,λ > 0} Média: E(X) = rλ Variância: Var(X) = 2 r λ 27 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS Observações: a) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que Xi~Exp(λ), 1 n i i X = ∑ ~Gama(n,λ). b) Se X ~ Gama(r,1), Y = Xλ ~ Gama (r,λ). c) Se X~ 2nχ , X~Gama 1 , 2 2 n . d) Se X~Gama(n,λ), Y = 2λX~ 22nχ , e) Se X~ 22χ , X~Exp 1 2 , X~Gama 11, 2 . f) Se X~Gama(r1,λ) e Y~Gama(r2,λ) B = X X Y+ ~ Beta(r1,r2). g) Função Gama: ( ) 1 0 t xt x e dx ∞ − −Γ = ∫ , Γ(n) = (n-1) Γ(n-1) = (n-1)!; Γ(1) = 1; 1 2 Γ = pi . 28 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 5) Beta(αααα,ββββ) Situação: Fenômenos cujas variáveis de interesse têm seus valores limitados acima e abaixo por 0 e 1. Um exemplo típico são os dados que aparecem em forma de proporção. fX(x) = ( )( ) ( ) ( ) ( ) ( ) 11 0,11x x I x βαα β α β − − Γ + − Γ Γ Ω = {x|x ∈(0,1)}; Θ = { ~ θ =(α,β) | α,β > 0} Média: E(X) = α α β+ Variância: Var(X) = ( ) ( )2 1 αβ α β α β+ + + Observações: a) Se X~Beta(1,1), X~U[0,1]. b) Se X~Gama(r1,λ) e Y~Gama(r2,λ) B = X X Y+ ~ Beta(r1,r2). c) Se X ~Fm,n, W = ~ , 2 21 mX n m nBeta mX n + . 29 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 6) Cauchy(αααα,ββββ) Situação: Simétrica em torno da mediana. fX(x) = 2 1 1 x αpiβ β − + Ω = {x|x ∈R}; Θ = { ~ θ =(α,β) | α ∈ R,β > 0} Mediana: α Observações: a) Se X~Cauchy(0,1) e Y=β X + α, Y~Cauchy(α,β). b) Se X~N(0,1), Y~N(0,1), X⊥Y, X Y ~Cauchy(0,1). c) Se X~t1, X~Cauchy(0,1). 30 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 7) Lognormal(µµµµ,σσσσ2) fX(x) = ( ) ( ) ( ) 2 0,22 ln1 exp 22 x I x x µ σpiσ ∞ − − Ω = {x|x >0}; Θ = { ~ θ =(µ,σ2) | µ ∈R, σ>0} Média: E(X) = 2 exp 2 σµ + Variância: Var(X) = { } { }2 2exp 2 2 exp 2µ σ µ σ+ − + . Observações: a) Se X~N(µ ,σ2) e Y = eX , Y ~ lognormal(µ,σ2). 31 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 8) Weibull(a,b) Situação: Serve para representar a distribuição de “tempo de falha”, quando a taxa de falha aumenta como potência de t. fX(x) = ( ) ( )10,bb axabx e I x− − ∞ Ω = {x|x>0}; Θ = { ~ θ =(a,b) | a,b > 0} Média: E(X) = 1 1 1ba a − Γ + Variância: Var(X) = 2 2 11 1ba b b − Γ + −Γ + Observações: a) Se X ~ Weibull(a,1), X~Exp(a). 32 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 9) Pareto(θθθθ,x0) Situação: Útil em análises econômicas, especialmente distribuição de renda. fX(x) = ( ) ( )00 ,1 xx I xx θ θ θ ∞+ Ω = {x|x > x0}; Θ = { ~ θ =(θ,x0) | x0,θ > 0} Média: E(X) = 0 1 xθ θ − , para θ > 1 Variância: Var(X) = ( ) ( ) 2 0 21 2 xθ θ θ− − , para θ > 2. 33 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 10) Distribuição Qui-quadrado (χ2k) Uma variável aleatória contínua X, com valores positivos, tem uma distribuição qui-quadrado com k graus de liberdade ( 2kχ ) se sua densidade for dada por: fX(x) = ( ) ( )2 12 2 0,1 12 2 k k x x e I x k − − ∞ Γ Ω = {x|x >0 }; Θ = { ~ θ =(k) | k ∈N*} Média: E(X) = k Variância: Var(X) = 2k. Função geratriz de momentos: mX(t) = 21 1 2 k t − para t<1/2 34 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS Gráficos da distribuição qui-quadrado 2kχ , para k= 1, 2 e 3 k=1 k=2 k=3 A distribuição qui-quadrado tem muitas aplicações na Estatística e, por isso, existem tabelas para se obter probabilidades. Por exemplo, algumas tabelas qui-quadrado podem fornecer os valores de y0 tais que P(X > y0) = p, para diversos valores de p e k, isto é 35 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS Valor tabelado de 2kχ Algumas outras podem fornecer o valor de y0 tal que P(X<y0) = p1. Precisa-se prestar atenção no que a tabela está fornecendo. 36 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS a) Se X1,...,Xn amostra aleatória de uma N(0,1), 2 2 1 ~ n i n i X χ = ∑ . b) Se X1,...,Xn variáveis aleatórias independentes, Xi ~ N(µi, 2iσ ), 2 2 1 ~ n i i n i i X µ χ σ = − ∑ . c) Se X~ 2 m χ e Y~ 2 n χ , X⊥Y, X+Y ~ 2 m n χ + . d) Se X~ 22χ , X~Exp 1 2 , X~Gama 11, 2 . e) Se X~ 2 n χ , X~Gama 1, 2 2 n . f) Se X ~ Gama(r,λ), então 2λX~ 22rχ . g) Se X~N(0,1) e Y~ 2 n χ , X⊥Y, XT Y n = ~tn. h) Se X~ 2 m χ e Y~ 2 n χ , X⊥Y, , ~ m n X mF FY n = . 37 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 11) Distribuição t de Student Uma variável aleatória contínua X tem distribuição t de Student com k graus de liberdade se sua densidade for dada por: fX(x) = 1 2 2 1 1 12 12 k k k k x k pi + + Γ Γ + Ω = {x|x ∈ R}; Θ = { ~ θ =(k) | k>0} Média: E(X) = 0 para k>1 Variância: Var(X) = 2 k k − para k>2. O nome Student vem do pseudônimo usado pelo estatístico inglês W.S.Gosset, que introduziu esta distribuição no início do século passado. A distribuição t de Student é simétrica em torno de 0 e suas caudas são mais “pesadas” do que as de uma normal padrão, ou seja, P(tν ≥ x) ≥ P(N(0,1) ≥ x), o que podemos ver ilustrado na figura a seguir: 38 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS A Distribuição tν (ou t(ν)) e a normal padrão A distribuição t de Student tem muitas aplicações na Estatística, principalmente no que se refere a inferências sobre médias populacionais, e, por isso, existem várias tabelas para se obter probabilidades. Por exemplo, uma tabela t de Student pode fornecer os valores de tc tais que P(- tc < tk < tc) = 1 - p, para diversos valores de p e k. Ou ainda, pode fornecer os valores de tC tais que P(tk < tc) para diversos valores de p e k. Deve-se prestar atenção a que área da distribuição a tabela se refere. Algumas observações sobre a distribuição t de Student: a) Se X~N(0,1) e Y~ 2nχ , X⊥Y, XT Y n = ~tn. b) Se T~tn, T2 ~ F(1,n). c) A distribuição t é simétrica em torno de 0, e as caudas de uma t são mais “pesadas” do que as de uma normal, ou seja, P(tn ≥ x) ≥ P(N(0,1) ≥ x). d) Se W ~t1, W~Cauchy(0,1). 39 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 12) Distribuição F(m,n) de Snedecor Uma variável aleatória contínua X tem uma distribuição F de Snedecor com m e n graus de liberdade (Fm,n) se sua densidade for dada por: fX(x) = ( ) ( ) 2 22 0, 2 2 12 2 mm m n m n m x I x m n n mx n − ∞+ + Γ Γ Γ + Ω = {x|x >0 }; Θ = { ~ θ =(m,n) | m,n ∈N*} Média: E(X) = 2 n n − , para n>2 Variância: Var(X) = ( )( ) ( ) 2 2 2 2 2 4 n m n m n n + − − − , para n > 4. A distribuição F também tem várias tabelas para se obter probabilidades. Por exemplo, numa tabela F são dados os pontos f0 tais que se W ~ Fm,n, P(W > f0) = α, para alguns valores de α e alguns valores de m e n. Para se encontrar os valores da cauda inferior, se usa a identidade Fm,n = 1 / Fn,m. 40 I – INTRODUÇÃO MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS Gráfico da distribuição F Algumas observações sobre a distribuição F de Snedecor: a) Se T~tn, T2 ~ F(1,n). b) Se X~ 2mχ e Y~ 2nχ , X⊥Y, ,~ m n X mF FY n = c) Se X ~Fm,n, W = ~ , 2 21 mX n m nBeta mX n + . d) Se X ~Fm,n, W = , 1 ~ n mFX . 41 I – INTRODUÇÃO DISTRIBUIÇÕES AMOSTRAIS • Vimos que uma AMOSTRA ALEATÓRIA de tamanho n de uma variável aleatória X é um conjunto X1,...,Xn de variáveis aleatórias independentes, todas com a mesma distribuição de X. • Esta amostra aleatória será representada como um vetor ~ X =(X1,...,Xn), e define uma variável aleatória n-dimensional, com uma função de distribuição ( ) ~ 1,...,X nF x x . • Por X1,...,Xn serem independentes, tem-se que ( ) ~ 1,...,X nF x x = ( )1 1XF x ( )2 2XF x ... ( )nX nF x , onde as funções de distribuição ( ) iX i F x , i = 1,...,n, são idênticas à função de distribuição de distribuição de X. • O vetor ~ x=(x1,...,xn) ∈ Rn é denominado realização da variável n-dimensional (X1,...,Xn), ou simplesmente de realização da amostra. 42 I – INTRODUÇÃO PARÂMETRO, ESTATÍSTICA, ESTIMADOR E ESTIMATIVA A) PARÂMETRO Parâmetro é uma medida que descreve uma característica da população (ou de uma distribuição). Por exemplo, a média µ de uma v.a. N(µ,σ2), onde µ é desconhecido. B) ESTATÍSTICA Uma estatística é uma função de variáveis aleatórias observáveis, e é também uma variável aleatória observável, e não contém nenhum parâmetro desconhecido. Uma estatística é função das variáveis aleatórias componentes da amostra. • A média amostral 1 1 n i i X X n = = ∑ é uma estatística. 1 1 n i i x x n = = ∑ é uma observação da estatística média amostral. • Se X ~ N(µ, σ2), com µ e σ2 desconhecidos, e temos uma amostra aleatória com n=1, temos que X1 é uma estatística, mas X1 – µ e X1/σ2 não são porque são funções que dependem dos parâmetros desconhecidos. • Se ( ) ~ ~ ,Xf x θ é uma função densidade e tem θ como parâmetro desconhecido, X -θ não é uma estatística pois depende de θ. ( ) ( )11 ,..., nX mín X X= e ( ) ( )1,..., nnX máx X X= são estatísticas. 43 I – INTRODUÇÃO PARÂMETRO, ESTATÍSTICA, ESTIMADOR E ESTIMATIVA C) ESTIMADOR Um estimadorT do parâmetro θ é qualquer estatística que assuma valores em Θ. Um estimador é uma estatística que iremos associar a um parâmetro populacional para fazermos inferências para este parâmetro. D) ESTIMATIVA Estimativa é o valor assumido pelo estimador em uma particular amostra observada. 44 I – INTRODUÇÃO PARÂMETRO, ESTATÍSTICA, ESTIMADOR E ESTIMATIVA • Um procedimento geral adotado para estimar um parâmetro θ de uma população consiste em definir uma função da amostra (X1,X2,...,Xn) da variável aleatória X. • Esta função é uma estatística Gn = G(X1,...,Xn), que denominamos de estimador do parâmetro θ, e iremos representá-lo por ˆθ . • ˆθ também é uma variável aleatória pois é uma função de variáveis aleatórias. • Uma vez realizada a amostra, o valor observado de ˆθ é uma estimativa de θ. • θ e ˆθ são DIFERENTES!!! O valor observado (estimativa) de um estimador ˆθ não é necessariamente igual ao valor verdadeiro do parâmetro θ. • A notação usada para representar estes valores varia de acordo com a referência bibliográfica. Não será feita, no curso, distinção, em termos de notação, entre o estimador e a estimativa. θ Exemplo: Será usado µˆ para representar tanto o estimador X , quanto a estimativa x . 45 I – INTRODUÇÃO MOMENTOS AMOSTRAIS • Seja X1, X2,...,Xn uma amostra aleatória de densidade fx(•). Então, o r-ésimo MOMENTO DA AMOSTRA, Mr, é definido por 1 n r i i r X M n = = ∑ . o Se r=1, 1 n i i r X M X n = = = ∑ , ou seja,temos a média amostral. • O r-ésimo MOMENTO CENTRAL DA AMOSTRA, denotado por ' r M , é definido por ( ) 1 ' n r i i r X X M n = − = ∑ o Se r=2, ( ) ( ) 2 2 2 1 2 1 ˆ' n i i X X n S M n n σ = − − = = = ∑ . 46 I – INTRODUÇÃO MOMENTOS AMOSTRAIS • Note que os momentos amostrais são estatísticas. • O r-ésimo MOMENTO DA POPULAÇÃO e o r-ésimo MOMENTO CENTRAL DA POPULAÇÃO são definidos, respectivamente, por ( )rr E Xµ = e ( )' rr E Xµ µ= − . Repare que ( )1 E Xµ µ= = e ( ) ( ) 22' Var X E Xµ µ= = − . TEOREMA 1: Seja ~ X =(X1,...,Xn), uma amostra aleatória de uma população com densidade fx(•). O valor esperado do r-ésimo momento amostral é igual ao r-ésimo momento populacional, isto é, E(Mr) = µr (Se µr existir). Além disso, ( ) ( ) ( ){ } ( )22 2 21 1r rr r rVar M E X E X n n µ µ = − = − , se µ2r existir. 47 I – INTRODUÇÃO ALGUMAS ESTATÍSTICAS IMPORTANTES A) Média Amostral Seja X1,...,Xn uma amostra aleatória de uma função de densidade f(•). A média amostral é definida por 1 n i i X X n = = ∑ . B) Variância Amostral Seja X1,...,Xn uma amostra aleatória de uma função de densidade f(•). A variância amostral é definida por ( )2 2 1 1 n i i X X S n = − = − ∑ para n > 1. No cálculo desta variância, somou-se n parcelas do tipo ( )2iX X− , e o resultado foi dividido por n-1. Como ( ) 1 0 n i i X X = − =∑ , pode-se obter qualquer uma das n parcelas, se conhecermos as demais. Assim, somente n-1 parcelas estão livres para variar. 48 I – INTRODUÇÃO ALGUMAS ESTATÍSTICAS IMPORTANTES C) Estatísticas de ordem: Seja X1,...,Xn uma amostra aleatória de tamanho n de uma função de distribuição acumulada F(•). Definimos por estatísticas de ordem correspondentes a essa amostra as estatísticas X(1),≤X(2)≤...≤X(n), onde os X(i) são arrumados em ordem crescente. As estatísticas de ordem mais conhecidas são: Mínimo: X(1) = mín(X1,...,Xn) Máximo: X(n) = máx(X1,...,Xn) Mediana: Med = 1 2 1 2 2 , n for ímpar; 1 , n for par. 2 n n n X se X X se + + + Além disso, R = X(n)-X(1) é chamado de amplitude amostral. 49 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS TEOREMA 2: DESIGUALDADE DE MARKOV Seja X uma variável aleatória e g(•) uma função não negativa com domínio na reta real. Então ( )( ) ( )( )E g XP g X k k≥ ≤ para todo k > 0. TEOREMA 3: DESIGUALDADE DE CHEBYSHEV Se Y é uma variável aleatória com variância finita, ( ) ( )( )2 2 2 21Y Y Y YP Y r P Y r r µ σ µ σ− ≥ = − ≥ ≤ para todo r > 0. DESIGUALDADE DE CHEBYSHEV (OUTRA FORMULAÇÃO): Assuma que X é uma variável aleatória tal que E(X2) existe. Então ( ) ( ) 2 2 E X P X ε ε ≥ ≤ , para todo ε > 0. Essa segunda formulação é equivalente à primeira, fazendo-se Y Y YX µ σ − = . 50 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS • Da desigualdade de Chebyshev, temos que ( ) 211Y YP Y r r µ σ− < > − . o Exemplo: Seja X uma variável aleatória tal que E(X) = 3 e E (X2) = 13. Determine um limite inferior para P(-2 < X < 8). TEOREMA 4: LEI FRACA DOS GRANDES NÚMEROS Seja f(•) uma densidade com média µ e variância finita σ2 e seja nX a média amostral de uma amostra aleatória de tamanho n de f(•). Seja ε e δ dois números especificados tal que ε > 0 e 0 < δ < 1. Se n é um número inteiro maior do que 2 2 σ ε δ , então ( ) 1nP Xε µ ε δ− < − < ≥ − . o Exemplo: Suponha que uma distribuição com média desconhecida tem variância igual a 1. Quão grande a amostra deve ser de modo que a probabilidade de que nX não se desvie por mais de 0,5 da média populacional é de 0,95 no mínimo? o Exemplo: Qual o menor tamanho da amostra que garanta, com 99% de certeza, que nX se desvie de µ por menos de 0,5σ? 51 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS TEOREMA 5: TEOREMA CENTRAL DO LIMITE Seja f(•) uma densidade com média µ e variância finita σ2 e seja nX a média amostral de uma amostra aleatória de tamanho n de f(•). Seja Zn uma variável aleatória definida por ( ) ( ) n n n n n X E X XZ nVar X µ σ − − = = . Então a distribuição de Zn se aproxima de uma distribuição normal padrão conforme n tende a infinito , ou seja, ( )0,1Dn nZ N→∞→ . (Demonstração: página 234 a 236 do Mood). O que o TCL significa é que, não importando a distribuição de X, para uma amostra muito grande a distribuição de nX se aproxima da normal padrão. Por exemplo, se eu gerar 100 amostras com n=1, 2, 10 e 25 da U(0,1), com µ = 0,5, achar a média amostral de todas as amostras e ver o histograma em cada caso, eu teria os seguintes gráficos: 52 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS 1 , 00 , 50 , 0 8 7 6 5 4 3 2 1 0 n = 1 F r e q u e n c y 1 , 00 , 50 , 0 6 5 4 3 2 1 0 n = 2 F r e q u e n c y 1 , 00 , 50 , 0 9 8 7 6 5 4 3 2 1 0 n = 3 F r e q u e n c y 1 , 00 , 50 , 0 2 0 1 0 0 n = 2 5 F r e q u e n c y 1 , 00 , 50 , 0 3 0 2 0 1 0 0 n = 1 0 0 F r e q u e n c y D is t r ib u iç õ e s d a s f r e q ü ê n c ia s d a s m é d ia s a m o s t r a is d e 1 0 0 a m o s t r a s c o m n = 1 , 2 , 3 , 2 5 , 1 0 0 53 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS Repare que como ( ) 2nVar X n σ = , a distribuição de nX vai ficando cada vez mais concentrada em torno de µ para n grande. Exemplo: Suponha que 30 dispositivos eletrônicos, D1,...,D30 funcionem da seguinte maneira: tão logo D1 falhe, D2 entra em operação e, quando D2 falhar,D3 entra em operação e assim por diante. Suponha que a duração até Di falhar seja uma variável aleatória exponencial com média 10h. Seja T o tempo total de operação dos 30 dispositivos. Qual a probabilidade aproximada de que T ultrapasse 350 horas? 54 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - MÉDIA AMOSTRAL Corolário: Seja X1,X2,...,Xn uma amostra aleatória de densidade f(•) e seja 1 1 n i i X X n = = ∑ a média amostral. Então ( )E X µ= e ( ) 2Var X n σ = , onde µ e σ2 são, respectivamente, a média e a variância de f(•). Note que ( ) 2 0n nVar X n σ →∞ = → , ou seja, conforme a amostra fica maior, a dispersão de nX fica menor. A distribuição de nX tem como centro o parâmetro µ a ser estimado. TEOREMA 6: Seja nX a média da amostra (X1,...,Xn) de uma variável aleatória com média µ e desvio padrão σ. Nestas condições, nX converge em probabilidade para a média µ de X. 55 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - MÉDIA AMOSTRAL Distribuição assintótica da média amostral Qual a distribuição de nX quando n � ∞? Pelo TCL temos que ( )0,1 D n n X N n µ σ →∞ − → . Distribuição da média amostral quando X não é normal Se X não é normal e se n não é grande, o estabelecimento da distribuição exata de nX é fundamental. Distribuição Exponencial: Se X1,...,Xn amostra aleatória, Xi ~Exp(λ), nX ~Gama(n,n λ). Distribuição Bernoulli: Se X1,...,Xn amostra aleatória, Xi ~Bernoulli(p), 1 n i i X = ∑ ~Binomial(n,p). Distribuição Poisson: Se X1,...,Xn amostra aleatória, Xi ~Poisson(λ), 1 n i i X = ∑ ~Poisson(nλ). 56 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - VARIÂNCIA AMOSTRAL TEOREMA 7: Seja ~ X = (X1,...,Xn) uma amostra aleatória da densidade f(•) e seja a variância amostral ( )2 2 1 1 n i i X X S n = − = − ∑ para n>1. Então E(S2) = σ2 e Var(S2) = ' 44 1 3 1 n n n µ σ− − − para n > 1. 57 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) TEOREMA 8: Seja ~ X = (X1,...,Xn) uma amostra aleatória de tamanho n da normal com média µ e variância σ2 e seja nX a média amostral. Então nX ~N(µ, σ2/n). TEOREMA 9: Se ~ Z = (Z1,...,Zn) é uma amostra aleatória de uma distribuição normal padrão, então: 1. Z tem distribuição normal com média 0 e variância 1/n; 2. Z e ( )2 1 n i i Z Z = −∑ são independentes; 3. ( )2 1 n i i Z Z = −∑ ~ 2 1nχ − 58 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) Suponha X1,..,Xn uma amostra aleatória da N(µ,σ2). Com base no teorema anterior, e fazendo ( )i i X Z µ σ − = , temos que 1. X µ σ − ~N(0,1/n) 2. X µ σ − e ( ) 2 1 n i i X X σ = − ∑ são independentes, o que implica que X e S2 são independentes. 3. ( ) 2 2 1n S σ − ~ 2 1nχ − . Assim, temos que E(S2) = σ2 e Var(S2) = ( ) 42 1n σ − . 59 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) Corolário: Razão das variâncias de 2 amostras aleatórias independentes X1,...,Xn e Y1,...,Ym, Xi~N(µµµµX,σσσσ2) e Yj~N(µµµµY,σσσσ2) Seja X1,...,Xn uma amostra aleatória de tamanho n de uma N(µX,σ2) e Y1,...,Ym uma amostra aleatória de tamanho m de uma N(µY,σ2) e Xi⊥Yj, ∀i = 1,...,n e j = 1,...,m. Então, ( ) 2 2 1 Ym S σ − ~ 2 1mχ − ( ) 2 2 1 Xn S σ − ~ 2 1nχ − e 2 2 X Y S S ~Fn-1,m-1. 60 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) Corolário: Diferença entre as médias de 2 amostras aleatórias independentes de X e Y, X ~ N(µµµµ,σσσσ2), Y ~ N(µµµµ,σσσσ2). Sejam X1,...,Xn e Y1,...,Ym amostras aleatórias independentes com distribuição N(µ,σ2). Assim ( )2 ~ 0, m n X Y N mn σ + − . Como σ é um parâmetro desconhecido, podemos substituí-lo por uma estatística da amostra, que é a média ponderada das variâncias amostrais ( ) ( ) ( ) 2 2 2 1 1 2 X Y p n S m S S m n − + − = + − . Como ( ) 2 2 1 Ym S σ − ~ 2 1mχ − , ( ) 2 2 1 Xn S σ − ~ 2 1nχ − e 2XS ⊥ 2YS , então ( ) 2 p mnX Y m n S − + ~tn+m-2. 61 I – INTRODUÇÃO DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - ESTATÍSTICAS DE ORDEM � Sejam X(1),...,X(n) as estatísticas de ordem de uma amostra aleatória X1,...,Xn, da função de distribuição FX(•). A distribuição marginal de X(i) é dada por ( ) ( ) ( )( ) ( ) ( )1i n j n jX X Xi j i n F k P X k F k F kj − = = ≤ = − ∑ . � No caso de i = 1 (mínimo): ( ) ( ) ( )1 1 1 n X XF k F k = − − � No caso de i = n (máximo): ( ) ( ) ( )ni n X XF k F k = � A densidade marginal da estatística de ordem X(i) é ( ) ( ) ( ) ( ) ( ) ( ) ( ) 1! 1 1 ! !i i n i X X X X nf k F k F k f k i n i − − = − − − . � A densidade conjunta de duas estatísticas de ordem X(i) e X(j) é ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 1 1 , , ! , 1 1 ! 1 ! !i j i j i n j X X X X X X X X x nf x y F x F y F x F y f x f y I y i j i n j − − − − ∞ = − − − − − − . � A densidade conjunta de todas as estatísticas de ordem é ( ) ( ) ( ) ( )( ) ( )( ) ( )( ) ( ) ( )1 ,..., 1 1 1,..., ! ... ...nX X n n nf x x n f x f x para x x= < < . 62 I – INTRODUÇÃO Bibliografia • MOOD, Alexander M., GRAYBILL, Franklin A.; BOES, Duane C. Introduction to the theory of statistics.. New York: MCGraw-Hill, 3ª ed, 1974. • LARSON, H.J. Introduction to probability theory and statistical inference. New York: 3ª ed., Wiley, 1982. • BUSSAB, Wilton O.; MORETTIN, Pedro Alberto. Estatística básica. São Paulo: Editora Saraiva, 2002, 5ª edição. • MONTGOMERY, Douglas C., RUNGER, George C. Estatística Aplicada e Probabilidade para Engenheiros. Rio de Janeiro: Editora LTC, 2009.
Compartilhar