Baixe o app para aproveitar ainda mais
Prévia do material em texto
Prof. Marcônio P. de Magalhães AVALIAÇÃO DE DEPÓSITOS MINERAIS Geoestatística O que é geoestatística? O que é geoestatística? O que é geoestatística? Histórico Histórico Histórico Histórico Histórico Histórico Histórico Momentos estatísticos Momentos estatísticos Momentos estatísticos Estacionaridade Estacionaridade Estacionaridade Estacionaridade Estacionaridade Estacionaridade Estacionaridade Estacionaridade Estacionaridade Estacionaridade Exercícios SEMIVARIOGRAMA EXPERIMENTAL DADOS VARIOGRAMA EXPERIMENTAL VARIOGRAMA EXPERIMENTAL COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Covariância é uma medida de associação (relação) linear entre duas variáveis aleatórias. Se X e Y são duas v.a., a covariância entre elas é definida por: Cov(X,Y) = E[(X-E(X))(Y-E(Y))] Desta forma a covariância entre duas variáveis X e Y é igual a média de uma variável aleatória Z que por sua vez é o produto dos desvios de cada uma das duas variáveis X e Y em relação as suas respectivas medias. X Y 0 1 2 P(y) 1 3/20 3/20 2/20 8/20 2 1/20 1/20 2/20 4/20 3 4/20 1/20 3/20 8/20 P(x) 8/20 5/20 7/20 1 Exemplifiquemos com o seguinte quadro de distribuição conjunta de duas variáveis aleatórias discretas X e Y: COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS A distribuição de probabilidade da variável aleatória Z Z = (X-E(X))(Y-E(Y)) é a própria distribuição de probabilidade conjunta dada no quadro acima para as variáveis X e Y. Como a covariância é uma esperança temos que: ( , ) [( ( ))( ( )] ( ( ))( ( )) ( , )Cov X Y E X E X Y E Y X E X Y E Y p X Y COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Ou seja, a covariância é o somatório do produto da variável Z = (X-E(X))(Y-E(Y)) pelas probabilidades conjuntas. Para calcular a covariância devemos calcular as esperanças (medias) de X e Y. Estas são: 8 5 7 19 ( ) 0 1 2 20 20 20 20 8 4 8 ( ) 1 2 3 2 20 20 20 E X E Y COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS No exemplo do quadro acima a covariância é igual a: 19 3 19 3 19 2 ( , ) (0 ) (1 2) (1 ) (1 2) (2 ) (1 2) 20 20 20 20 20 20 19 1 19 1 19 2 (0 ) (2 2) (1 ) (2 2) (2 ) (2 2) 20 20 20 20 20 20 19 4 19 1 19 3 (0 ) (3 2) (1 ) (3 2) (2 ) (3 2) 0 20 20 20 20 20 20 Cov X Y COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Um outro método (mais fácil) de se calcular a covariância é dado pela expressão: ( , ) ( ) ( ). ( )Cov X Y E XY E X E Y Sabemos que a definição de covariância é: Cov(X,Y) = E[(X-E(X))(Y-E(Y))] Podemos desenvolver o segundo termo desta expressão da seguinte forma: ( , ) ( ( ) ( ) ( ) ( )) ( ) ( ). ( ) ( ). ( ) ( ). ( ) ( ) ( ) ( ) Cov X Y E XY E X Y E Y X E X E Y E XY E X E Y E Y E X E X E Y E XY E X E Y COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Apliquemos esta expressão aos dados do quadro acima para calcular a covariância: Para isto precisamos calcular E(XY). Para fazer isto devemos para cada valor do quadro (para cada dupla de valores de X e Y) calculamos o valor do produto XY e multiplicamos pela probabilidade conjunta. ( ) 0.1.3/ 20 1.1.3/ 20 2.1.2 / 20 0.2.1/ 20 1.2.1/ 20 2.2.2 / 20 0.3.4 / 20 1.3.1/ 20 2.3.3/ 20 1,9 E XY ( , ) 1,9 (0,95).(2) 0Cov X Y Portanto a covariância será: COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Concluímos que as duas variáveis aleatórias X e Y são não correlacionadas. Se X e Y são duas variáveis aleatórias independentes, então Cov(X,Y) = 0 Mas a recíproca não é verdadeira. O fato de Cov(X,Y) = 0 não implica necessariamente que X e Y sejam independentes. Para o último exemplo, verificamos que Cov(X,Y) = 0. No entanto vamos verificar que estas duas variáveis não são independentes. Para que X e Y sejam independentes é estritamente necessário que P(X,Y) = P(X).P(Y) para todos os valores de X e Y. Ou seja, para todas as células da distribuição de probabilidade conjunta, o valor da probabilidade conjunta deve ser igual ao produto das probabilidades marginais respectivas. Verifiquemos esta propriedade para o quadro de distribuição de probabilidade conjunta anterior. COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS X Y 0 1 2 P(y) 1 3/20 8/20.8/20 = 16/400 3/20 8/20.5/20 = 40/400 2/20 8/20.7/20 = 56/400 8/20 2 1/20 4/20.8/20 = 32/400 1/20 4/20.5/20 = 20/400 2/20 4/20.7/20 = 28/400 4/20 3 4/20 8/20.8/20 = 56/400 1/20 8/20.5/20 = 40/400 3/20 8/20.7/20 = 56/400 8/20 P(x) 8/20 5/20 7/20 1 COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS No quadro acima os valores em vermelho são as probabilidades conjuntas. Em seguida vem o cálculo do produto das probabilidades marginais respectivas. Observe-se que para a primeira célula temos P(X=0,Y=1) = 3/20 = 0,15 e P(X=0).P(Y=1) = 16/400 = 0,04. Na segunda célula da primeira linha temos P(X=1,Y=1) = 3/20 = 0,15 e P(X=1).P(Y=1) = 40/400 = 0,1. Portanto em nenhuma destas duas células a probabilidade conjunta coincide com o produto das probabilidades marginais respectivas. Bastava que para apenas uma das células não ocorresse a igualdade de probabilidades e as variáveis aleatórias já seriam dependentes. Para que ocorra independência perfeita entre as variáveis aleatórias é necessário que para todas as células da distribuição de probabilidade conjunta ocorra a igualdade entre a probabilidade conjunta e o produto das probabilidades marginais respectivas. COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Sejam X e Y duas variáveis quaisquer. Então Var(X + Y) = Var(X) + Var(Y) + 2 Cov(X,Y) No caso de X e Y serem independentes temos o caso particular de: Var(X + Y) = Var(X) + Var(Y), já que Cov(X,Y) = 0 COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS COVARIANCIA PARA VARIAVEIS ALEATÓRIAS CONTINUAS Se X e Y são duas variáveis aleatórias continuas a covariância é dada pela seguinte expressão: ( , ) [( ( )).( ( ))] ( )( )X YCov X Y E X E X Y E Y x y dxdy Qual é a interpretação pratica da covariância? A covariância serve para verificar se duas variáveis aleatórias movimentam-se ou não no mesmo sentido. Por exemplo, se quando uma variável X aumenta a variável Y também aumenta e se quando X diminui, Y também diminui (as variáveis) movimentam-se, covariam no mesmo sentido, a covariância é positiva. Ao contrario, quando X aumenta, Y diminui ou quando X diminui, Y aumenta, ou seja, as variáveis covariam em sentidos opostos, a covariância é negativa. COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Podemos calcular a covariância, quando temos a distribuição de probabilidade conjunta como foi mostrado anteriormente. Mas podemos também calcular a covariância se tivermos um conjunto de dados observados para as variáveis X e Y. Por exemplo: Agente Anos de serviço (X) Número de clientes (Y) A 2 48 B 3 50 C 4 56 D 552 E 4 43 F 6 60 G 7 62 H 8 58 I 8 64 J 10 72 COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS 40 50 60 70 N úm er o de c lie nt es (Y ) 2 4 6 8 10 Anos de serviço (X) Diagrama de dispersão para as variáveis X (anos de serviço) e Y (numero de clientes) COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS Casal Rendimento do Homem (X) Rendimento da Mulher (Y) 1 10 5 2 10 10 3 5 5 4 10 5 5 15 5 6 10 10 7 5 10 8 15 10 9 10 10 10 5 10 Exercício: COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS a) Construa a distribuição de probabilidade conjunta de X e Y (b) Determine as distribuições marginais de X e Y (c) X e Y são v.a. Independentes? Justifique. (d) Calcule as medias e variâncias de X e Y e a covariância entre elas. Exercício: Com base na tabela anterior: COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS O sinal na covariância indica o tipo de relação que as duas variáveis tem. Um sinal positivo indica que elas movem juntas e um negativo que elas movem em direções opostas. Enquanto a covariância cresce com o poder do relacionamento, ainda é relativamente difícil fazer julgamentos sobre o poder do relacionamento entre as duas variáveis observando a covariância, pois ela não é padronizada. A correlação é a medida padronizada da relação entre duas variáveis. Ela pode ser calculada da covariância: COVARIÂNCIA X CORRELAÇÃO COVARIÂNCIA X CORRELAÇÃO A correlação nunca pode ser maior do que 1 ou menor do que menos 1. Uma correlação próxima a zero indica que as duas variáveis não estão relacionadas. Uma correlação positiva indica que as duas variáveis movem juntas, e a relação é forte quanto mais a correlação se aproxima de um. Uma correlação negativa indica que as duas variáveis movem-se em direções opostas, e que a relação também fica mais forte quanto mais próxima de menos 1 a correlção ficar. Duas variáveis que estão perfeitamente correlacionadas positivamente (r=1) movem-se essencialmente em perfeita proporção na mesma direção, enquanto dois conjuntos que estão perfeitamente correlacionados negativamente movem-se em perfeita proporção em direções opostas. COVARIÂNCIA ENTRE DUAS VARIÁVEIS ALEATÓRIAS A variância, que é uma medida do espalhamento da distribuição ao redor da média, e é calculada primeiro pela soma dos desvios quadrados da média, e dividindo-a pelo número de observações (se os dados representam a população toda) ou por este número, reduzido por um (se os dados representam uma amostra) VARIÂNCIA Uma regressão simples é uma extensão do conceito correlação/covariância. Ela tenta explicar uma variável, a qual é chamada variável dependente, usando a outra variável, chamada variável independente. Mantendo a tradição estatística, seja Y a variável dependente e X a variável independente. Se as duas variáveis são plotadas uma contra a outra num gráfico de espalhamento, com Y no eixo vertical e X no eixo horizontal, a regressão tenta ajustar uma linha reta através dos pontos de tal modo que minimiza a soma dos desvios quadrados dos pontos da linha. Conseqüentemente, ela é chamada de regresssão ordinária dos mínimos quadrados (OLS). Quando tal linha é ajustada, dois parâmetros emergem - um é o ponto em que a linha corta o eixo Y, chamado de intercepção da regressão, e o outro é a inclinação da linha de regressão. REGRESSÃO LINEAR – CORRELAÇÃO/COVARIÂNCIA Regressão OLS: Y = bX + a REGRESSÃO LINEAR – CORRELAÇÃO/COVARIÂNCIA A inclinação (b) da regressão mede ambas a direção e a magnitude da relação. Quando as duas variáveis estão correlacionadas positivamente, a inclinação também será positiva, enquanto quando as duas variáveis estão correlacionadas negativamente, a inclinação será negativa. A magnitude da inclinação da regressão pode ser lida como segue - para cada acréscimo unitário na variável (X), a variável dependente mudará por b (inclinação). A ligação estreita entre a inclinação da regressão e a correlação/covariância não seria surpreendente desde que a inclinação é estimada usando a covariância. REGRESSÃO LINEAR – CORRELAÇÃO/COVARIÂNCIA A interseção(a) da regressão pode ser lida de várias maneiras. Uma interpretação é que ela é o valor que Y terá quando X é zero. Uma outra é mais direta, e está baseada em como ela é calculada. É a diferença entre o valor médio de Y, e o valor ajustado da inclinação de X. Os parâmetros da regressão são sempre estimados com algum ruido, parcialmente porque o dado é medido com erro e parcialmente porque os estimamos de amostra de dados. Este ruido é capturado numa dupla de estatísticas. Um é o R- quadrado da regressão, que mede a proporção da variabilidade em Y que é explicada por X. É uma função direta da correlação entre as variáveis. REGRESSÃO LINEAR – CORRELAÇÃO/COVARIÂNCIA Um valor de R-quadrado muito próximo de um indica uma forte relação entre as duas variáveis, apesar da relação poder ser positiva ou negativa. Uma outra medida do ruido numa regressão é o erro padrão, que mede o "espalhamento" ao redor de cada um dos dois parâmetros estimados - a interseção(a) e a inclinação(b). Cada parâmetro tem um erro padrão associado, que é calculado dos dados. Erro Padrão da Interseção = SEa = REGRESSÃO LINEAR – CORRELAÇÃO/COVARIÂNCIA O R-quadrado mede ainda a força da relação, mas uma estatística adicional do R-quadrado chamada de R-quadrado ajustado é calculada para contar a tendência que induziria o R-quadrado a manter crescente quando as variáveis independentes são adicionadas à regressão. Se existem k variáveis independentes na regressão, o R-quadrado ajustado é calculado como segue: REGRESSÃO LINEAR – CORRELAÇÃO/COVARIÂNCIA A regressão que mede a relação entre duas variáveis torna-se uma regressão múltipla quando ela é extendida para incluir mais do que uma variável independente (X1, X2, X3, X4..) na tentativa de explicar a variável dependente Y. Enquanto as apresentações gráficas tornam-se mais difícil, a regressão múltipla conduz a uma forma que é uma extensão da regressão simples. Y = a + b X1 + c X2 + dX3 + eX4 REGRESSÃO MÚLTIPLA Na teoria, as variáveis independentes numa regressão precisam estar não correlacionadas uma com a outra. Na prática, elas são freqüentemente, e esta correlação cruzada das variáveis independentes é chamada multi-colinearidade. Quando existe multi-colinearidade, • Os coeficientes sobre cada uma das variáveis independentes tornam-se muito mais difíceis para ler isolados, pois as variáveis começam a procurar uma às outras. • A estatística-t relatada tende a exagerar a significância da relação. Existem aproximações estatísticas disponíveis para se tratar com a multi-colinearidade. • A regressão ainda tem poder de previsão. Ambas regressões, a simples e a múltipla, estão baseadas numa relação linear entre a variável dependente e a variável independente. Quando a relação é não-linear, o uso de uma regressão linear conduzirá à predições incorretas. Em tais casos, as variáveis independentes precisarão ser transformadas para tornar a relação mais linear. REGRESSÃO MÚLTIPLA VARIÁVEL REGIONALIZADA NATUREZA DAS VARIÁVEIS ALEATÓRIAS E REGIONALIZADAS NATUREZA DAS VARIÁVEIS ALEATÓRIAS E REGIONALIZADAS DESAGRUPAMENTO DESAGRUPAMENTO DESAGRUPAMENTO DESAGRUPAMENTO POLIGONAL DESAGRUPAMENTO POLIGONAL DESAGRUPAMENTO POLIGONAL Após o DESAGRUPAMENTO POLIGONAL DESAGRUPAMENTO POLIGONAL DESAGRUPAMENTO POLIGONALDESAGRUPAMENTO POLIGONAL DESAGRUPAMENTO POR CÉLULAS Conforme esse método, a área total é dividida DESAGRUPAMENTO POR CÉLULAS DESAGRUPAMENTO POR CÉLULAS DESAGRUPAMENTO POR CÉLULAS CÁLCULO E MODELAGEM DE VARIOGRAMA EXPERIMENTAIS CÁLCULO E MODELAGEM DE VARIOGRAMA EXPERIMENTAIS CÁLCULO E MODELAGEM DE VARIOGRAMA EXPERIMENTAIS CÁLCULO E MODELAGEM DE VARIOGRAMA EXPERIMENTAIS CÁLCULO E MODELAGEM DE VARIOGRAMA EXPERIMENTAIS INTERPRETAÇÃO GEOMÉTRICA DA FUNÇÃO VARIOGRAMA INTERPRETAÇÃO GEOMÉTRICA DA FUNÇÃO VARIOGRAMA INTERPRETAÇÃO GEOMÉTRICA DA FUNÇÃO VARIOGRAMA FUNÇÃO VARIOGRAMA E A FUNÇÃO COVARIÂNCIA FUNÇÃO VARIOGRAMA E A FUNÇÃO COVARIÂNCIA CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS Distribuição Irregular CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS Distribuição Irregular CÁLCULO DE VARIOGRAMAS EXPERIMENTAIS Distribuição Irregular KRIGAGEM Krigagem Linear O sistema de krigagem necessário para a determinação dos ponderadores, ou pesos, associados a cada um dos pontos estimadores baseia-se na ideia de que quanto maior a covariância entre uma amostra xi, i= 1,2,3,...,n, e o local que está sendo estimado, x0, mais essa amostra deve contribuir para a estimativa. O sistema de krigagem leva em consideração tanto a distância entre as amostras como o seu agrupamento. KRIGAGEM Krigagem Simples ou Estacionária Sob a condição de estacionaridade de segunda ordem, a média e a variância de todos os locais são constantes. E[Z(x)] = m E[(Z(x) - m)(Z(x+h) - m)] = E[Z(x)Z(x+h) - m²] = C(h) Assim, o estimador da krigagem simples é calculado segundo (Olea, 1999, p. 10-15): Z*KS (x0) = m + Σ λi [Z(xi) - m] KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM KRIGAGEM
Compartilhar