Prévia do material em texto
INTRODUÇÃO AO SISTEMA ESTATÍSTICO R Objetivos Desenvolver fundamentos da estatística, aplicada ao georreferenciamento de imóveis rurais, fazendo uma breve introdução ao sistema estatístico R. » Apresentar conceitos de ajustamento de observações, variáveis aleatórias e distribuição de probabilidade, variância e covariância, propagação do erro ou das covariâncias. » Proporcionar práticas do método dos mínimos quadrados, paramétrico e condicional, avaliando a qualidade das estimativas e análise dos resultados. INTRODUÇÃO E PROCEDIMENTOS Nessa unidade veremos o conteúdo introdutório a cerca do sistema estatístico R, o qual se mostra muito importante quando usado de forma integrada com a geotecnologia. Nesse viés, além dos assuntos introdutórios, estudaremos também alguns ajustamentos e operações básicas. Objetivo Vamos usar os dados da seção técnica da revista A Mira – Comparativo entre dados obtidos pelo nivelamento trigonométrico com ET e dados altimétricos obtidos com GPS com correção em tempo real (RTK). (A MIRA, Ano XXII, no 163; SANTOS et al., 2014). E, a partir desses dados, fazer uma pequena introdução ao sistema estatístico R. Então, na sequência, discutir alguns resultados, fazendo uma revisão estatística, dentro do contexto do ajustamento de observações. Nós vamos usar a Introdução ao Ambiente Estatístico R de Paulo Justiniano Ribeiro Júnior, atualizada em 29 de maio de 2011 e o livro Conhecendo o R, uma visão mais que Estatística (MELLO et al, 2013). 1º Passo: criar um arquivo .txt no bloco de notas, chamado Altimetria: Figura 1. Altimetria. Fonte: Autor. Passo a passo Passo a passo 2º Passo: vamos abrir esse arquivo no Sistema Estatístico R usando os comandos: Figura 2. Fonte: Autor. Script R-1 Script R-1 – Copiar para o editor de Script do R e dar o comando Ctrl R. Obs.: a resposta, ou saída no R Console, não será, na maioria das vezes, documentada. > variável <- read.table (file.choose(), header=T) > variável Ou > Altimetria <- read.table (file.choose(), header=T) > Altimetria 3º Passo: agora vamos separar a tabela em dois vetores: > ET <- Altimetria [,1] > ET E > GPS <- Altimetria [,2] > GPS 4º Passo: depois devemos calcular o vetor v dos erros: > v <- ET-GPS > v 5º Passo: segundo a teoria, que pode ser aprofundada, o vetor v dos erros deve seguir a distribuição normal (Curva de Sino), portanto vamos testar a normalidade dos dados. Figura 3. Fonte: Autor. Obs.: caso os dados não obedeçam à distribuição normal, será necessária uma transformação matemática. Por exemplo, usando logaritmo ou expansão em série de Taylor. > shapiro.test (v) 6º Passo: algumas operações com vetores: Obs.: os dados devem, sempre quando necessário, serem armazenados em uma variável. > length(v) #(Número de observações de v) > max(v) # (Valor máximo de v) > min(v) #(Valor mínimo de v) > sum(v)#(Soma de v) > V^2 #(Quadrado de v) > SQRT(V^2) #(Raiz quadrada de V^2) 7º Passo: calculando média do vetor v: 1º modo: > mv <- SUM(V)/11 > mv 2º modo: > mv <- mean(v) > mv 8º Passo: calculando o desvio padrão do vetor v: 1º modo: Resolver, ou calcular, o desvio padrão do vetor v, usando a fórmula do desvio padrão da NBR13133, produzindo o Script escrito em R. 2º modo: > sv <- sd(v) > sv Segundo (Weeks, 2012), encontrar a diferença entre medidas constitui uma operação comum. Uma medida, ou um sinal, como os do GPS, por exemplo, pode ser medido com certo grau de erro, um erro que deve ser considerado aceitável. A quantidade, ou qualidade desse erro entre o sinal original (enviado pelo satélite) e a versão reconstruída, ou reconstituída (gerada no receptor), deve ser encontrada somando-se os valores das diferenças entre as medições. Vamos considerar duas medidas, ou dois sinais, x e y: > X<-C(1,2,5,0,-2) > x > Y<-C(-1,4,0,5,-2) > y > v<-sum(x-y) > v Percebe-se claramente que x e y não são iguais, mas como as diferenças positivas e as diferenças negativas cancelam uma a outra, esse método simples faz com que eles pareçam ser iguais. O erro entre sinais, x e y, pode ser encontrado e melhorado com o comando a seguir: (veja a função de valor absoluto abs) > v<-sum(abs(x-y)) > v Outra forma, mais sofisticada, de se medir o erro é conhecida com RMSE (root mean square error ou raiz quadrada do erro médio quadrático – bem parecido com o desvio padrão), que é calculado segundo o código a seguir. Primeiramente, diff encontra a diferença entre os sinais x e y. Em seguida, encontramos sigma_squared (sigma ao quadrado), também conhecida como variância; calcula-se, então, elevando ao quadrado cada elemento em diff e somando-se, finalmente, os resultados. Por fim, podemos computar o RMSE: > diff<- x-y > diff > sigma_squared<- sum(diff*diff) > sigma_squared > RMSE<-sqrt(sigma_squared/length(x)) > RMSE E finalmente, se dividirmos o RMSE pelos valores max(v) – min(v), do conjunto dos erros apresentados, teremos o NRMSD – Normalized root mean square deviation ou desvio quadrático médio normalizado, que é uma das inúmeras formas de padronizar os dados, principalmente em geoprocessamento, quando trabalhamos com várias fontes ou escalas de informação. Então, normalizar o RMSE facilita a comparação entre os conjuntos de dados, ou modelos com diferentes escalas. Embora não haja, segundo a literatura, meios consistentes para a normalização dos dados. 9º Passo: fazer o histograma do vetor v: > hist(v) > PNORM(11, mv, sv) > curve(dnorm(x), -2,2) A conclusão do trabalho, que pode ser lido na íntegra na revista A Mira, segundo a observação final dos dados, é que os dois métodos possuem resultados bem próximos. Mas “bem próximo” pode ser uma conclusão vaga, ou não científica, e, portanto, não pode ser aceita. Precisamos de algum teste estatístico para validar os resultados, apresentando o p-value. “Diante dos fatos evidenciados nesse trabalho conclui-se que ou uso do GPS em tempo real pode ser aplicado para a obtenção da altimetria, pois o mesmo comparado com o trigonométrico, um dos métodos mais utilizados atualmente no mercado, possui resultados bem próximo um do outro. (A Mira Ano XXII – Nº 163, Santos et. al., 2014)”. 10º Passo: realizar o teste t do vetor v: > t.test(v) Obs.: discutir o resultado p-value que deve ser maior que 0,05. Prática Pesquisar a fórmula para resolver, ou calcular para o erro v, o teste t de Student e produzir um Script escrito em R. Um simples teste t, com a apresentação do resultado do p-value, já seria o suficiente para uma conclusão, digamos, mais técnica do trabalho. Mas vamos dar um passo à frente, fazendo uma análise da variância. Em certas situações, nosso interesse está voltado para o efeito de um fator A (ex.: comparação entre métodos de levantamento, (ET e GPS), sobre uma variável quantitativa Y (Medições). Porém, outro fator B (Qualidade do operador), que nem sempre podemos observar ou controlar, também pode estar presente. E ainda existem outros fatores C, D, E etc., que não sabemos como se relacionam com nossos dados. Uma forma clássica de se anular isso, quando estamos fazendo um experimento, é trabalhar com amostras aleatórias do nosso conjunto de dados. 11º Passo: vamos fazer agora uma análise da variância ANOVA para os dois métodos de levantamentos (um fator) que foram testados, ou comparados, (ET e GPS): Análise da variância é a técnica estatística que permite avaliar afirmações sobre as médias da população, ou amostra. A análise visa, fundamentalmente, verificar se existe uma diferença significativa entre as médias e se os fatores exercem influência em alguma variável dependente. A análise de variância compara médias de diferentes populações para verificar se essas populações possuem médias iguais ou não. Assim, essa técnica permite que vários grupos sejam comparados a um só tempo. Em outras palavras, a análise de variância é utilizada quando se quer decidir se as diferenças amostrais observadas são reais (causadas por diferenças significativasnas populações observadas) ou casuais (decorrentes da mera variabilidade amostral). Portanto, essa análise parte do pressuposto que o acaso só produz pequenos desvios, sendo as grandes diferenças geradas por causas reais. Tabela 1. AA. Fonte: Autor. N MEDIÇÕES FATOR METODO OPERADOR 1 947,530 1 ET 1 2 956,299 1 ET 1 3 954,269 1 ET 2 4 949,751 1 ET 3 5 953,566 1 ET 1 6 952,864 1 ET 2 7 952,514 1 ET 2 8 950,919 1 ET 3 9 939,275 1 ET 3 10 941,756 1 ET 1 11 942,866 1 ET 2 12 947,523 2 GPS 1 13 956,304 2 GPS 2 14 954,274 2 GPS 3 15 949,742 2 GPS 1 16 953,570 2 GPS 2 17 952,874 2 GPS 3 18 952,509 2 GPS 3 19 950,923 2 GPS 3 20 939,279 2 GPS 1 21 941,747 2 GPS 2 22 942,878 2 GPS 1 Script R-2 Script R-2 – Copiar para o editor de Script do R e dar o comando Ctrl R. OBS: Tabela 01 AA = Altimetria Anova Abrir arquivo: > AA <- read.table (file.choose(), header=T) >AA Separar vetores: > MD <- AA[,1] > MD > FT <- AA[,2] > FT Transformar o vetor FT em fator de nível 2: FT<- factor(FT) Criar o modelo ANOVA: >MODELO1 = aov(MD ~ FT) Comando summary (MODELO1) para ver os resultados: > summary (MODELO1) Obs.: no resultado, tempos duas linhas. A linha para os efeitos da variável MD (variação entre os grupos) e a outra para os resíduos (variação dentro dos grupos). 11º Passo: vamos repetir a análise da variância ANOVA para os dois métodos de levantamentos ET e GPS usando, agora, um novo fator, o operador: > OP <-AA [,4] > OP <-factor (OP) > OP > MODELO2 = aov (MD~FT*OP) > summary (MODELO2) Obs.: a distribuição Qui-quadrado torna-se bastante importante quando se quer verificar o ajustamento de uma distribuição de frequência, de uma amostra, a uma distribuição teórica, como no caso presente, a distribuição normal. Vamos aprofundar os detalhes do teste da distribuição Qui-quadrado. O aluno deverá pesquisar a fórmula e a tabela com os graus de liberdade, para produzir um Script escrito em R. Exercício 04 (Grupo de discussão): No grupo de discussão vamos aprofundar os detalhes do teste da distribuição Qui-quadrado. O aluno deverá pesquisar a fórmula e a tabela com os graus de liberdade, para produzir um Script escrito em R. Script: > v <-ET-GPS > v > gl<-length(v) > gl > GL<-GL-1 > Gl > S0<-sum(sqrt(v*v/gl)) > S0 > Qui<-gl*S0 Vamos fazer uma nova rodada usando uma tabela modificada e discutir os resultados do novo erro vm: Figura 4. Fonte: Autor Nova rodada Obs.: ou calcular o erro de 15 pontos GPS, em três dimensões 3D, e novamente fazer as análises do erro V: Pontos GPS Pontos E(m) N(m) H(m) 1 -0,012 -0,003 -0,038 2 -0,002 -0,013 1,008 3 -0,002 -0,009 0,090 4 0,015 0,002 0,121 5 0,012 -0,015 0,087 6 0,026 0,001 0,058 7 -0,027 -0,005 1,076 8 0,026 0,015 2,036 9 0,027 0,023 0,024 10 0,037 0,004 1,054 11 0,04 0,009 -0,048 12 0,055 -0,036 0,054 13 0,065 0,016 0,024 14 0,073 0,016 -0,019 15 0,235 -0,019 0,382 Tabela 02 Fonte: Autor Script: > gps<-read.table (file.choose(), header=T) > gps > E<-GPS[,1] > E > N<-GPS[,2] > N > H<-gps[,3] > H > V<-SQRT(E^2+N^2+H^2) > V Script R1 – Completo > Altimetria <- read.table (file.choose(), header=T) > Altimetria > ET <- ALTIMETRIA[,1] > ET > GPS <- ALTIMETRIA[,2] > GPS > v <- ET-GPS > v > shapiro.test (v) > plot(v) > qqnorm(v) > qqline(v) > length(v) > max(v) > min(v) > sum(v) > V^2 > SQRT(V^2) > mv <- SUM(V)/11 > mv > mv <- mean(v) > mv > sv <- sd(v) > sv > hist(v) > PNORM(11, mv, sv) > curve(dnorm(x), -2,2) > t.test(v) Script R2 – Completo > AA <- read.table (file.choose(), header=T) > AA > MD <- AA[,1] > MD > FT <- AA[,2] > FT > FT <-factor(FT) > FT > OP <-AA[,4] > OP > OP <-factor(OP) > OP > MODELO1 = aov(MD~FT) > summary (MODELO1) > MODELO2 = aov(MD~FT*OP) > summary (MODELO2) Caso prático No trabalho apresentado, e que foi discutido usando as ferramentas do sistema estatístico R, podemos fazer algumas analogias e demonstrar a finalidade ou importância de tudo isso. Por exemplo, vamos imaginar que a primeira medição usando ET e GPS, ou qualquer outro método, foi uma medição de controle e de alta precisão. Mas no decorrer dos trabalhos outras medições deverão ser realizadas, com novos métodos ou outros equipamentos menos precisos, e comparadas com as medições originais. Levando em consideração todas as estatísticas apresentadas, para validar o primeiro conjunto de dados, então, poderemos usar simplesmente a função densidade de probabilidade, da distribuição normal, que depende apenas da média mv e do desvio padrão sv, dos dados da medição de controle, e dizer, para cada novo conjunto de novas medidas, se os valores são confiáveis ou não. 12º Passo: avaliar a densidade de probabilidade das novas medições: Usar o Script R3, a seguir: > dnorm (vm, mean = mv, sd = sv) Obs.: vm = Erro da nova rodada Finalmente vamos terminar essa primeira etapa fazendo uma análise de Correlação Linear dos dados, conhecida como Correlação Linear de Pearson ou Régua de Pearson. O sistema R através da função rnorm é capaz de gerar uma distribuição normal. Devemos informar apenas três parâmetros: o número de observações desejadas, a média mv e do desvio padrão sv, dos dados de controle. 13º Passo: vamos produzir uma distribuição normal com 11 observações, de média mv e desvio padrão sv: > distNorm <- RNORM(11, mean=mv, sd=sv) 14º Passo: calcular a correlação linear dos dados: Usar o Script R4, a seguir: > cor (v, distNorm) Obs.: a correlação linear é uma questão muito importante e que tem aplicação em praticamente tudo e que pode ser aprofundada com mais detalhes. Porém, no momento, basta saber que ela varia de 0 a 1. Quanto mais perto de 1 (um) melhor. Conclusão Há um grande interesse sobre a aplicação do ajustamento de observações no georreferenciamento de imóveis rurais. Porém, embora as observações sejam superabundantes, pois equipamentos como a ET ou o GPS, são capazes de fazer várias medições (internas) antes de apresentar os resultados, portanto trabalhando com média e desvio padrão, ou mesmo na própria metodologia do trabalho, onde somos obrigados a processar o ajustamento de uma rede de apoio, no entanto, na verdade, falta uma etapa, que é a base ou o verdadeiro objetivo de um trabalho de ajustamento de observações; O de criar um modelo matemático para simplificar o controle de futuras medições. O nosso passo a passo chega nessa etapa, mas lógico que com algumas simplificações. Lembramos também que nessa fase de criação de modelos, para previsão de novas medidas, ainda poderíamos trabalhar com a simulação dos dados, usando o Método de Monte Carlo, Redes Neurais ou Análise Bayesiana, por exemplo. Script R5 14º Passo: fazer uma Regressão Linear dos dados e achar a função matemática: > MODELO3 <- lm(ETnovo~v) Aqui vamos ter que usar um pouco mais a imaginação, pois existem várias possibilidades práticas. Primeiro, vamos imaginar (extrapolando a ideia inicial) que ET e GPS são, na verdade, parte de um conjunto de pontos de controle, que foram medidos com alta precisão usando duas técnicas para comparar os resultados. Após isso, rotineiramente, ao longo do tempo, precisaremos fazer outras verificações, comparadas com as medições feitas em T0, e que resultaram nas coordenadas da figura 1 Altimetria. Como foi apresentado ao longo dessa introdução, supomos que o trabalho inicial foi feito com todo rigor metodológico e com equipamentos de alta precisão, porém, as novas medições de verificação, certamente, deverão seguir uma rotina mais simplificada. Título do vídeo Então, e em vez de comparar diretamente as novas séries de medições com as coordenadas de controle, vamos usar um modelo matemático (no nosso caso, simplificado), criado para cada ponto P (ET e GPS), para comparar os resultados. Podemos ter N pontos P2 (ET2, GPS2), P3 (ET3, GPS3) etc., onde esse processo ou procedimento poderia ser repetido. Script R3 – Completo > Altimetria <- read.table (file.choose(), header=T)> Altimetria > ET <- ALTIMETRIA[,1] > ET > GPS <- ALTIMETRIA[,2] > GPS > v <- ET-GPS > v > mv <- mean(v) > mv > sv <- sd(v) > sv > Modificada <- read.table (file.choose(), header=T) > Modificada > ETm <- MODIFICADA[,1] > ETm > GPSm <- MODIFICADA[,2] > GPSm > vm <- ETm-GPSm > vm > dnorm(vm, mean = mv, sd = sv) Script R4 – Completo > Altimetria <- read.table (file.choose(), header=T) > Altimetria > ET <- ALTIMETRIA[,1] > ET > GPS <- ALTIMETRIA[,2] > GPS > v <- ET-GPS > v > mv <- mean(v) > mv > sv <- sd(v) > sv > distNorm <- RNORM(11, mean=mv, sd=sv) > distNorm > cor (v,distNorm) Script R5 – Completo > Altimetria <- read.table (file.choose(), header=T) > Altimetria > ET <- ALTIMETRIA[,1] > ET > GPS <- ALTIMETRIA[,2] > GPS > v <- ET-GPS > v > mv <- mean(v) > mv > sv <- sd(v) > sv > MODELO3 <- lm(ET~v) > summary(MODELO3) Ou > MODELO4 <- lm(GPS~v) > summary(MODELO4) > V2 <- RNORM(11, mean=mv, sd=sv) > V2 > V2 <- MEAN(V2) > V2 > v3 <- RNORM(11, mean=mv, sd=sv) > v3 > v3<- mean(v3) > v3 > ET = - 112.014 * V2 + 949.095 > ET > GPS = -113.014 * v3 + 949.095 > GPS O que é um sinal Segundo Weeks (2012) um sinal é um fenômeno variável que pode ser medido. Muitas vezes trata-se de uma quantidade física que varia com o tempo, embora também possa variar com outro parâmetro, tal como o espaço. Exemplos incluem o som (ou, mais precisamente, a pressão acústica), uma tensão (tal como as diferenças de tensão produzidas por um microfone), radar e imagens transmitidas por câmeras de vídeo. A temperatura é outro exemplo de sinal. Medida a cada hora, a temperatura flutuará, indo normalmente de um valor baixo (ao amanhecer) para um valor mais alto (no final da manhã), até um ainda maior ainda (à tarde) e depois para um valor mais baixo (ao anoitecer), até finalmente atingir um valor baixo à noite, novamente. Em muitos casos, devemos examinar o sinal ao longo de um período de tempo. Se, por exemplo, você estiver planejando viajar para uma cidade distante, saber a temperatura média na cidade pode lhe dar uma noção das roupas a serem postas na mala. Mas, se você verificar como a temperatura muda ao longo de um dia, poderá saber se precisará ou não levar uma jaqueta. Os sinais podem conter erros devido às limitações dos dispositivos de medição ou devido ao ambiente. Um sensor de temperatura, por exemplo, pode ser afetado por um vento frio. Na melhor das hipóteses, os sinais representados por um computador constituem boas aproximações dos processos físicos originais. Alguns sinais reais, como a temperatura, podem ser medidos continuamente. Não importa por quanto tempo você olhar para um termômetro, ele fornecerá uma leitura, mesmo que o tempo entre as leituras seja arbitrariamente curto. Podemos registar a temperatura em intervalos de um segundo, um minuto, uma hora etc. Uma vez que tenhamos registrado essas medições; compreenderemos intuitivamente que a temperatura possui valores entre as leituras e que não sabemos quais seriam eles. Se soprar um vento frio, a temperatura cairá e, se o sol brilhar entre as nuvens, ela subirá. Suponha, por exemplo, que meçamos a temperatura a cada hora. Ao fazermos isso, estamos optando por ignorar a temperatura o tempo todo exceto durante as leituras de hora em hora. Trata-se de uma ideia importante: o sinal pode variar ao longo do tempo, mas, quando fazemos leituras periódicas do sinal, terminamos apenas com uma representação do mesmo. Um sinal pode ser imaginado como uma sequência (Contínua ou discreta) de valores (Contínuos ou discretos). Ou seja, um sinal contínuo pode ter valores em qualquer valor de índice (index) arbitrário (você pode medir a temperatura ao meio-dia ou, caso deseje, medi-la 0,0000000003 segundos após o meio-dia). Um sinal discreto, entretanto, possui restrições quanto ao índice – normalmente, a de que ele deve ser inteiro. Por exemplo, a massa de cada planeta em nosso sistema solar poderia ser registrada, numerando-se os planetas de acordo com as suas posições relativas a partir do sol. Para simplificar, presume-se que um sinal discreto possua um índice inteiro e que a relação entre o índice e o tempo (ou qualquer que seja o parâmetro) seja fornecida. Da mesma forma, os valores para o sinal podem ser medidos com uma precisão arbitrária (contínua) ou com uma precisão limitada (discreta). Isto é, você poderia registar a temperatura em milionésimos de grau ou poderia limitar os valores a um nível razoável, tal como um dígito além do decimal. Discreto não significa inteiro, e sim que os valores poderiam ser armazenados como um número racional (um inteiro dividido por outro inteiro). Por exemplo, 72,3 graus Fahrenheit poderiam ser encarados como 723/10. Isso implica que números irracionais não podem ser armazenados em um computador, mas apenas aproximados. Um bom exemplo é π. Você pode escrever 3.14 para representar π, mas trata-se de uma mera aproximação. E, se você escreveu 3,141592654 para representar π, ainda assim não passou de uma aproximação. Na verdade, você poderia representá-lo com 50 milhões de dígitos e mesmo assim continuaria sendo somente uma aproximação! É possível considerar um sinal cujo índice seja contínuo e cujos valores sejam discretos, tal como o número de pessoas presentes em um edifício em um dado momento. O índice (tempo) pode ser medido em frações de segundo, enquanto o número de pessoas é sempre um número inteiro. Também é possível lidar com um sinal em que o índice seja discreto e os valores sejam contínuos; por exemplo, a hora de nascimento de cada pessoa em uma cidade. A pessoa no 4 pode ter nascido apenas 1 microssegundo antes da pessoa no 5, mas tecnicamente elas não nasceram ao mesmo tempo. Isso não significa que duas pessoas não podem ter a mesma hora de nascimento, mas que podemos ser tão precisos quanto desejamos em relação a essa hora. Na maioria dos casos, concentramos nossa atenção nos sinais contínuos (que possuam um índice contínuo e um valor contínuo) e nos sinais discretos (com um índice inteiro e um valor discreto). A maior parte dos sinais na natureza é contínua, mas os sinais representados no interior de um computador são discretos. Um sinal discreto frequentemente é uma aproximação de um valor contínuo. Concentraremos nossa atenção nos sinais contínuo/contínuo e discreto/discreto, pois são os que encontramos no mundo real e no mundo computacional, respectivamente. Doravante nos referiremos a esses sinais como analógico e digital, respectivamente. Os sinais frequentemente são estudados em termos de tempo e amplitude. A amplitude é utilizada como uma forma geral de rotulagem das unidades de um sinal, sem estar limitada pelo sinal específico. Quando se fala da amplitude de um valore de um sinal, não importa se esse valor é medido em graus centígrados, pressão ou tensão. (WEEKS, 2012) Script: séries temporais função TS Neste exemplo, vamos fazer inferência sobre um único ponto de mudança em uma série temporal. Os dados são de acidentes por ano em minas de carvão na Inglaterra. Foram registrados todos os acidentes que envolveram pelo menos 10 mortes entre 1851 e 1962. A partir do gráfico, podemos ver uma mudança em torno do ano 1900. O número médio de acidentes a partir de então parece ficar bem reduzido em comparação com o período anterior. > yr<- 1851:1962 >ac<- C(4,5,4,1,0,4,3,4,0,6,3,3,4,0,2,6,3,3,5,4,5,3,1,4,4,1,5,5,3,4,2,5,2,2,3,4,2,1,3,2,2,1, 1,1,1,3,0,0,1,0,1,1,0,0,3,1,0,3,2,2,0,1,1,1,0,1,0,1,0,0,0,2,1,0,0,0,1,1,0,2,3,3,1,1,2,1,1,1,1,2, 4,2,0,0,0,1,4,0,0,0,1,0,0,0,0,0,1,0,0,1,0,1) > ac > summary(ac) > st<- ts(ac, start= C(1851,1), FREQ=12) > class(st) > st > plot(st) > plot(yr, ac) > plot(yr, ac, type=”l”) > dec<- decompose(st) > dec$seasonal > plot(dec$seasonal) > plot(dec$trend) > plot(dec$random) > plot(dec) Obrigado!