Baixe o app para aproveitar ainda mais
Prévia do material em texto
INSTITUTO TÉCNICO 11ELO ESPECIALIZAÇÃO EM GEOPROCESSAMENTO E GEORREFERENCIAMENTO DE IMÓVEIS RURAIS AJUSTAMENTOS DAS OBERSVAÇÕES FUNDAMENTOS DE ESTATÍSTICA São Luís 2019 Aviso Este material consiste numa apostila em que foram compilados e adaptados vários conteúdos de diversos autores e instituições sobre o assunto referente aos Ajustamentos das Observações/ Fundamentos de Estatística tratando de conceitos, metodologias, aplicações e etc,, visando propiciar ao leitor informações gerais. Por compreender uma vasta gama de referências bibliográficas, pode permitir ao interessado aprofundar-se em assuntos específicos de seu interesse. Este material não pretende esgotar o assunto, sujeito a avanços no emprego de novas metodologias e tecnologias ele consiste apenas numa versão preliminar. Agradecem-se desde já comentários, considerações e a comunicação de quaisquer erros que possam ser encontrados. ÍNDICE Introdução Fundamentos de Estatística Aplicada Conceitos de Ajustamento, observação e modelo matemático Teoria dos erros Variável aleatória, distribuição de probabilidade Variância covariância e confiabilidade Propagação das covariâncias Método dos mínimos quadrados e método paramétrico Qualidade da estimativa Análise dos resultados 1.Introdução Desde o advindo da era digital, a produção de dados cresce exponencialmente. Diariamente a civilização moderna produz o equivalente ao conteúdo da biblioteca do congresso americano (a maior do mundo) em apenas algumas horas. Produzir informações ficou muito fácil. E-mails, mensagens de telefone, navegar pela internet, ir ao caixa eletrônico ou internet para realizar uma operação bancária, requisitar serviços em uma repartição pública. Todas estas ações geram muitos dados. Analisados e sistematizados esses dados geram conhecimentos que direcionam as estratégias de empresas ou fomentam nos governos a necessidade da elaboração de políticas públicas. Para tornar possível ao ser humano analisar grandes quantidades de dados, estes têm que ser coletados, organizados e resumidos. A matemática que permite a manipulação e sistematização destas grandes quantidades de dados está em desenvolvimento a muitos séculos e foram reunidos na ciência da Estatística, que atualmente é essencial em quase todas as áreas do mundo moderno. Portanto a coleta, o processamento, a interpretação e a apresentação de da dos numéricos, pertencem todos, aos domínios da estatística. Observamos a utilização de métodos estatísticos em quase todas as atividades que afetam diretamente nossas vidas, tais como: as decisões econômicas das empresas e governos são todas baseadas em dados estatísticos; a avaliação de controles de doenças e pragas; a análise de problemas de tráfego nas grandes cidades; os estudos dos efeitos de medicamentos; adoção de novas técnicas agrícolas; os estudos demográficos. A partir destes poucos exemplos, podemos notar a importância da Estatística como ferramenta necessária para a compreensão dos fenômenos que ocorrem nas mais diferentes áreas. A Estatística é uma ciência que se dedica ao desenvolvimento e ao uso de métodos para a coleta, resumo, organização, apresentação e análise de dados. (FARIAS; SOARES & CÉSAR, 2003) Não podemos escapar dos dados, assim como não podemos evitar o uso de palavras. Tal como palavras os dados não se interpretam a si mesmos, mas devem ser lidos com entendimento. Da mesma maneira que um escritor pode dispor as palavras em argumentos convincentes ou frases sem sentido, assim também os dados podem ser convincentes, enganosos ou simplesmente inócuos. A instrução numérica, a capacidade de acompanhar e compreender argumentos baseados em dados, é importante para qualquer um de nós. O estudo da estatística é parte essencial de uma formação sólida.” (MOORE, 2000 p...)” 2. Fundamentos de Estatística Aplicada A Estatística é bastante utilizada em diversos ramos da sociedade, no intuito de realizar pesquisas, colher dados e processá-los, analisar informações, apresentar situações através de gráficos de fácil compreensão. Os meios de comunicação, ao utilizarem gráficos, deixam a leitura mais agradável. O IBGE (Instituto Brasileiro de Geografia e Estatística) é considerado um órgão importante e conceituado na área. No intuito de conhecer e aprofundar nos estudos estatísticos precisamos conhecer alguns conceitos e fundamentos primordiais para o desenvolvimento de uma pesquisa. Conceitos e Fundamentos População: conjunto de elementos, número de pessoas de uma cidade. Amostra: parte representativa de uma população. Variável: depende da abordagem da pesquisa, da pergunta que será feita. Exemplo: Qual sua marca de carro favorita? Ford, Volks, Fiat, Peugeot, Nissan são alguns exemplos de resposta. Frequência absoluta: valor exato, número de vezes que o valor da variável é citado. Frequência relativa: valor representado através de porcentagem, divisão entre a frequência absoluta de cada variável e o somatório das frequências absolutas. Medidas de tendência central Média aritmética: medida de tendência central. Somatório dos valores dos elementos, dividido pelo número de elementos. Média aritmética ponderada: Somatório dos valores dos elementos multiplicado pelos seus respectivos pesos, dividido pela soma dos pesos atribuídos. Moda: valor de maior frequência em uma série de dados, o que mais se repete. Mediana: medida central em uma determinada sequência de dados numéricos. Medidas de dispersão Amplitude: subtração entre o maior valor e o menor valor dos elementos do conjunto. Variância: dispersão dos dados variáveis em relação à média. Desvio Padrão: raiz quadrada da variância. Indica a distância média entre a variável e a média aritmética da amostra. 3. Conceitos de Ajustamento, observação e modelo matemático O ajustamento é um ramo da matemática aplicada. Tem por objetivo encontrar solução única para problemas onde o número de observações (ou medidas) é redundante e o sistema de equações inconsistente, bem como estimar a precisão da solução adotada. A inconsistência do sistema de equações é devido às flutuações probabilísticas das observações; isto faz com que um determinado subconjunto de dados proporcione valores diferentes de um outro subconjunto. A solução única nestes tipos de problemas é fornecida pelo Método dos Mínimos Quadrados (MMQ) desenvolvido independentemente por GAUSS (1795) e LEGENDRE (1805). A figura 1.1 esquematiza uma pequena rede de nivelamento geométrico; em função dos desníveis medidos a altitude do A pode ser transportada até L por vários caminhos, cada um proporcionando inúmeras soluções. O ajustamento conduzirá a uma única solução, qualquer que seja o caminho percorrido, tomando as observações coerentes com um modelo matemático. Alternativamente, a altitude de L pode ser fixa, neste caso as observações são ajustadas de tal maneira que o transporte de altitudes a partir de A produza em L um valor idêntico ao prefixado. A mesma figura pode representar uma rede gravimétrica: para o transporte da gravidade valem as mesmas considerações anteriores. Figura 1: Rede de nivelamento geométrico (Fig. 1.1); Trechos de cadeias de triangulação (Fig. 1.2)1 3.1 Conceito de Observação Os termos medida ou observação, aqui tomados como sinônimos são frequentemente usados na prática para referir-se à operação, bem como para o resultado da operação. Os valores numéricos das observações são de fundamental importância para a ciência e engenharia, pois submetem o instrumento à análise e manipulação. Propriedades fundamentais da medida: 1. Medir significa realizar uma operação física; e o processo de medidaconsiste em várias operações elementares; tais como: preparação, calibração, pontaria, leitura etc.; 2. O resultado do processo representa a medida; 3. A não ser na contagem de certos eventos, a medida é sempre realizada com o auxílio de instrumentos; 4. As medidas estão referenciadas a um padrão, os quais são estabelecidos por convenção. Medir é então comparar uma grandeza a um padrão, tendo então unidade e dimensão; 5. A medida é um conceito teórico, tal como uma abstração geométrica usada para distância e ângulo, os quais não têm equivalentes na natureza. No entanto tais conceitos permitem descrever certos elementos da natureza, como localização, área, etc. A abstração teórica para as quais as medidas se referem são chamados de modelo, o qual em nossa área será sempre um modelo matemático. O modelo matemático é de importância básica para os objetivos do ajustamento. As observações, ou medidas, possuem uma propriedade inerente a elas conhecida por flutuações probabilísticas, pois quando se repete n vezes a medida de uma grandeza, os n valores não são idênticos, mas estão dispersos numa certa região ou intervalo, que tradicionalmente eram classificados como erros de observação. Nos casos mais simples realizamos medidas diretamente sobre as próprias grandezas incógnitas (observações diretas). Algumas vezes as incógnitas se ligam por equações de condições (observações diretas condicionadas). Em outras medimos grandezas que se vinculam com as incógnitas (ou parâmetros) através de relações funcionais conhecidas (observações indiretas). 3.2 Conceito de Modelo Matemático Sempre que se necessita descrever matematicamente uma realidade física, recorre-se a fórmulas, expressões ou equações que representam tal realidade com suficiente aproximação. O modelo matemático é definido como sendo um sistema teórico ou um conceito abstrato pelo qual se descreve uma situação física ou uma série de eventos. Desta forma, tal descrição não necessita explicar totalmente a situação física, mas relacionar somente os aspectos ou propriedades de interesse. Tendo em vista que o modelo serve para um propósito particular, ele pode apresentar-se de formas diferentes para uma mesma situação física, dependendo portando do propósito em questão. O modelo teórico está estritamente relacionado à aproximação desejada, como por exemplo: a) A representação da Terra ou parte dela, realidade física nas disciplinas de Topografia e Geodésia, utilizando os modelos teóricos: planos, esfera, elipsóide, etc; b) Considerando em Fotogrametria, que uma foto aérea é perfeitamente vertical; ou admitindo que o raio luminoso, que se propaga através da atmosfera e sistema de lentes tem trajetória reta; são exemplos de modelo teóricos. Modelos mais precisos consideram a inclinação da foto ou efeitos de não colinearidade dos raios. Nota-se que o modelo matemático não descreve exatamente o fenômeno, os eventos ou a realidade física. Descreve aspectos de interesse desta realidade e com aproximação requerida. O modelo matemático é freqüentemente composto de duas partes, dividido em modelo funcional e modelo estocástico. O modelo funcional constitui a parte determinística da realidade física ou evento em consideração. O modelo estocástico descreve as propriedades não determinísticas (estocásticas) das variáveis envolvidas, particularmente aquelas representando as observações. O modelo funcional e o estocástico devem ser tratados juntos, podendo-se ter várias combinações. 3.3 Conceito de Modelo Funcional Quando as medidas são planejadas, um modelo funcional é usualmente escolhido para representar o sistema físico ou fictício com o qual as medidas estão associadas. As medidas são feitas usualmente com a finalidade de avaliar valores para alguns ou todos os parâmetros do modelo funcional. Em Topografia, Geodésia e Fotogrametria, geralmente trabalha-se com modelos geométricos que independem do tempo e, ocasionalmente com modelos dinâmicos; por exemplo: a) Modelo geométrico em Topografia: um triângulo plano no espaço euclidiano é caracterizado por 3 ângulos, 3 vértices, 3 lados e talvez também uma orientação com respeito a um sistema de coordenadas; b) Modelo geométrico em Fotogrametria: fotos aéreas são consideradas imagens perspectivas dos pontos do terreno; c) Modelo dinâmico em Geodésia: campo da gravidade terrestre. Embora os modelos geométricos usados sejam fáceis e simples de visualizar, os elementos físicos para os quais eles se referem não são freqüentemente e claramente distinguíveis. Deve ser reconhecido, entretanto, que não há na natureza objetos tais como pontos, ângulos, distâncias ou coordenadas. Elas são somente elementos do modelo funcional que são usados para descrever feições de objeto natural ou sua localização. Modelos funcionais não são freqüentemente estabelecidos explicitamente, mas por implicação. Se por um momento um topógrafo diz que mediu uma distância, ele se refere que dois objetos são abstraídos e considerados como dois pontos geométricos. A distância geométrica deve ser reduzida ao plano de projeção ou sobre o elipsóide. O mesmo se diz dos ângulos. Um cientista ou engenheiro deve ter habilidade prática para saber em quais casos opera com certos modelos e em quais casos deve construir um novo. O modelo funcional deve proporcionar acuracidade suficiente para o propósito em questão. As observações efetuadas são então introduzidas no modelo e todas as considerações devem ser levadas a efeito. 3.4 Conceito de Modelo Estocástico O modelo estocástico descreve as propriedades estatísticas das observações, que sempre estão sujeitas a incontáveis influências. Elas podem estar sujeitas as influências físicas que não podem ser completamente controladas, resultando em uma certa variabilidade do resultado quando as observações são repetidas. A variabilidade do resultado das medidas não pode ser atribuída a causas específicas. Tem-se ainda como causas, além das físicas, a falibilidade humana e as imperfeições instrumentais. No passado estas variações eram entendidas como sendo devidas aos erros de observação. Atualmente se aceita a variabilidade do resultado como uma propriedade da observação e inerente a conceitos estatísticos. Do ponto de vista prático é difícil estabelecer as propriedades estatísticas das observações. Um caminho é repetir as medidas e derivar as propriedades requeridas, mas isto demanda tempo e dinheiro. Outro caminho, freqüentemente usado na prática é assumir as propriedades estatísticas com base em observações similares (mesmo tipo e circunstância) que foram realizadas no passado. Entretanto, quando as medidas são realizadas, todas as circunstâncias físicas e ambientais devem ser registradas, com a finalidade de proporcionar subsídio para julgar os resultados apropriadamente. Por exemplo, em Geodésia, as observações são usualmente consideradas independentes e de igual precisão. Todas as suposições sobre as propriedades das variáveis envolvidas são levadas em consideração no modelo estocástico. Ele inclui todas as variáveis do modelo. Elas podem ser consideradas fixas (constantes durante o ajustamento ou conhecida a priori), livres (incógnitas do ajustamento) e semi-livres (podem variar, porém sujeitas a certas restrições). A teoria clássica do ajustamento não explicitava especificadamente o conceito de modelo estocástico. Ao invés, o termo erro observacional ou propriedades dos erros de observação eram usados. 4. Teoria dos erros As grandezas físicas são determinadas experimentalmente por medidas ou combinações de medidas. Essas medidas tem uma incerteza intrínseca que advém das características dos equipamentos utilizados na sua determinação e também do operador. Assim, a experiência mostra que, sendo uma medida repetida várias vezes com o mesmo cuidadoe procedimento pelo mesmo operador ou por vários operadores, os resultados obtidos não são, em geral, idênticos. Ao fazermos a medida de uma grandeza física achamos um número que a caracteriza. Quando este resultado vai ser aplicado, é frequentemente necessário saber com que confiança podemos dizer que o número obtido representa a grandeza física. Deve-se, então, poder expressar a incerteza de uma medida de forma que outras pessoas possam entendê-las e para isso utiliza-se de uma linguagem universal. Também deve-se utilizar métodos adequados para combinar as incertezas dos diversos fatores que influem no resultado. A maneira de se obter e manipular os dados experimentais, com a finalidade de conseguir estimar com a maior precisão possível o valor da grandeza medida e o seu erro, exige um tratamento adequado que é o objetivo da chamada “Teoria dos Erros”, e que será abordada aqui na sua forma mais simples e suscinta. Algarismos significativos Vamos considerar uma situação hipotética em que temos um objeto AB e desejamos medi-lo com uma régua graduada em centímetros, como se mostra na Figura 1. Na leitura do comprimento do objeto AB, podemos afirmar com certeza que ele possui 8 cm exatos, mas a fração de 1 cm a mais dos 8 cm não podemos afirmar com certeza qual é. Esta fração não se pode medir, mas pode ser avaliada ou estimada pelo experimentador dentro de seus limites de percepção. Se 3 experimentadores fossem anotar o comprimento de AB: 1) Todos os três anotariam os 8 cm exatos. 2) Mas poderiam avaliar a fração do 1 cm restante de formas diferentes, como: fração de 1 cm = 0,7 cm fração de 1 cm = 0,8 cm fração de 1 cm = 0,6 cm e nenhum dos três estariam errados. Logo o comprimento de AB poderia ser anotado como sendo: AB = 8 cm + 0,7 cm, ou AB = 8 cm + 0,8 cm, ou AB = 8 cm + 0,6 cm Se, por exemplo, um quarto experimentador anotasse a fração do 1 cm como sendo 0,75 cm, que sentido se poderia atribuir a esse resultado? Ao se medir com uma régua graduada em centímetro, tem sentido avaliar décimos de centímetros (milímetros) mas é discutível ou mesmo inaceitável avaliar centésimos ou frações menores. Em medições, é costume fazer estimativas com aproximações até décimos da menor divisão da escala do instrumento. Estimar centésimos ou milésimos da menor divisão da escala está fora da percepção da maioria dos seres humanos. Se tomarmos a medida que representa o comprimento do objeto AB como 8,7 cm, observamos que ela apresenta 2 dígitos ou algarismos. Um, o 8, que representa a medida exata, isenta de qualquer dúvida, e o outro, o 7, que resultou da medida da fração de 1 cm avaliada na escala, logo, é no algarismo 7 que residirá a dúvida ou incerteza da medida do comprimento. Podemos então, dizer que as medidas realizadas pelos três experimentadores são composta de 1 algarismo exato, (não duvidoso, o 8) e o algarismo duvidoso (onde reside a incerteza da leitura, o 7 ou o 8 ou o 6). Definimos então, algarismos significativos de uma medida como todos os algarismos que temos certeza (os exatos) e mais um duvidoso (sempre o algarismo duvidoso é o último da direita). Exemplos: 15,4 cm: temos 3 algarismos significativos (1 e 5 são exatos e 4 é o duvidoso) 21,31 m/s: temos 4 algarismos significativos (2,1 e 3 são exatos e 1 é o duvidoso) 8,0 m/s2: temos 2 algarismos significativos (8 é o exato e 0 é o duvidoso) 6 N: temos 1 algarismo significativo e ele próprio é o duvidoso 1,6 x 10-19: temos 2 algarismos significativos É importante salientarmos aqui, que a quantidade de algarismos significativos de uma determinada medida não se altera quando de uma transformação de unidades. Por exemplo, na medida o objeto AB: 8,7 cm: 2 algarismos significativos 8,7 x 10-3 m = 0,0087 m: 2 algarismos significativos 8,7 x 10-5 km = 0,000087 km: 2 algarismos significativos 8,7 x 10 mm = 87 mm: 2 algarismos significativos Os dígitos ou algarismos de um número contam-se da esquerda para a direita, a partir do primeiro não nulo, e são significativos todos os exatos e somente o primeiro duvidoso. Incertezas É a fração avaliada da menor divisão da escala, isto é, no dígito duvidoso é que reside a incerteza da medida. Se tomarmos, como exemplos, a medida do objeto AB como sendo 8,6 cm, sendo o algarismo 6 o duvidoso, isto significa que a medida AB poderia ser 8,5 ou 8,7 cm; 8,4 ou 8,8 cm. No primeiro caso a amplitude da incerteza é ±0,1 cm e no segundo ±0,2 cm. De forma geral, a amplitude da incerteza é fixada pelo experimentador. Caso ele faça opção para a amplitude de ±0,2, a medida do objeto AB = (8,6 ±0,2) cm. Desta forma o experimentador nos revela que a medida é confiável dentro dos limites de 8,4 a 8,8 cm, mas que o valor mais provável da medida, na sua opinião, é AB = 8,6 cm. A incerteza de uma medida pode ser classificada em dois tipos: a) Incerteza absoluta Define-se como incerteza absoluta de uma medida, a amplitude de incertezas fixada pelo experimentador, com o sinal ±. A incerteza absoluta, depende da perícia do experimentador, de sua segurança, da facilidade de leitura da escala e do próprio instrumento utilizado na medição. Apesar de não ser norma, costuma-se adotar como incerteza absoluta, o valor da metade da menor divisão da escala tomado em módulo. Na medida AB=(8,6 ± 0,2) cm, 0,2 cm é a incerteza absoluta. b) Incerteza Relativa A incerteza relativa é igual ao quociente entre a incerteza absoluta e a medida da grandeza e é, freqüentemente expressa em termos percentuais. Por exemplo, para a medida AB = (8,6 ± 0,2) cm, temos: Incerteza absoluta = ±0,2 cm Incerteza relativa = (±0,2/8,6) = ±0,023 ou 2,3% Poderíamos dizer que quanto menor a incerteza relativa, maior a “qualidade” da medida. Quando o valor de uma grandeza é obtido a partir de uma medida única, costuma-se exprimi-lo com a respectiva incerteza absoluta. Arredondamento Um número é arredondado para outro, com o número de algarismos significativos desejados, pelo cancelamento de um ou mais algarismos da direita para a esquerda. Duas regras podem ser utilizadas neste caso: 1. “Quando o algarismo suprimido é menor do que 5, o imediatamente anterior permanece igual.” 2. “Quando o algarismo suprimido é maior ou igual a 5, o imediatamente anterior é acrescido de uma unidade.” Exemplos: L = 2,143 m ⇒ L = 2,14 m, depois de arredondado L = 0,0506 m ⇒ L = 0,051 m, depois de arredondado 5. Variável aleatória, distribuição de probabilidade 5.1 Distribuição de probabilidade Em teoria da probabilidade e em estatística, uma distribuição de probabilidade descreve o comportamento aleatório de um fenômeno dependente do acaso. O estudo dos fenômenos aleatórios começou com o estudo dos jogos de azar – jogos de dados, sorteios de bolas de urna e cara ou coroa eram motivações para compreender e prever os experimentos aleatórios. Essas abordagens iniciais são fenômenos discretos, o que significa que o número de resultados possíveis é finito ou contável. Entretanto, certas questões revelam distribuições de probabilidade com suporte infinito não contável. Por exemplo, quando o lançamento de uma moeda tende ao infinito, o número de coroas aproxima-se de uma distribuição normal. Flutuações e variabilidade estão presentes em quase todo valor que pode ser medido durante a observação de um fenômeno, independentemente de sua natureza, além disso quase todas as medidas possuem uma parte de erro intrínseco. A distribuição de probabilidade pode modelar incertezas e descrever fenômenos físicos, biológicos, econômicos, entre outros. O domínio da estatística permite o encontro das distribuições de probabilidade adaptadas aos fenômenos aleatórios. Há muitas distribuições de probabilidade diferentes. Entre as distribuições de probabilidade, a distribuiçãonormalmente tem uma importância particular. De acordo com o teorema central do limite, a distribuição normal aborda o comportamento assintótico de várias distribuições de probabilidade. O conceito de distribuição de probabilidade é formalizado matematicamente pela teoria da medida – uma distribuição de probabilidade é uma medida muitas vezes vista como uma distribuição que descreve o comportamento de uma variável aleatória discreta ou contínua. Uma medida é uma distribuição de probabilidade se sua massa total for 1. O estudo de uma variável aleatória de acordo com uma distribuição de probabilidade discreta revela o cálculo de somas e de séries, enquanto o estudo de uma variável aleatória de acordo com uma distribuição de probabilidade absolutamente contínua revela o cálculo de integrais. As funções particulares permitem caracterizar as distribuições de probabilidade como a função de distribuição e a função característica. 5.2 Definição Informal Teoricamente uma descrição de probabilidade descreve a característica aleatória de uma experiência aleatória. O conceito de experiência aleatória surgiu para descrever um processo real de natureza experimental, em que o acaso intervém com resultados possíveis bem identificados. Por exemplo, em um lançamento de um dado não viciado (um evento aleatório) os resultados podem ser um número entre 1 e 6 com igual probabilidade (de acordo com a distribuição de probabilidade, há a mesma chance de sairem os seis resultados com probabilidade igual a um sexto). Historicamente distribuições de probabilidade foram estudadas em jogos de azar, jogos de dados, jogos de cartas, entre outros. Se os possíveis resultados dos fenômenos forem números contáveis, a distribuição de probabilidade é chamada discreta. Dar a distribuição de probabilidade significa dar a lista de valores possíveis com suas probabilidades associadas.[1] Ela é dada por meio de uma fórmula, uma tabela de valores, uma árvore de probabilidade ou funções que serão detalhadas nas seções seguintes. Em um contexto mais amplo, se os números dos resultados possíveis de um fenômeno aleatório forem finitos (contáveis ou incontáveis) em vez de infinitos, a distribuição de probabilidade descreve a distribuição de probabilidade dos resultados possíveis, mas caracterizados como funções (funções densidade, funções distribuição, entre outros) ou como medidas. 6. Variância covariância e Confiabilidade Uma grande quantidade de dados são frequentemente comprimidos em resumos assimiláveis mais facilmente, os quais fornecem ao usuário um sentido do conteúdo, sem sobrecarregá-lo com números por demais da conta. Existem várias maneiras nas quais os dados podem ser apresentados. Uma aproximação quebra os números em valores individuais (ou intervalos de valores) e fornece as probabilidades para cada intervalo. Isto é chamado de uma "distribuição". Uma outra aproximação é estimar os "sumários https://pt.wikipedia.org/wiki/Distribui%C3%A7%C3%A3o_de_probabilidade#cite_note-:0-1 estatísticos" para os dados. Para uma série de dados, X1, X2, X3, ....Xn, onde n é o número de observações na série, os sumários estatísticos mais largamente usados são como segue - • a média (m), que é a média de todas as observações na série de dados • a mediana, que é o ponto médio da série; metade dos dados na série é maior do que a mediana e metade é menor. • a variância, que é uma medida do espalhamento da distribuição ao redor da média, e é calculada primeiro pela soma dos desvios quadrados da média, e dividindo-a pelo número de observações (se os dados representam a população toda) ou por este número, reduzido por um (se os dados representam uma amostra) Quando existirem duas séries de dados, existirão várias medidas estatísticas que podem ser usadas para capturar como as duas séries se movem juntas através do tempo. As duas mais largamente usadas são a correlação e a covariância. Para duas séries de dados, X (X1, X2,.) and Y(Y,Y... ), a covariância fornece uma medida não padronizada do grau no qual elas se movem juntas, e é estimada tomando o produto dos desvios da média para cada variável em cada período. O sinal na covariância indica o tipo de relação que as duas variáveis tem. Um sinal positivo indica que elas movem juntas e um negativo que elas movem em direções opostas. Enquanto a covariância cresce com o poder d o relacionamento, ainda é relativamente difícil fazer julgamentos sobre o poder do relacionamento entre as duas variáveis observando a covariância, pois ela não é padronizada. A correlação é a medida padronizada da relação entre duas variáveis. Ela pode ser calculada da covariância– A correlação nunca pode ser maior do que 1 ou menor do que menos 1. Uma correlação próxima a zero indica que as duas variáveis não estão relacionadas. Uma correlação positiva indica que as duas variáveis movem juntas, e a relação é forte quanto mais a correlação se aproxima de um. Uma correlação negativa indica que as duas variáveis movem-se em direções opostas, e que a relação também fica mais forte quanto mais próxima de menos 1 a correção ficar. Duas variáveis que estão perfeitamente correlacionadas positivamente (r=1) movem-se essencialmente em perfeita proporção na mesma direção, enquanto dois conjuntos que estão perfeitamente correlacionados negativamente movem-se em perfeita proporção em direções opostas. Uma regressão simples é uma extensão do conceito correlação/covariância. Ela tenta explicar uma variável, a qual é chamada variável dependente, usando a outra variável, chamada variável independente. Mantendo a tradição estatística, seja Y a variável dependente e X a variável independente. Se as duas variáveis são plotadas uma contra a outra num gráfico de espalhamento, com Y no eixo vertical e X no eixo horizontal, a regressão tenta ajustar uma linha reta através dos pontos de tal modo que minimiza a soma dos desvios quadrados dos pontos da linha. Consequentemente, ela é chamada de regressão ordinária dos mínimos quadrados (OLS). Quando tal linha é ajustada, dois parâmetros emergem - um é o ponto em que a linha corta o eixo Y, chamado de intercepção da regressão, e o outro é a inclinação da linha de regressão. Regressão OLS: Y = a + b X A inclinação (b) da regressão mede ambas a direção e a magnitude da relação. Quando as duas variáveis estão correlacionadas positivamente, a inclinação também será positiva, enquanto quando as duas variáveis estão correlacionadas negativamente, a inclinação será negativa. A magnitude da inclinação da regressão pode ser lida como segue - para cada acréscimo unitário na variável (X), a variável dependente mudará por b (inclinação). A ligação estreita entre a inclinação da regressão e a correlação/covariância não seria surpreendente desde que a inclinação é estimada usando a covariância– A intercepção (a) da regressão pode ser lida de várias maneiras. Uma interpretação é que ela é o valor que Y terá quando X é zero. Uma outra é mais direta, e está baseada em como ela é calculada. É a diferença entre o valor médio de Y, e o valor ajustado da inclinação de X. Os parâmetros da regressão são sempre estimados com algum ruido, parcialmente porque o dado é medido com êrro e parcialmente porque os estimamos de amostra de dados. Este ruído é capturado numa dupla de estatísticas. Um é o R-quadrado da regressão, que mede a proporção da variabilidade em Y que é explicada por X. É uma função direta da correlação entre as variáveis – Um valor de R-quadrado muito próximo de um indica uma forte relação entre as duas variáveis, apesar da relação poder ser positiva ou negativa. Uma outra medida do ruído numa regressão é o êrro padrão, que mede o "espalhamento" ao redor de cada um dos dois parâmetros estimados - a intercepção e a inclinação.Cada parâmetro tem um erro padrão associado, que é calculado dos dados – Erro Padrão da Intercepção = SEa = Se fizermos uma suposição adicional de que a estimativa da intercepção e a inclinação são normalmente distribuídas, a estimativa do parâmetro e o erro padrão podem ser combinados para obter uma "estatística t" que mede se a relação é estatisticamente significante. Estatística T para a intercepção = a/SEa Estatística T da inclinação = b/SEb Por exemplo com mais do que 120 observações, uma estatística t maior do que 1,66 indica que a variável é significativamente diferente de zero com 95% de certeza, enquanto uma estatística maior do que 2,36 indica o mesmo com 99% de certeza. Para amostra menores, a estatística t tem de ser maior para ter significado estatístico. A regressão que mede a relação entre duas variáveis torna-se uma regressão múltipla quando ela é extendida para incluir mais do que uma variável independente (X1,X2,X3,X4..) na tentativa de explicar a variável dependente Y. Enquanto as apresentações gráficas tornam-se mais difícil, a regressão múltipla conduz a uma forma que é uma extensão da regressão simples. Y = a + b X1 + c X2 + dX3 + eX4 O R-quadrado mede ainda a força da relação, mas uma estatística adicional do R- quadrado chamada de R-quadrado ajustado é calculada para contar a tendência que induziria o R-quadrado a manter crescente quando as variáveis independentes são adicionadas à regressão. Se existem k variáveis independentes na regressão, o R-quadrado ajustado é calculado como segue – Na teoria, as variáveis independentes numa regressão precisam estar não correlacionadas uma com a outra. Na prática, elas são frequentemente, e esta correlação cruzada das variáveis independentes é chamada multi-colinearidade. Quando existe multi- colinearidade, · Os coeficientes sobre cada uma das variáveis independentes tornam-se muito mais difíceis para ler isolados, pois as variáveis começam a procurar uma às outras. · A estatística-t relatada tende a exagerar a significância da relação. Existem aproximações estatísticas disponíveis para se tratar com a multi-colinearidade. · A regressão ainda tem poder de previsão. Ambas regressões, a simples e a múltipla, estão baseadas numa relação linear entre a variável dependente e a variável independente. Quando a relação é não-linear, o uso de uma regressão linear conduzirá à predições incorretas. CONFIABILIDADE - É a probabilidade de um sistema (componente, aparelho, circuito, cadeia de máquinas, etc) cumprir sem falhas uma missão com uma duração determinada. A teoria da Confiabilidade (ou, apenas, Confiabilidade) usa como ferramentas principais: • A Estatística Matemática • A Teoria das Probabilidades • O conhecimento experimental das causas das falhas e dos parâmetros que as caracterizam nos diversos tipos de componentes e sistemas. • As regras e estratégias para melhorar o desempenho dos sistemas de várias naturezas e as técnicas para os desenvolvimentos dos sistemas. Uma das finalidades da Confiabilidade é a elaboração de regras que permitam a concepção de sistemas muito complexos (computadores, redes elétricas, usinas químicas, sistemas de geração elétrica, aviões, naves espaciais, sistema de controle e proteção, etc) capazes de funcionar satisfatoriamente mesmo com a ocorrência de falhas em alguns dos seus componentes mais críticos. Os princípios da Teoria da Redundância nasceram deste problema. Um dos primeiros domínios onde, por força da necessidade foram usados cômputos estatísticos para a determinação da confiabilidade foi o da Produção e Distribuição de Energia Elétrica. Mas foram, especialmente, o advento dos computadores de altíssima complexidade de circuito e com enorme número de componentes, as missões espaciais e as necessidades militares que forçaram à maturação, em termos mais elaborados, da Teoria da Confiabilidade. Para citar alguns domínios onde a Teoria da Confiabilidade é de aplicação necessária, nomeamos os seguintes: • Sistemas elétricos de potência, de geração, transmissão e distribuição. • Concepção de sistemas eletrônicos analógicos e digitais. • Redes de transporte, aéreas, marítimas e terrestres. • Organização da Manutenção Corretiva e Preventiva dos processos e serviços. • Cadeias de produção de peças. • Estocagem de peças. • Usinas nucleares. • Missões Espaciais. • Concepção de sistemas de controle e proteção. • Planejamento da expansão dos Sistemas de Produção e Transporte de Energia Elétrica, etc. 7. Propagação das covariâncias Muitas vezes torna-se necessária a disponibilidade de coordenadas transformadas, para o sistema desejado, acompanhadas de suas respectivas variâncias. Para se conhecer a matriz variância-covariância (MVC) das coordenadas transformadas, deve-se dispor da MVC das coordenadas no sistema inicial e realizar a propagação de variância-covariância, ou simplesmente a propagação de covariância. Através da propagação de covariâncias pode-se obter as características estocásticas das variáveis funcionalmente dependentes, conhecendo as características das variáveis independentes e a relação funcional entre os dois conjuntos de variáveis (Camargo, 2000). No caso de transformação de coordenadas, a tarefa da propagação consiste em determinar as propriedades estocásticas das coordenadas transformadas, a partir das propriedades das coordenadas originais. Mesmo considerando que eventualmente as coordenadas originais sejam independentes, não correlacionadas, não significa que o mesmo ocorra com as coordenadas transformadas, já que o próprio modelo matemático que interliga as coordenadas, as correlaciona (Gemael, 1994). A partir dos modelos matemáticos utilizados, pelo aplicativo TCD, foram derivados os modelos que permitem a propagação de covariâncias. Os modelos matemáticos utilizados na transformação de coordenadas são descritos principalmente em Blachut et al. (1979) e Vanícek e Krakiwsky (1986). Durante o desenvolvimento das derivações de tais modelos pode-se observar alguns aspectos importantes e que foram definidores nos caminhos adotados para realizar a propagação de covariâncias nas respectivas transformações. Tais aspectos se referem aos modelos de solução iterativa utilizados em algumas transformações. As transformações de coordenadas geodésicas em cartesianas e de coordenadas geodésicas em TM são realizadas por modelos de solução direta, o que facilita a aplicação da derivação e consequentemente a propagação de covariâncias. Já a transformação de coordenadas cartesianas em geodésicas pode ser realizada por modelos de solução não rigorosa (direta) e de solução iterativa. Devido a complexidade em obter as derivadas nos casos iterativos, pode-se adotar, a princípio, duas soluções: a partir da derivação dos modelos de solução direta, ou adotar o inverso do modelo de propagação empregado na transformação de coordenadas geodésicas em cartesianas, como será apresentado nas próximas seções. Finalmente, a transformação de coordenadas TM em geodésicas é dependente de modelos iterativos, o que dificulta a obtenção das derivadas. Logo, uma solução coerente é a aplicação da propagação de covariâncias adotando o inverso do modelo de propagação obtido na transformação de coordenadas geodésicas em TM, evitando-se deste modo a derivação de modelos não rigorosos bem como de modelos iterativos. 8. Método dos mínimos quadrados e método paramétrico O Método dos Mínimos Quadrados, ou Mínimos Quadrados Ordinários (MQO) ou OLS (do inglês Ordinary Least Squares) é uma técnica de otimização matemática que procura encontrar o melhor ajuste para um conjunto de dados tentando minimizar a soma dos quadrados das diferenças entre o valor estimado e os dados observados (tais diferenças são chamadas resíduos).É a forma de estimação mais amplamente utilizada na econometria. Consiste em um estimador que minimiza a soma dos quadrados dos resíduos da regressão, de forma a maximizar o grau de ajuste do modelo aos dados observados. Um requisito para o método dos mínimos quadrados é que o fator imprevisível (erro) seja distribuído aleatoriamente, essa distribuição seja normal e independente. O Teorema Gauss-Markov garante (embora indiretamente) que o estimador de mínimos quadrados é o estimador não-enviesado de mínima variância linear na variável resposta. Outro requisito é que o modelo é linear nos parâmetros, ou seja, as variáveis apresentam uma relação linear entre si. Caso contrário, deveria ser usado um modelo de regressão não- linear. Credita-se Carl Friedrich Gauss como o desenvolvedor das bases fundamentais do método dos mínimos quadrados, em 1795, quando Gauss tinha apenas dezoito anos. Entretanto, Adrien-Marie Legendre foi o primeiro a publicar o método em 1805, em seu Nouvelles méthodes pour la détermination des orbites des comètes. Gauss publicou suas conclusões apenas em 1809. 8.1 Método Paramétrico O método paramétrico, utilizado na tomada de decisão, auxilia na escolha da melhor alternativa de projeto, tendo como base deveres e desejos. Funciona como o método de pontuação e ponderação que estudamos no tópico anterior, com algumas diferenças, pois é um método de PONTUAÇÃO. Utilizam características do projeto em modelos matemáticos para calcular a estimativa de custos. Esse método foi desenvolvido por Kepner e Tregoe, dois consultores norte-americanos, e auxilia o gestor desde a substituição de funcionários até as decisões de investimento. Algumas empresas utilizam esse método em projetos que já foram desenvolvidos, para obter mais eficiência e melhorar a execução e o resultado. Sabendo a definição de quantidade e tempo com precisão o método torna-se bastante seguro e eficaz. Esse método permite que todos os envolvidos possam interagir trocar ideias e criar soluções na medida em que está sendo utilizado. Com essa ferramenta, os especialistas interagem com o mercado, verificando suas necessidades e identificando subsídios para avaliação mercadológica local. Tais como: Produção, Mercado, Recursos Financeiros, Recursos Humanos, Recursos Administrativos. A utilização desse método se dá em cinco passos, sendo eles: Passo 1: Seleção de critérios de decisão Vejamos um exemplo prático, uma empresa vem crescendo avançadamente nos últimos anos e precisa contratar um gerenciador de projetos, também conhecido como CPO – Chief Projec Officer. Como todo profissional de projetos essa pessoa, deverá ter experiência e habilidades suficientes para administrar projetos. Como essa escolha é de extrema importância para a organização, o ideal seria que todos os diretores e gerentes da empresa reunissem-se para identificar quais requisitos seriam necessários encontrar nesse profissional, para então buscá-lo no mercado de trabalho. Esses requisitos seriam divididos em critérios ou “deveres” e alguns parâmetros ou “desejos”. http://www.portaleducacao.com.br/gestao-e-lideranca/cursos/1560/curso-de-gestao-empresarial Vejamos como a equipe de executivos realizou essa tarefa. Critérios: Salário de no máximo R$ XXXX,XX por mês. Possuir veículo próprio e disponível. Morar próximo ou na mesma cidade da empresa. Parâmetros: Fluência em pelo menos duas línguas, incluindo inglês. Amplo conhecimento em informática. Experiência em gerenciamento de projetos. Experiência administrativa. Disponível para ocupar o cargo. Disponibilidade para viagens. Habilidades e conhecimentos em gerenciamento de projetos. Passo 2: Peso dos “desejos” De todos os parâmetros apresentados, ou seja, os desejos da empresa em relação ao candidato, o mais importante é que o profissional tenha experiência em gerenciamento de projetos. Logo, esse parâmetro deverá levar o peso maior, podendo ser, por exemplo, peso 10. O segundo item importante são os conhecimentos e habilidades do profissional, em gerenciamento de projetos, então o peso poderá ser 9. Desta forma, todos os desejos devem ser avaliados e receber um determinado peso. Passo 3: Avaliação de alternativas Nesse passo, devemos avaliar as alternativas de forma que atendam aos deveres. Voltemos ao exemplo inicial. Nossa empresa recebeu cinco candidatos à vaga de gerente de projetos. Três deles foram avaliados e não atendiam a todos os quesitos. Porém dois deles atendiam aos três critérios (deveres) iniciais. Logo, esses dois candidatos passaram para uma nova fase, a avaliação dos parâmetros. Onde seriam com certeza diferenciados. Passo 4: Pontuação de “desejos” ou parâmetros Chamaremos esses dois candidatos de João e Pedro, para facilitar a compreensão. João passou pela análise de desejos e notou-se que ele possuía uma segunda língua, mas seu inglês era básico. Não poderia iniciar as atividades imediatamente, mas possuía experiência de mais de 10 anos como gerente de projetos, portanto tinha conhecimentos e habilidades na área, além de amplo conhecimento em informática. Pedro, diferente de João, era fluente em inglês, poderia iniciar as atividades em uma semana, tinha 5 anos de experiência administrativa e somente um de experiência como gerente de projetos. Seu conhecimento em informática era de nível médio e tinha dificuldades em apresentar habilidades e conhecimentos em gerenciamento de projetos. Realizada essa análise, os candidatos precisam ser comparados para sabermos quem atenderá melhor aos desejos da empresa. Poderíamos facilitar essa avaliação, dando nota máxima (10) aquele que atendesse o requisito desejado. Por exemplo, João não é fluente em inglês, então ele ganha nota 5, já Pedro ganha nota 10. E assim sucessivamente até que todos os quesitos sejam analisados e pontuados. Na totalização dos pontos é provável que João tenha sido o vencedor, pois atende o maior número de quesitos/desejos solicitados pela empresa. Passo 5: Seleção da alternativa correta Visto os resultados da pontuação, a empresa está apta a selecionar o melhor candidato. 9. Qualidade da estimativa Estimativa e Estimador. Você provavelmente já ouviu falar nessas duas palavrinhas, certo? Essas palavras representam dois conceitos básicos que fazem parte da Inferência Estatística. A inferência é uma técnica que nos permite extrapolar os resultados. Mas o que isso significa? Bom, isso quer dizer, que nós conseguimos fazer afirmações e tirar conclusões, com base em dados parciais ou reduzidos (amostras), e validar os resultados além dos limites comprováveis. Ficou interessado? Vamos extrapolar? A inferência parte de uma certa observação que você vivencia, e extrapola os resultados para o todo. De uma maneira simples, você generaliza a partir de amostras. Fazemos isso diariamente quando tiramos conclusões sobre algo que não conhecemos. Isso é o nosso raciocínio indutivo trabalhando. Imagine que você entra no seu ambiente de trabalho, olha para meia dúzia de pessoas que estão usando calça social, e assume que todo mundo da empresa usa calça social. Isso não é verdade! Provavelmente terão pessoas usando calça jeans, outros tipos de tecidos, e mulheres usando saias. Eu acho que você já entendeu o que a inferência estatística é capaz de fazer. Mas vamos colocar isso em termos técnicos (não muito) para não confundir ninguém! A Inferência Estatística é o “processo de decisão que permite estimar características populacionais a partir de indivíduos amostrados da população.” Acho que conseguimos entender a importância disso tudo, com essa figura colorida aí embaixo, que eu fiz para você. Ok, técnica entendida! Agora que sabemos o princípio da Inferência, vamos falar sobre Estimativas e Estimadores.Eu sei que esses conceitos são difíceis de compreender. E que infelizmente, alguns livros intitulados como “Estatística Básica “, atrapalham mais do que ajudam no entendimento; principalmente se você não é da área. Mas não se preocupe, eu vou ajudá-lo. Mas antes de começar a explicação, eu gostaria de falar sobre a etimologia (história ou origem) da palavra “Estimativa “. Ela vem do latim aestimatus e significa “determinar o valor de”, “estimar um valor”. Explicação que vai de encontro à Inferência e à sua aplicação na estatística. Excelente! De maneira simples, estimar um valor é “opinar” sobre algo que não se tem certeza quando se não conhece o todo. No exemplo da calça social no trabalho, a única forma de não estimar, seria se você coletasse dados das roupas de todos os funcionários da empresa naquele dia (censo). Como na maioria dos casos isso não é possível, trabalhamos com estimativas e estimadores. Mas o que é Estimativa e Estimador? A estimativa é um valor (ou valores) que atribuímos a um parâmetro de uma população baseado em um valor da estatística correspondente da amostra (vide figura anterior). O estimador é a estatística da amostra utilizada para estimar um parâmetro da população. Confuso? Se focarmos apenas nos conceitos, eles ainda podem parecer “incompreensíveis”. Então vamos a um exemplo, que ainda é uma das melhores maneiras de entendermos alguma coisa. Imagine que você quer saber o tempo médio de duração de um casamento no Brasil, onde sua população seriam todos os divorciados. No entanto, como não é viável analisar toda a população, calculamos uma estimativa, a partir de uma amostra representativa da população. Nesse caso, você terá que extrair uma amostra dentre as pessoas divorciadas, e registrar a duração do casamento. Utilizando essas informações poderemos calcular uma média aritmética da amostra. E então com base nesse valor, atribuiremos valores à média populacional μ. Para materializar, suponhamos que você extraia uma amostra representativa de tamanho n, e descubra que o tempo médio de duração de um casamento no Brasil é de 15 anos. Nesse caso, consideramos o valor como uma estimativa de μ. Como a estatística da amostra, utilizada para estimar um parâmetro da população, é chamada de estimador, a média aritmética da amostra, representa um estimador para a média aritmética da população μ. Então a minha estimativa é 15 anos, e o meu estimador é a média (poderia ser variância, desvio-padrão, mediana, moda). Perceba que ao utilizar os conceitos de estimativas e estimadores, estamos falando de estatística inferencial. Aquela parte que eu expliquei no começo do texto, e que vai nos ajudar a tomar decisões em relação a algumas características de uma população, com base em dados coletados das amostras. Lembra? Legal! Você entendeu o conceito de Inferência Estatística, estimativa e estimador. Mas já sabe quando usar? Quando usar? Quando não formos capazes de realizar um censo (levantamento que inclui toda a população em estudo), e desejarmos encontrar o valor de um parâmetro da população. É aí que vamos precisar das estimativas e dos estimadores. Ou seja, “quase” sempre. Um exemplo real dessa situação, e comum a todos nós, são as pesquisas eleitorais. Queremos conhecer as porcentagens de intenção de voto de cada candidato na população de eleitores (parâmetros), mas observamos apenas uma parte da população (uma amostra). É a partir da amostra (representativa), que podemos estimar a porcentagem de intenção de voto relativas a cada candidato (estatísticas). Esse processo pode ser aplicado em infinitas situações, como por exemplo: http://exame.abril.com.br/brasil/noticias/da-solteirice-ao-divorcio-como-os-brasileiros-vivem-o-amor ▪ Uma empresa de laticínios deseja estimar a média de consumo de leite em um determinado país que pretende abrir uma fábrica; ▪ Um gerente de uma instituição financeira pode desejar estimar a média de investimentos mensais de um determinado grupo de investidores, para desenvolver um novo produto; ▪ Uma cervejaria quer estimar a média de consumo de cerveja sem álcool para saber se aumenta sua produção. Perceba que a estimativa e os estimadores estão em praticamente todo estudo, onde se deseja saber algo sobre a população, mas não há possibilidade de fazer um estudo englobando todo mundo. Onde a melhor saída é estimar o parâmetro baseado em uma amostra representativa. Como fazer uma estimativa? Meu objetivo não é entrar no mérito das fórmulas matemáticas, mas sim elencar as etapas do procedimento relativo às estimativas. De forma resumida, podemos separar o processo em 4 etapas: 1. Selecione uma amostra representativa (há várias Técnicas de Amostragem aplicadas de acordo com o tipo de amostra que você precisa). 2. Colete as informações necessárias dos membros da amostra. 3. Calcule o valor da estatística da amostra. 4. Atribua valor (ou valores) ao parâmetro correspondente da população. Esse é um esquema simples de demonstração para estimar parâmetros. Lembre-se sempre: A estimação de parâmetros é um processo que consiste em utilizar dados amostrais para estimar parâmetros populacionais desconhecidos. Alguns conceitos importantes População: é o conjunto de todos os elementos cuja as características estão sendo estudadas. Parâmetro: é uma medida que descreve certa característica dos elementos da população. Amostra aleatória simples: é a amostra extraída de maneira tal que cada elemento da população tenha alguma chance de ser incluído na amostra. Estatística: alguma medida associada com os dados de uma amostra a ser extraída da população. Quando usada com o objetivo de avaliar (estimar) o valor de algum parâmetro, também é chamada de estimador. Erro amostral: é a diferença entre uma estatística e o parâmetro que se quer estimar. 10. Análise dos Resultados Definindo análise estatística O que é análise estatística? É a ciência de coletar, explorar e apresentar grandes quantidades de dados para descobrir padrões e tendências subjacentes. Estatísticas são aplicadas todos os dias – em pesquisas, indústrias e governos – para tornar a tomada de decisão um processo mais científico. Por exemplo: • Fabricantes usam estatísticas para produzir tecidos com qualidade, promover a indústria da aviação e ajudar os guitarristas a compor boas músicas; • Pesquisadores mantêm as crianças saudáveis ao aplicar a estatística na análise de dados da produção de vacinas virais, o que garante consistência e segurança; • Empresas de telecomunicação fazem uso da estatística para otimizar os recursos da rede, melhorar o serviço e reduzir a rotatividade de clientes ao obter uma maior percepção dos requisitos de seus assinantes; • Agências governamentais do mundo inteiro confiam nas estatísticas para obter uma visão nítida de seus países, negócios e pessoas. • Olhe ao seu redor. Do tubo de pasta de dente em seu banheiro aos aviões que voam sobre sua cabeça, você encontra centenas de produtos e processos que foram melhorados com a estatística. A estatística é tão única que ela engloba desde pesquisas sobre diagnósticos médicos e análises de marketing à longevidade de uma lâmpada. É um campo divertido, porque você realmente pode fazer várias coisas diferentes com ele. Computação estatística Métodos tradicionais de análise estatística – da amostragem de dados à interpretação dos resultados – têm sido usados por cientistas há milhares de anos. Mas o volume de dados de hoje torna a estatística ainda mais valiosa e poderosa. Algoritmos avançados, computadores poderosos e o armazenamento de baixo custo estão levando a um aumento no uso de estatística computacional. Esteja você trabalhando com grandes volumes de dados ou executando permutações múltiplas em seus cálculos, a estatística computacional tornou-se essencial para os estatísticos.Práticas populares de estatística computacional incluem: • Programação estatística – das análises de variância e regressão linear tradicionais a métodos exatos e técnicas de visualização estatística, a programação estatística é essencial para tomar decisões baseadas em dados em qualquer setor; https://www.sas.com/pt_br/insights/analytics/analytics.html https://www.sas.com/pt_br/insights/analytics/analytics.html • Econometria – modelagem, forecasting e simulações de processos de negócios para realizar planejamentos estratégico e tático melhores. Esse método aplica a estatística à economia para prever tendências futuras; • Pesquisa de operações – identifica as ações que produzirão os melhores resultados – com base em muitas opções e resultados possíveis. Agendamento, simulação e processos de modelagem relacionados são usados para otimizar os processos de negócios e os desafios de gerenciamento; • Programação matriz – técnicas computacionais poderosas para implementar seus próprios métodos estatísticos e análises de dados exploratórias, usando algoritmos de operação de linha; • Visualização estatística – análises estatísticas rápidas e interativas, e capacidades exploratórias em uma interface visual podem ser usadas para entender dados e construir modelos; • Melhoria de qualidade estatística – uma abordagem matemática para rever as características de qualidade e segurança em todos os aspectos da produção. Em um esforço para organizar os dados e tendências futuras baseadas em informações demográficas, muitas organizações se apoiam em análises estatísticas. Enquanto empresas são bombardeadas com opções sobre o que fazer com a big data, as análises estatísticas são uma das maneiras para examinar o panorama geral de um negócio, bem como diferentes mercados individualmente. Os resultados das análises estatísticas são frutos de serviços de inteligência de mercado que envolvem a coleta e o exame detalhado dos dados de um negócio. O exame também é responsável por delinear as tendências mercadológicas com base em cada informação demográfica de uma população. Existem dois tipos de análises estatísticas: descritivas e conclusivas. Análises descritivas As análises descritivas são utilizadas para que organizações possam resumir os dados do mercado em que atuam. Esse tipo de análise pretende apenas apresentar dados sobre o segmento e setor com a utilização de mapas, gráficos e tabelas. Como os gráficos, tabelas e mapas são componentes primários de uma análise, costumam ser utilizados para facilitar a compreensão de dados brutos. São utilizados para apresentar os dados de uma maneira mais significativa, favorecendo a interpretação do panorama atual do mercado. Análises conclusivas As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira ainda mais objetiva, pois partem de perguntas muito específicas que deverão ser respondidas através do processo analítico. Estatísticas conclusivas permitem que organizações testem hipóteses e cheguem a conclusões sobre a causalidade entre os fatores analisados. Por exemplo, se uma análise descritiva é adequada para https://www.cognatis.com.br/blog/2015/08/20/por-que-pesquisa-de-mercado-e-importante-para-seu-negocio/ https://www.cognatis.com.br/blog/2015/08/20/por-que-pesquisa-de-mercado-e-importante-para-seu-negocio/ compreendermos o perfil da população de um mercado, somente através da análise conclusiva poderemos saber quais fatores demográficos ou econômicos resultam no comportamento de consumo de interesse, bem como entender os mecanismos através dos quais estas relações operam. No fim das contas, como nem todo mundo é um gênio matemático capacitado a computar facilmente as extensas estatísticas geradas em um mercado, as organizações acabam recorrendo a algum tipo de serviço de inteligência de mercado. Busquem se aprofundar mais na disciplina utilizando as referências usadas para montar esse material didático. Boa Sorte! Referências Barbetta, Pedro Alberto. “Estatística Aplicada às Ciências Sociais”. UFSC, 2014, 315p.: http://amzn.to/2cwqx34 COSTA NETO, P.L.O.; CYMBALISTA, M. (1994). Probabilidades. São Paulo: Edgard Blucher. FONSECA, J.S.; MARTINS, G.A. (1993). Curso de estatística. 4a ed. São Paulo: Atlas. LAPONNI, Juan Carlos (1997). Estatística usando o Excel. São Paulo: Lapponi Treinamento e Editora. MILONE, G.; ANGELINI, F. (1995). Estatística aplicada. São Paulo: Atlas. SNEDECOR, G. W.; COCHRAM, W. G. (1989). Statistical Methods. 8rd ed. Iowa: Iowa State University Press, 1989. Mann, Prem S. “Introdução à Estatística”. Capítulo 8: Estimativa da Média Aritmética e da Proporção. LTC, edição 8ª (2015), 788p.: http://amzn.to/2eqJGVw Moretin, Pedro. “Estatística Básica”. Saraiva, edição 8ª (2014), 568p.: http://amzn.to/2cip0l6 WONNACOTT, T.H.; WONNACOTT, R. J. (1990). Introductory Statistics. New York. John wiley & Sons; https://www.amazon.com.br/Estat%C3%ADstica-Aplicada-%C3%80s-Ci%C3%AAncias-Socias/dp/853280666X/ref=sr_1_1?ie=UTF8&qid=1474220701&sr=8-1&keywords=+Pedro+Alberto+Barbetta https://www.amazon.com.br/Introdu%C3%A7%C3%A3o-Estat%C3%ADstica-Prem-S-Mann%C2%A0/dp/8521627645/ref=sr_1_3?ie=UTF8&qid=1474152394&sr=8-3&keywords=introdu%C3%A7%C3%A3o+%C3%A0+estat%C3%ADstica https://www.amazon.com.br/Estat%C3%ADstica-B%C3%A1sica-Pedro-Morettin/dp/8502207997/ref=sr_1_1?ie=UTF8&qid=1474220393&sr=8-1&keywords=estat%C3%ADstica+b%C3%A1sica
Compartilhar