Buscar

Apostila_ Ajustamentos das Observações- Fundamentos de estatistica_11_ELO

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 33 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 33 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 33 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

INSTITUTO TÉCNICO 11ELO 
ESPECIALIZAÇÃO EM GEOPROCESSAMENTO E GEORREFERENCIAMENTO DE 
IMÓVEIS RURAIS 
 
 
AJUSTAMENTOS DAS OBERSVAÇÕES 
FUNDAMENTOS DE ESTATÍSTICA 
 
 
 
 
São Luís 
2019 
Aviso 
 
 
 
Este material consiste numa apostila em que foram compilados e adaptados vários 
conteúdos de diversos autores e instituições sobre o assunto referente aos Ajustamentos das 
Observações/ Fundamentos de Estatística 
tratando de conceitos, metodologias, aplicações e etc,, visando propiciar ao leitor 
informações gerais. 
Por compreender uma vasta gama de referências bibliográficas, pode permitir ao 
interessado aprofundar-se em assuntos específicos de seu interesse. 
Este material não pretende esgotar o assunto, sujeito a avanços no emprego de novas 
metodologias e tecnologias ele consiste apenas numa versão preliminar. 
Agradecem-se desde já comentários, considerações e a comunicação de quaisquer erros que 
possam ser encontrados. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ÍNDICE 
 
Introdução 
Fundamentos de Estatística Aplicada 
Conceitos de Ajustamento, observação e modelo matemático 
Teoria dos erros 
Variável aleatória, distribuição de probabilidade 
Variância covariância e confiabilidade 
Propagação das covariâncias 
Método dos mínimos quadrados e método paramétrico 
Qualidade da estimativa 
Análise dos resultados 
 
 
 
 
 
 
 
 
 
 
 
 
1.Introdução 
 
Desde o advindo da era digital, a produção de dados cresce exponencialmente. 
Diariamente a civilização moderna produz o equivalente ao conteúdo da biblioteca do 
congresso americano (a maior do mundo) em apenas algumas horas. Produzir 
informações ficou muito fácil. E-mails, mensagens de telefone, navegar pela internet, ir 
ao caixa eletrônico ou internet para realizar uma operação bancária, requisitar serviços 
em uma repartição pública. Todas estas ações geram muitos dados. Analisados e 
sistematizados esses dados geram conhecimentos que direcionam as estratégias de 
empresas ou fomentam nos governos a necessidade da elaboração de políticas públicas. 
 
Para tornar possível ao ser humano analisar grandes quantidades de dados, estes têm que 
ser coletados, organizados e resumidos. A matemática que permite a manipulação e 
sistematização destas grandes quantidades de dados está em desenvolvimento a muitos 
séculos e foram reunidos na ciência da Estatística, que atualmente é essencial em quase 
todas as áreas do mundo moderno. 
 
Portanto a coleta, o processamento, a interpretação e a apresentação de da dos numéricos, 
pertencem todos, aos domínios da estatística. Observamos a utilização de métodos 
estatísticos em quase todas as atividades que afetam diretamente nossas vidas, tais como: 
as decisões econômicas das empresas e governos são todas baseadas em dados 
estatísticos; a avaliação de controles de doenças e pragas; a análise de problemas de 
tráfego nas grandes cidades; os estudos dos efeitos de medicamentos; adoção de novas 
técnicas agrícolas; os estudos demográficos. A partir destes poucos exemplos, podemos 
notar a importância da Estatística como ferramenta necessária para a compreensão dos 
fenômenos que ocorrem nas mais diferentes áreas. 
 
A Estatística é uma ciência que se dedica ao desenvolvimento e ao 
uso de métodos para a coleta, resumo, organização, apresentação e 
análise de dados. (FARIAS; SOARES & CÉSAR, 2003) 
 
Não podemos escapar dos dados, assim como não podemos evitar o uso de palavras. Tal 
como palavras os dados não se interpretam a si mesmos, mas devem ser lidos com 
entendimento. Da mesma maneira que um escritor pode dispor as palavras em argumentos 
convincentes ou frases sem sentido, assim também os dados podem ser convincentes, 
enganosos ou simplesmente inócuos. A instrução numérica, a capacidade de acompanhar 
e compreender argumentos baseados em dados, é importante para qualquer um de nós. O 
estudo da estatística é parte essencial de uma formação sólida.” (MOORE, 2000 p...)” 
 
2. Fundamentos de Estatística Aplicada 
 
A Estatística é bastante utilizada em diversos ramos da sociedade, no intuito de realizar 
pesquisas, colher dados e processá-los, analisar informações, apresentar situações através 
de gráficos de fácil compreensão. Os meios de comunicação, ao utilizarem gráficos, 
deixam a leitura mais agradável. O IBGE (Instituto Brasileiro de Geografia e Estatística) 
é considerado um órgão importante e conceituado na área. No intuito de conhecer e 
aprofundar nos estudos estatísticos precisamos conhecer alguns conceitos e fundamentos 
primordiais para o desenvolvimento de uma pesquisa. 
 
 
Conceitos e Fundamentos 
 
População: conjunto de elementos, número de pessoas de uma cidade. 
Amostra: parte representativa de uma população. 
Variável: depende da abordagem da pesquisa, da pergunta que será feita. Exemplo: 
Qual sua marca de carro favorita? Ford, Volks, Fiat, Peugeot, Nissan são alguns 
exemplos de resposta. 
 
Frequência absoluta: valor exato, número de vezes que o valor da variável é citado. 
Frequência relativa: valor representado através de porcentagem, divisão entre a 
frequência absoluta de cada variável e o somatório das frequências absolutas. 
 
Medidas de tendência central 
 
Média aritmética: medida de tendência central. Somatório dos valores dos elementos, 
dividido pelo número de elementos. 
Média aritmética ponderada: Somatório dos valores dos elementos multiplicado pelos 
seus respectivos pesos, dividido pela soma dos pesos atribuídos. 
Moda: valor de maior frequência em uma série de dados, o que mais se repete. 
Mediana: medida central em uma determinada sequência de dados numéricos. 
 
Medidas de dispersão 
 
Amplitude: subtração entre o maior valor e o menor valor dos elementos do conjunto. 
Variância: dispersão dos dados variáveis em relação à média. 
Desvio Padrão: raiz quadrada da variância. Indica a distância média entre a variável e a 
média aritmética da amostra. 
 
 
3. Conceitos de Ajustamento, observação e modelo matemático 
 
 O ajustamento é um ramo da matemática aplicada. Tem por objetivo encontrar solução 
única para problemas onde o número de observações (ou medidas) é redundante e o 
sistema de equações inconsistente, bem como estimar a precisão da solução adotada. A 
inconsistência do sistema de equações é devido às flutuações probabilísticas das 
observações; isto faz com que um determinado subconjunto de dados proporcione valores 
diferentes de um outro subconjunto. A solução única nestes tipos de problemas é 
fornecida pelo Método dos Mínimos Quadrados (MMQ) desenvolvido 
independentemente por GAUSS (1795) e LEGENDRE (1805). 
 
A figura 1.1 esquematiza uma pequena rede de nivelamento geométrico; em função dos 
desníveis medidos a altitude do A pode ser transportada até L por vários caminhos, cada 
um proporcionando inúmeras soluções. O ajustamento conduzirá a uma única solução, 
qualquer que seja o caminho percorrido, tomando as observações coerentes com um 
modelo matemático. Alternativamente, a altitude de L pode ser fixa, neste caso as 
observações são ajustadas de tal maneira que o transporte de altitudes a partir de A 
produza em L um valor idêntico ao prefixado. A mesma figura pode representar uma rede 
gravimétrica: para o transporte da gravidade valem as mesmas considerações anteriores. 
 
 
 
 
 
 
 
 
 Figura 1: Rede de nivelamento geométrico (Fig. 1.1); Trechos de cadeias de triangulação (Fig. 1.2)1 
 
 
 
3.1 Conceito de Observação 
 
Os termos medida ou observação, aqui tomados como sinônimos são frequentemente 
usados na prática para referir-se à operação, bem como para o resultado da operação. Os 
valores numéricos das observações são de fundamental importância para a ciência e 
engenharia, pois submetem o instrumento à análise e manipulação. 
Propriedades fundamentais da medida: 
 
1. Medir significa realizar uma operação física; e o processo de medidaconsiste em várias 
operações elementares; tais como: preparação, calibração, pontaria, leitura etc.; 
2. O resultado do processo representa a medida; 
3. A não ser na contagem de certos eventos, a medida é sempre realizada com o auxílio 
de instrumentos; 
4. As medidas estão referenciadas a um padrão, os quais são estabelecidos por convenção. 
Medir é então comparar uma grandeza a um padrão, tendo então unidade e dimensão; 
5. A medida é um conceito teórico, tal como uma abstração geométrica usada para 
distância e ângulo, os quais não têm equivalentes na natureza. No entanto tais conceitos 
permitem descrever certos elementos da natureza, como localização, área, etc. 
 
A abstração teórica para as quais as medidas se referem são chamados de modelo, o qual 
em nossa área será sempre um modelo matemático. O modelo matemático é de 
importância básica para os objetivos do ajustamento. 
 
As observações, ou medidas, possuem uma propriedade inerente a elas conhecida por 
flutuações probabilísticas, pois quando se repete n vezes a medida de uma grandeza, os n 
valores não são idênticos, mas estão dispersos numa certa região ou intervalo, que 
tradicionalmente eram classificados como erros de observação. 
 
Nos casos mais simples realizamos medidas diretamente sobre as próprias grandezas 
incógnitas (observações diretas). Algumas vezes as incógnitas se ligam por equações de 
condições (observações diretas condicionadas). Em outras medimos grandezas que se 
vinculam com as incógnitas (ou parâmetros) através de relações funcionais conhecidas 
(observações indiretas). 
 
3.2 Conceito de Modelo Matemático 
 
Sempre que se necessita descrever matematicamente uma realidade física, recorre-se a 
fórmulas, expressões ou equações que representam tal realidade com suficiente 
aproximação. O modelo matemático é definido como sendo um sistema teórico ou um 
conceito abstrato pelo qual se descreve uma situação física ou uma série de eventos. Desta 
forma, tal descrição não necessita explicar totalmente a situação física, mas relacionar 
somente os aspectos ou propriedades de interesse. Tendo em vista que o modelo serve 
para um propósito particular, ele pode apresentar-se de formas diferentes para uma mesma 
situação física, dependendo portando do propósito em questão. 
 
O modelo teórico está estritamente relacionado à aproximação desejada, como por 
exemplo: 
 
a) A representação da Terra ou parte dela, realidade física nas disciplinas de Topografia 
e Geodésia, utilizando os modelos teóricos: planos, esfera, elipsóide, etc; 
b) Considerando em Fotogrametria, que uma foto aérea é perfeitamente vertical; ou 
admitindo que o raio luminoso, que se propaga através da atmosfera e sistema de lentes 
tem trajetória reta; são exemplos de modelo teóricos. Modelos mais precisos consideram 
a inclinação da foto ou efeitos de não colinearidade dos raios. 
 
Nota-se que o modelo matemático não descreve exatamente o fenômeno, os eventos ou a 
realidade física. Descreve aspectos de interesse desta realidade e com aproximação 
requerida. 
O modelo matemático é freqüentemente composto de duas partes, dividido em modelo 
funcional e modelo estocástico. O modelo funcional constitui a parte determinística da 
realidade física ou evento em consideração. O modelo estocástico descreve as 
propriedades não determinísticas (estocásticas) das variáveis envolvidas, particularmente 
aquelas representando as observações. O modelo funcional e o estocástico devem ser 
tratados juntos, podendo-se ter várias combinações. 
 
3.3 Conceito de Modelo Funcional 
 
Quando as medidas são planejadas, um modelo funcional é usualmente escolhido para 
representar o sistema físico ou fictício com o qual as medidas estão associadas. As 
medidas são feitas usualmente com a finalidade de avaliar valores para alguns ou todos 
os parâmetros do modelo funcional. Em Topografia, Geodésia e Fotogrametria, 
geralmente trabalha-se com modelos geométricos que independem do tempo e, 
ocasionalmente com modelos dinâmicos; por exemplo: 
a) Modelo geométrico em Topografia: um triângulo plano no espaço euclidiano é 
caracterizado por 3 ângulos, 3 vértices, 3 lados e talvez também uma orientação com 
respeito a um sistema de coordenadas; 
b) Modelo geométrico em Fotogrametria: fotos aéreas são consideradas imagens 
perspectivas dos pontos do terreno; 
c) Modelo dinâmico em Geodésia: campo da gravidade terrestre. 
 
Embora os modelos geométricos usados sejam fáceis e simples de visualizar, os 
elementos físicos para os quais eles se referem não são freqüentemente e claramente 
distinguíveis. Deve ser reconhecido, entretanto, que não há na natureza objetos tais como 
pontos, ângulos, distâncias ou coordenadas. Elas são somente elementos do modelo 
funcional que são usados para descrever feições de objeto natural ou sua localização. 
Modelos funcionais não são freqüentemente estabelecidos explicitamente, mas por 
implicação. Se por um momento um topógrafo diz que mediu uma distância, ele se refere 
que dois objetos são abstraídos e considerados como dois pontos geométricos. A distância 
geométrica deve ser reduzida ao plano de projeção ou sobre o elipsóide. O mesmo se diz 
dos ângulos. 
 
Um cientista ou engenheiro deve ter habilidade prática para saber em quais casos opera 
com certos modelos e em quais casos deve construir um novo. O modelo funcional deve 
proporcionar acuracidade suficiente para o propósito em questão. As observações 
efetuadas são então introduzidas no modelo e todas as considerações devem ser levadas 
a efeito. 
 
3.4 Conceito de Modelo Estocástico 
 
O modelo estocástico descreve as propriedades estatísticas das observações, que sempre 
estão sujeitas a incontáveis influências. Elas podem estar sujeitas as influências físicas 
que não podem ser completamente controladas, resultando em uma certa variabilidade do 
resultado quando as observações são repetidas. A variabilidade do resultado das medidas 
não pode ser atribuída a causas específicas. Tem-se ainda como causas, além das físicas, 
a falibilidade humana e as imperfeições instrumentais. 
 
No passado estas variações eram entendidas como sendo devidas aos erros de observação. 
Atualmente se aceita a variabilidade do resultado como uma propriedade da observação 
e inerente a conceitos estatísticos. Do ponto de vista prático é difícil estabelecer as 
propriedades estatísticas das observações. Um caminho é repetir as medidas e derivar as 
propriedades requeridas, mas isto demanda tempo e dinheiro. Outro caminho, 
freqüentemente usado na prática é assumir as propriedades estatísticas com base em 
observações similares (mesmo tipo e circunstância) que foram realizadas no passado. 
Entretanto, quando as medidas são realizadas, todas as circunstâncias físicas e ambientais 
devem ser registradas, com a finalidade de proporcionar subsídio para julgar os resultados 
apropriadamente. Por exemplo, em Geodésia, as observações são usualmente 
consideradas independentes e de igual precisão. 
 
Todas as suposições sobre as propriedades das variáveis envolvidas são levadas em 
consideração no modelo estocástico. Ele inclui todas as variáveis do modelo. Elas podem 
ser consideradas fixas (constantes durante o ajustamento ou conhecida a priori), livres 
(incógnitas do ajustamento) e semi-livres (podem variar, porém sujeitas a certas 
restrições). A teoria clássica do ajustamento não explicitava especificadamente o conceito 
de modelo estocástico. Ao invés, o termo erro observacional ou propriedades dos erros 
de observação eram usados. 
 
4. Teoria dos erros 
 
As grandezas físicas são determinadas experimentalmente por medidas ou combinações 
de medidas. Essas medidas tem uma incerteza intrínseca que advém das características 
dos equipamentos utilizados na sua determinação e também do operador. Assim, a 
experiência mostra que, sendo uma medida repetida várias vezes com o mesmo cuidadoe procedimento pelo mesmo operador ou por vários operadores, os resultados obtidos não 
são, em geral, idênticos. 
 
Ao fazermos a medida de uma grandeza física achamos um número que a caracteriza. 
Quando este resultado vai ser aplicado, é frequentemente necessário saber com que 
confiança podemos dizer que o número obtido representa a grandeza física. Deve-se, 
então, poder expressar a incerteza de uma medida de forma que outras pessoas possam 
entendê-las e para isso utiliza-se de uma linguagem universal. Também deve-se utilizar 
métodos adequados para combinar as incertezas dos diversos fatores que influem no 
resultado. 
 
A maneira de se obter e manipular os dados experimentais, com a finalidade de conseguir 
estimar com a maior precisão possível o valor da grandeza medida e o seu erro, exige um 
tratamento adequado que é o objetivo da chamada “Teoria dos Erros”, e que será abordada 
aqui na sua forma mais simples e suscinta. 
 
Algarismos significativos 
 
Vamos considerar uma situação hipotética em que temos um objeto AB e desejamos 
medi-lo com uma régua graduada em centímetros, como se mostra na Figura 1. 
 
 
 
Na leitura do comprimento do objeto AB, podemos afirmar com certeza que ele possui 
8 cm exatos, mas a fração de 1 cm a mais dos 8 cm não podemos afirmar com certeza 
qual é. Esta fração não se pode medir, mas pode ser avaliada ou estimada pelo 
experimentador dentro de seus limites de percepção. 
 
Se 3 experimentadores fossem anotar o comprimento de AB: 
1) Todos os três anotariam os 8 cm exatos. 
2) Mas poderiam avaliar a fração do 1 cm restante de formas diferentes, como: 
fração de 1 cm = 0,7 cm 
fração de 1 cm = 0,8 cm 
fração de 1 cm = 0,6 cm 
e nenhum dos três estariam errados. 
Logo o comprimento de AB poderia ser anotado como sendo: 
AB = 8 cm + 0,7 cm, ou 
AB = 8 cm + 0,8 cm, ou 
AB = 8 cm + 0,6 cm 
 
Se, por exemplo, um quarto experimentador anotasse a fração do 1 cm como sendo 0,75 
cm, que sentido se poderia atribuir a esse resultado? Ao se medir com uma régua 
graduada em centímetro, tem sentido avaliar décimos de centímetros (milímetros) mas é 
discutível ou mesmo inaceitável avaliar centésimos ou frações menores. Em medições, é 
costume fazer estimativas com aproximações até décimos da menor divisão da escala do 
instrumento. Estimar centésimos ou milésimos da menor divisão da escala está fora da 
percepção da maioria dos seres humanos. 
 
Se tomarmos a medida que representa o comprimento do objeto AB como 8,7 cm, 
observamos que ela apresenta 2 dígitos ou algarismos. Um, o 8, que representa a medida 
exata, isenta de qualquer dúvida, e o outro, o 7, que resultou da medida da fração de 1 cm 
avaliada na escala, logo, é no algarismo 7 que residirá a dúvida ou incerteza da medida 
do comprimento. Podemos então, dizer que as medidas realizadas pelos três 
experimentadores são composta de 1 algarismo exato, (não duvidoso, o 8) e o algarismo 
duvidoso (onde reside a incerteza da leitura, o 7 ou o 8 ou o 6). 
 
Definimos então, algarismos significativos de uma medida como todos os algarismos 
que temos certeza (os exatos) e mais um duvidoso (sempre o algarismo duvidoso é o 
último da 
direita). 
 
Exemplos: 
15,4 cm: temos 3 algarismos significativos (1 e 5 são exatos e 4 é o duvidoso) 
21,31 m/s: temos 4 algarismos significativos (2,1 e 3 são exatos e 1 é o duvidoso) 
8,0 m/s2: temos 2 algarismos significativos (8 é o exato e 0 é o duvidoso) 
6 N: temos 1 algarismo significativo e ele próprio é o duvidoso 
1,6 x 10-19: temos 2 algarismos significativos 
 
É importante salientarmos aqui, que a quantidade de algarismos significativos de uma 
determinada medida não se altera quando de uma transformação de unidades. Por 
exemplo, na 
medida o objeto AB: 
8,7 cm: 2 algarismos significativos 
8,7 x 10-3 m = 0,0087 m: 2 algarismos significativos 
8,7 x 10-5 km = 0,000087 km: 2 algarismos significativos 
8,7 x 10 mm = 87 mm: 2 algarismos significativos 
Os dígitos ou algarismos de um número contam-se da esquerda para a direita, a partir do 
primeiro não nulo, e são significativos todos os exatos e somente o primeiro duvidoso. 
 
Incertezas 
 
É a fração avaliada da menor divisão da escala, isto é, no dígito duvidoso é que reside a 
incerteza da medida. Se tomarmos, como exemplos, a medida do objeto AB como sendo 
8,6 cm, sendo o algarismo 6 o duvidoso, isto significa que a medida AB poderia ser 8,5 
ou 8,7 cm; 8,4 ou 8,8 cm. No primeiro caso a amplitude da incerteza é ±0,1 cm e no 
segundo ±0,2 cm. De forma geral, a amplitude da incerteza é fixada pelo experimentador. 
Caso ele faça opção para a amplitude de ±0,2, a medida do objeto AB = (8,6 ±0,2) cm. 
Desta forma o experimentador nos revela que a medida é confiável dentro dos limites de 
8,4 a 8,8 cm, mas que o valor mais provável da medida, na sua opinião, é AB = 8,6 cm. 
 
A incerteza de uma medida pode ser classificada em dois tipos: 
 
a) Incerteza absoluta 
 
Define-se como incerteza absoluta de uma medida, a amplitude de incertezas fixada 
pelo experimentador, com o sinal ±. A incerteza absoluta, depende da perícia do 
experimentador, de sua segurança, da facilidade de leitura da escala e do próprio 
instrumento utilizado na medição. Apesar de não ser norma, costuma-se adotar como 
incerteza absoluta, o valor da metade da menor divisão da escala tomado em módulo. 
Na medida AB=(8,6 ± 0,2) cm, 0,2 cm é a incerteza absoluta. 
 
b) Incerteza Relativa 
 
A incerteza relativa é igual ao quociente entre a incerteza absoluta e a medida da 
grandeza e é, freqüentemente expressa em termos percentuais. Por exemplo, para a 
medida AB = (8,6 ± 0,2) cm, temos: 
 
Incerteza absoluta = ±0,2 cm 
Incerteza relativa = (±0,2/8,6) = ±0,023 ou 2,3% 
 
Poderíamos dizer que quanto menor a incerteza relativa, maior a “qualidade” da medida. 
Quando o valor de uma grandeza é obtido a partir de uma medida única, costuma-se 
exprimi-lo com a respectiva incerteza absoluta. 
 
 
 
Arredondamento 
 
Um número é arredondado para outro, com o número de algarismos significativos 
desejados, pelo cancelamento de um ou mais algarismos da direita para a esquerda. 
 
Duas regras 
podem ser utilizadas neste caso: 
1. “Quando o algarismo suprimido é menor do que 5, o imediatamente anterior 
permanece igual.” 
2. “Quando o algarismo suprimido é maior ou igual a 5, o imediatamente anterior é 
acrescido de 
uma unidade.” 
Exemplos: 
 
L = 2,143 m ⇒ L = 2,14 m, depois de arredondado 
L = 0,0506 m ⇒ L = 0,051 m, depois de arredondado 
 
 
5. Variável aleatória, distribuição de probabilidade 
 
 
 
 
 
5.1 Distribuição de probabilidade 
Em teoria da probabilidade e em estatística, uma distribuição de 
probabilidade descreve o comportamento aleatório de um fenômeno dependente 
do acaso. O estudo dos fenômenos aleatórios começou com o estudo dos jogos de azar – 
jogos de dados, sorteios de bolas de urna e cara ou coroa eram motivações para 
compreender e prever os experimentos aleatórios. Essas abordagens iniciais são 
fenômenos discretos, o que significa que o número de resultados possíveis é finito ou 
contável. Entretanto, certas questões revelam distribuições de probabilidade com suporte 
infinito não contável. Por exemplo, quando o lançamento de uma moeda tende ao infinito, 
o número de coroas aproxima-se de uma distribuição normal. 
Flutuações e variabilidade estão presentes em quase todo valor que pode ser medido 
durante a observação de um fenômeno, independentemente de sua natureza, além disso 
quase todas as medidas possuem uma parte de erro intrínseco. A distribuição de 
probabilidade pode modelar incertezas e descrever fenômenos físicos, biológicos, 
econômicos, entre outros. O domínio da estatística permite o encontro das distribuições 
de probabilidade adaptadas aos fenômenos aleatórios. 
Há muitas distribuições de probabilidade diferentes. Entre as distribuições de 
probabilidade, a distribuiçãonormalmente tem uma importância particular. De acordo 
com o teorema central do limite, a distribuição normal aborda o comportamento 
assintótico de várias distribuições de probabilidade. 
O conceito de distribuição de probabilidade é formalizado matematicamente pela teoria 
da medida – uma distribuição de probabilidade é uma medida muitas vezes vista como 
uma distribuição que descreve o comportamento de uma variável aleatória discreta ou 
contínua. Uma medida é uma distribuição de probabilidade se sua massa total for 1. O 
estudo de uma variável aleatória de acordo com uma distribuição de probabilidade 
discreta revela o cálculo de somas e de séries, enquanto o estudo de uma variável aleatória 
de acordo com uma distribuição de probabilidade absolutamente contínua revela o cálculo 
de integrais. As funções particulares permitem caracterizar as distribuições de 
probabilidade como a função de distribuição e a função característica. 
 
5.2 Definição Informal 
Teoricamente uma descrição de probabilidade descreve a característica aleatória de uma 
experiência aleatória. O conceito de experiência aleatória surgiu para descrever um 
processo real de natureza experimental, em que o acaso intervém com resultados possíveis 
bem identificados. Por exemplo, em um lançamento de um dado não viciado (um evento 
aleatório) os resultados podem ser um número entre 1 e 6 com igual probabilidade (de 
acordo com a distribuição de probabilidade, há a mesma chance de sairem os seis 
resultados com probabilidade igual a um sexto). 
Historicamente distribuições de probabilidade foram estudadas em jogos de azar, jogos 
de dados, jogos de cartas, entre outros. Se os possíveis resultados dos fenômenos forem 
números contáveis, a distribuição de probabilidade é chamada discreta. Dar a distribuição 
de probabilidade significa dar a lista de valores possíveis com suas probabilidades 
associadas.[1] Ela é dada por meio de uma fórmula, uma tabela de valores, uma árvore de 
probabilidade ou funções que serão detalhadas nas seções seguintes. 
Em um contexto mais amplo, se os números dos resultados possíveis de um fenômeno 
aleatório forem finitos (contáveis ou incontáveis) em vez de infinitos, a distribuição de 
probabilidade descreve a distribuição de probabilidade dos resultados possíveis, mas 
caracterizados como funções (funções densidade, funções distribuição, entre outros) ou 
como medidas. 
 
6. Variância covariância e Confiabilidade 
Uma grande quantidade de dados são frequentemente comprimidos em resumos 
assimiláveis mais facilmente, os quais fornecem ao usuário um sentido do conteúdo, sem 
sobrecarregá-lo com números por demais da conta. Existem várias maneiras nas quais os 
dados podem ser apresentados. Uma aproximação quebra os números em valores 
individuais (ou intervalos de valores) e fornece as probabilidades para cada intervalo. Isto 
é chamado de uma "distribuição". Uma outra aproximação é estimar os "sumários 
https://pt.wikipedia.org/wiki/Distribui%C3%A7%C3%A3o_de_probabilidade#cite_note-:0-1
estatísticos" para os dados. Para uma série de dados, X1, X2, X3, ....Xn, onde n é o número 
de observações na série, os sumários estatísticos mais largamente usados são como segue 
- 
• a média (m), que é a média de todas as observações na série de dados 
 
• a mediana, que é o ponto médio da série; metade dos dados na série é maior do que a 
mediana e metade é menor. 
• a variância, que é uma medida do espalhamento da distribuição ao redor da média, e 
é calculada primeiro pela soma dos desvios quadrados da média, e dividindo-a pelo 
número de observações (se os dados representam a população toda) ou por este número, 
reduzido por um (se os dados representam uma amostra) 
 
 Quando existirem duas séries de dados, existirão várias medidas estatísticas que 
podem ser usadas para capturar como as duas séries se movem juntas através do tempo. 
As duas mais largamente usadas são a correlação e a covariância. Para duas séries de 
dados, X (X1, X2,.) and Y(Y,Y... ), a covariância fornece uma medida não padronizada 
do grau no qual elas se movem juntas, e é estimada tomando o produto dos desvios da 
média para cada variável em cada período. 
 
O sinal na covariância indica o tipo de relação que as duas variáveis tem. Um sinal 
positivo indica que elas movem juntas e um negativo que elas movem em direções 
opostas. Enquanto a covariância cresce com o poder d o relacionamento, ainda é 
relativamente difícil fazer julgamentos sobre o poder do relacionamento entre as duas 
variáveis observando a covariância, pois ela não é padronizada. 
 A correlação é a medida padronizada da relação entre duas variáveis. Ela pode ser 
calculada da covariância– 
 
A correlação nunca pode ser maior do que 1 ou menor do que menos 1. Uma correlação 
próxima a zero indica que as duas variáveis não estão relacionadas. Uma correlação 
positiva indica que as duas variáveis movem juntas, e a relação é forte quanto mais a 
correlação se aproxima de um. Uma correlação negativa indica que as duas variáveis 
movem-se em direções opostas, e que a relação também fica mais forte quanto mais 
próxima de menos 1 a correção ficar. Duas variáveis que estão perfeitamente 
correlacionadas positivamente (r=1) movem-se essencialmente em perfeita proporção na 
mesma direção, enquanto dois conjuntos que estão perfeitamente correlacionados 
negativamente movem-se em perfeita proporção em direções opostas. 
 Uma regressão simples é uma extensão do conceito correlação/covariância. Ela 
tenta explicar uma variável, a qual é chamada variável dependente, usando a outra 
variável, chamada variável independente. Mantendo a tradição estatística, seja Y a 
variável dependente e X a variável independente. Se as duas variáveis são plotadas uma 
contra a outra num gráfico de espalhamento, com Y no eixo vertical e X no eixo 
horizontal, a regressão tenta ajustar uma linha reta através dos pontos de tal modo que 
minimiza a soma dos desvios quadrados dos pontos da linha. Consequentemente, ela é 
chamada de regressão ordinária dos mínimos quadrados (OLS). Quando tal linha é 
ajustada, dois parâmetros emergem - um é o ponto em que a linha corta o eixo Y, chamado 
de intercepção da regressão, e o outro é a inclinação da linha de regressão. 
 
Regressão OLS: Y = a + b X 
A inclinação (b) da regressão mede ambas a direção e a magnitude da relação. Quando as 
duas variáveis estão correlacionadas positivamente, a inclinação também será positiva, 
enquanto quando as duas variáveis estão correlacionadas negativamente, a inclinação será 
negativa. A magnitude da inclinação da regressão pode ser lida como segue - para cada 
acréscimo unitário na variável (X), a variável dependente mudará por b (inclinação). A 
ligação estreita entre a inclinação da regressão e a correlação/covariância não seria 
surpreendente desde que a inclinação é estimada usando a covariância– 
 
A intercepção (a) da regressão pode ser lida de várias maneiras. Uma interpretação é que 
ela é o valor que Y terá quando X é zero. Uma outra é mais direta, e está baseada em 
como ela é calculada. É a diferença entre o valor médio de Y, e o valor ajustado da 
inclinação de X. 
 
Os parâmetros da regressão são sempre estimados com algum ruido, parcialmente porque 
o dado é medido com êrro e parcialmente porque os estimamos de amostra de dados. Este 
ruído é capturado numa dupla de estatísticas. Um é o R-quadrado da regressão, que mede 
a proporção da variabilidade em Y que é explicada por X. É uma função direta da 
correlação entre as variáveis – 
 
Um valor de R-quadrado muito próximo de um indica uma forte relação entre as duas 
variáveis, apesar da relação poder ser positiva ou negativa. Uma outra medida do ruído 
numa regressão é o êrro padrão, que mede o "espalhamento" ao redor de cada um dos 
dois parâmetros estimados - a intercepção e a inclinação.Cada parâmetro tem um erro 
padrão associado, que é calculado dos dados – 
Erro Padrão da Intercepção = SEa = 
 
Se fizermos uma suposição adicional de que a estimativa da intercepção e a inclinação 
são normalmente distribuídas, a estimativa do parâmetro e o erro padrão podem ser 
combinados para obter uma "estatística t" que mede se a relação é estatisticamente 
significante. 
Estatística T para a intercepção = a/SEa 
Estatística T da inclinação = b/SEb 
Por exemplo com mais do que 120 observações, uma estatística t maior do que 1,66 indica 
que a variável é significativamente diferente de zero com 95% de certeza, enquanto uma 
estatística maior do que 2,36 indica o mesmo com 99% de certeza. Para amostra menores, 
a estatística t tem de ser maior para ter significado estatístico. 
 A regressão que mede a relação entre duas variáveis torna-se uma regressão 
múltipla quando ela é extendida para incluir mais do que uma variável independente 
(X1,X2,X3,X4..) na tentativa de explicar a variável dependente Y. Enquanto as 
apresentações gráficas tornam-se mais difícil, a regressão múltipla conduz a uma forma 
que é uma extensão da regressão simples. 
 Y = a + b X1 + c X2 + dX3 + eX4 
O R-quadrado mede ainda a força da relação, mas uma estatística adicional do R-
quadrado chamada de R-quadrado ajustado é calculada para contar a tendência que 
induziria o R-quadrado a manter crescente quando as variáveis independentes são 
adicionadas à regressão. Se existem k variáveis independentes na regressão, o R-quadrado 
ajustado é calculado como segue – 
 
 
Na teoria, as variáveis independentes numa regressão precisam estar não correlacionadas 
uma com a outra. Na prática, elas são frequentemente, e esta correlação cruzada das 
variáveis independentes é chamada multi-colinearidade. Quando existe multi-
colinearidade, 
· Os coeficientes sobre cada uma das variáveis independentes tornam-se muito mais 
difíceis para ler isolados, pois as variáveis começam a procurar uma às outras. 
· A estatística-t relatada tende a exagerar a significância da relação. Existem 
aproximações estatísticas disponíveis para se tratar com a multi-colinearidade. 
· A regressão ainda tem poder de previsão. 
Ambas regressões, a simples e a múltipla, estão baseadas numa relação linear entre a 
variável dependente e a variável independente. Quando a relação é não-linear, o uso de 
uma regressão linear conduzirá à predições incorretas. 
CONFIABILIDADE - É a probabilidade de um sistema (componente, aparelho, circuito, 
cadeia de máquinas, etc) cumprir sem falhas uma missão com uma duração determinada. 
 
A teoria da Confiabilidade (ou, apenas, Confiabilidade) usa como ferramentas principais: 
 
• A Estatística Matemática 
• A Teoria das Probabilidades 
• O conhecimento experimental das causas das falhas e dos parâmetros que as 
caracterizam nos 
diversos tipos de componentes e sistemas. 
• As regras e estratégias para melhorar o desempenho dos sistemas de várias naturezas e 
as técnicas para os desenvolvimentos dos sistemas. 
 
Uma das finalidades da Confiabilidade é a elaboração de regras que permitam a 
concepção de sistemas muito complexos (computadores, redes elétricas, usinas químicas, 
sistemas de geração elétrica, aviões, naves espaciais, sistema de controle e proteção, etc) 
capazes de funcionar satisfatoriamente mesmo com a ocorrência de falhas em alguns dos 
seus componentes mais críticos. Os princípios da Teoria da Redundância nasceram deste 
problema. Um dos primeiros domínios onde, por força da necessidade foram usados 
cômputos estatísticos para a determinação da confiabilidade foi o da Produção e 
Distribuição de Energia Elétrica. 
 
Mas foram, especialmente, o advento dos computadores de altíssima complexidade de 
circuito e com enorme número de componentes, as missões espaciais e as necessidades 
militares que forçaram à maturação, em termos mais elaborados, da Teoria da 
Confiabilidade. Para citar alguns domínios onde a Teoria da Confiabilidade é de aplicação 
necessária, nomeamos os seguintes: 
 
• Sistemas elétricos de potência, de geração, transmissão e distribuição. 
• Concepção de sistemas eletrônicos analógicos e digitais. 
• Redes de transporte, aéreas, marítimas e terrestres. 
• Organização da Manutenção Corretiva e Preventiva dos processos e serviços. 
• Cadeias de produção de peças. 
• Estocagem de peças. 
• Usinas nucleares. 
• Missões Espaciais. 
• Concepção de sistemas de controle e proteção. 
• Planejamento da expansão dos Sistemas de Produção e Transporte de Energia Elétrica, 
etc. 
 
 
 
 
 
7. Propagação das covariâncias 
Muitas vezes torna-se necessária a disponibilidade de coordenadas transformadas, para o 
sistema desejado, acompanhadas de suas respectivas variâncias. Para se conhecer a matriz 
variância-covariância (MVC) das coordenadas transformadas, deve-se dispor da MVC 
das coordenadas no sistema inicial e realizar a propagação de variância-covariância, ou 
simplesmente a propagação de covariância. 
 
Através da propagação de covariâncias pode-se obter as características estocásticas das 
variáveis funcionalmente dependentes, conhecendo as características das variáveis 
independentes e a relação funcional entre os dois conjuntos de variáveis (Camargo, 2000). 
No caso de transformação de coordenadas, a tarefa da propagação consiste em determinar 
as propriedades estocásticas das coordenadas transformadas, a partir das propriedades das 
coordenadas originais. Mesmo considerando que eventualmente as coordenadas originais 
sejam independentes, não correlacionadas, não significa que o mesmo ocorra com as 
coordenadas transformadas, já que o próprio modelo matemático que interliga as 
coordenadas, as correlaciona (Gemael, 1994). 
 
A partir dos modelos matemáticos utilizados, pelo aplicativo TCD, foram derivados os 
modelos que permitem a propagação de covariâncias. Os modelos matemáticos utilizados 
na transformação de coordenadas são descritos principalmente em Blachut et al. (1979) e 
Vanícek e Krakiwsky (1986). 
 
 
Durante o desenvolvimento das derivações de tais modelos pode-se observar alguns 
aspectos importantes e que foram definidores nos caminhos adotados para realizar a 
propagação de covariâncias nas respectivas transformações. Tais aspectos se referem aos 
modelos de solução iterativa utilizados em algumas transformações. 
 
As transformações de coordenadas geodésicas em cartesianas e de coordenadas 
geodésicas em TM são realizadas por modelos de solução direta, o que facilita a aplicação 
da derivação e consequentemente a propagação de covariâncias. Já a transformação de 
coordenadas cartesianas em geodésicas pode ser realizada por modelos de solução não 
rigorosa (direta) e de solução iterativa. Devido a complexidade em obter as derivadas nos 
casos iterativos, pode-se adotar, a princípio, duas soluções: a partir da derivação dos 
modelos de solução direta, ou adotar o inverso do modelo de propagação empregado na 
transformação de coordenadas geodésicas em cartesianas, como será apresentado nas 
próximas seções. Finalmente, a transformação de coordenadas TM em geodésicas é 
dependente de modelos iterativos, o que dificulta a obtenção das derivadas. Logo, uma 
solução coerente é a aplicação da propagação de covariâncias adotando o inverso do 
modelo de propagação obtido na transformação de coordenadas geodésicas em TM, 
evitando-se deste modo a derivação de modelos não rigorosos bem como de modelos 
iterativos. 
 
8. Método dos mínimos quadrados e método paramétrico 
O Método dos Mínimos Quadrados, ou Mínimos Quadrados Ordinários (MQO) ou OLS 
(do inglês Ordinary Least Squares) é uma técnica de otimização matemática que procura 
encontrar o melhor ajuste para um conjunto de dados tentando minimizar a soma dos 
quadrados das diferenças entre o valor estimado e os dados observados (tais diferenças 
são chamadas resíduos).É a forma de estimação mais amplamente utilizada na 
econometria. Consiste em um estimador que minimiza a soma dos quadrados dos resíduos 
da regressão, de forma a maximizar o grau de ajuste do modelo aos dados observados. 
 
Um requisito para o método dos mínimos quadrados é que o fator imprevisível (erro) seja 
distribuído aleatoriamente, essa distribuição seja normal e independente. O Teorema 
Gauss-Markov garante (embora indiretamente) que o estimador de mínimos quadrados é 
o estimador não-enviesado de mínima variância linear na variável resposta. Outro 
requisito é que o modelo é linear nos parâmetros, ou seja, as variáveis apresentam uma 
relação linear entre si. Caso contrário, deveria ser usado um modelo de regressão não-
linear. Credita-se Carl Friedrich Gauss como o desenvolvedor das bases fundamentais do 
método dos mínimos quadrados, em 1795, quando Gauss tinha apenas dezoito anos. 
Entretanto, Adrien-Marie Legendre foi o primeiro a publicar o método em 1805, em seu 
Nouvelles méthodes pour la détermination des orbites des comètes. Gauss publicou suas 
conclusões apenas em 1809. 
 
8.1 Método Paramétrico 
 
O método paramétrico, utilizado na tomada de decisão, auxilia na escolha da melhor 
alternativa de projeto, tendo como base deveres e desejos. Funciona como o método de 
pontuação e ponderação que estudamos no tópico anterior, com algumas diferenças, pois 
é um método de PONTUAÇÃO. Utilizam características do projeto em modelos 
matemáticos para calcular a estimativa de custos. Esse método foi desenvolvido por 
Kepner e Tregoe, dois consultores norte-americanos, e auxilia o gestor desde a 
substituição de funcionários até as decisões de investimento. 
 
Algumas empresas utilizam esse método em projetos que já foram desenvolvidos, para 
obter mais eficiência e melhorar a execução e o resultado. Sabendo a definição de 
quantidade e tempo com precisão o método torna-se bastante seguro e eficaz. Esse método 
permite que todos os envolvidos possam interagir trocar ideias e criar soluções na medida 
em que está sendo utilizado. Com essa ferramenta, os especialistas interagem com o 
mercado, verificando suas necessidades e identificando subsídios para avaliação 
mercadológica local. 
Tais como: Produção, Mercado, Recursos Financeiros, Recursos Humanos, Recursos 
Administrativos. 
 
A utilização desse método se dá em cinco passos, sendo eles: 
 
Passo 1: Seleção de critérios de decisão 
 
Vejamos um exemplo prático, uma empresa vem crescendo avançadamente nos últimos 
anos e precisa contratar um gerenciador de projetos, também conhecido como CPO – 
Chief Projec Officer. Como todo profissional de projetos essa pessoa, deverá ter 
experiência e habilidades suficientes para administrar projetos. 
Como essa escolha é de extrema importância para a organização, o ideal seria que todos 
os diretores e gerentes da empresa reunissem-se para identificar quais requisitos seriam 
necessários encontrar nesse profissional, para então buscá-lo no mercado de trabalho. 
 
Esses requisitos seriam divididos em critérios ou “deveres” e alguns parâmetros ou 
“desejos”. 
http://www.portaleducacao.com.br/gestao-e-lideranca/cursos/1560/curso-de-gestao-empresarial
 
Vejamos como a equipe de executivos realizou essa tarefa. 
 
Critérios: 
 
Salário de no máximo R$ XXXX,XX por mês. 
 
Possuir veículo próprio e disponível. 
 
Morar próximo ou na mesma cidade da empresa. 
 
Parâmetros: 
 
Fluência em pelo menos duas línguas, incluindo inglês. 
 
Amplo conhecimento em informática. 
 
Experiência em gerenciamento de projetos. 
 
Experiência administrativa. 
 
Disponível para ocupar o cargo. 
 
Disponibilidade para viagens. 
 
Habilidades e conhecimentos em gerenciamento de projetos. 
 
 
Passo 2: Peso dos “desejos” 
 
De todos os parâmetros apresentados, ou seja, os desejos da empresa em relação ao 
candidato, o mais importante é que o profissional tenha experiência em gerenciamento 
de projetos. Logo, esse parâmetro deverá levar o peso maior, podendo ser, por exemplo, 
peso 10. 
O segundo item importante são os conhecimentos e habilidades do profissional, em 
gerenciamento de projetos, então o peso poderá ser 9. Desta forma, todos os desejos 
devem ser avaliados e receber um determinado peso. 
 
Passo 3: Avaliação de alternativas 
 
Nesse passo, devemos avaliar as alternativas de forma que atendam aos deveres. 
 
Voltemos ao exemplo inicial. 
 
Nossa empresa recebeu cinco candidatos à vaga de gerente de projetos. Três deles foram 
avaliados e não atendiam a todos os quesitos. Porém dois deles atendiam aos três 
critérios (deveres) iniciais. 
 
Logo, esses dois candidatos passaram para uma nova fase, a avaliação dos parâmetros. 
Onde seriam com certeza diferenciados. 
 
Passo 4: Pontuação de “desejos” ou parâmetros 
 
Chamaremos esses dois candidatos de João e Pedro, para facilitar a compreensão. 
 
João passou pela análise de desejos e notou-se que ele possuía uma segunda língua, mas 
seu inglês era básico. Não poderia iniciar as atividades imediatamente, mas possuía 
experiência de mais de 10 anos como gerente de projetos, portanto tinha conhecimentos 
e habilidades na área, além de amplo conhecimento em informática. 
 
Pedro, diferente de João, era fluente em inglês, poderia iniciar as atividades em uma 
semana, tinha 5 anos de experiência administrativa e somente um de experiência como 
gerente de projetos. Seu conhecimento em informática era de nível médio e tinha 
dificuldades em apresentar habilidades e conhecimentos em gerenciamento de projetos. 
 
Realizada essa análise, os candidatos precisam ser comparados para sabermos quem 
atenderá melhor aos desejos da empresa. 
 
Poderíamos facilitar essa avaliação, dando nota máxima (10) aquele que atendesse o 
requisito desejado. Por exemplo, João não é fluente em inglês, então ele ganha nota 5, já 
Pedro ganha nota 10. E assim sucessivamente até que todos os quesitos sejam 
analisados e pontuados. 
Na totalização dos pontos é provável que João tenha sido o vencedor, pois atende o 
maior número de quesitos/desejos solicitados pela empresa. 
Passo 5: Seleção da alternativa correta 
 
Visto os resultados da pontuação, a empresa está apta a selecionar o melhor candidato. 
 
9. Qualidade da estimativa 
Estimativa e Estimador. Você provavelmente já ouviu falar nessas duas palavrinhas, 
certo? Essas palavras representam dois conceitos básicos que fazem parte da Inferência 
Estatística. A inferência é uma técnica que nos permite extrapolar os resultados. Mas o 
que isso significa? Bom, isso quer dizer, que nós conseguimos fazer afirmações e tirar 
conclusões, com base em dados parciais ou reduzidos (amostras), e validar os resultados 
além dos limites comprováveis. Ficou interessado? Vamos extrapolar? 
 
A inferência parte de uma certa observação que você vivencia, e extrapola os resultados 
para o todo. De uma maneira simples, você generaliza a partir de amostras. Fazemos isso 
diariamente quando tiramos conclusões sobre algo que não conhecemos. Isso é o nosso 
raciocínio indutivo trabalhando. 
Imagine que você entra no seu ambiente de trabalho, olha para meia dúzia de pessoas que 
estão usando calça social, e assume que todo mundo da empresa usa calça social. Isso não 
é verdade! Provavelmente terão pessoas usando calça jeans, outros tipos de tecidos, e 
mulheres usando saias. 
Eu acho que você já entendeu o que a inferência estatística é capaz de fazer. Mas vamos 
colocar isso em termos técnicos (não muito) para não confundir ninguém! 
A Inferência Estatística é o “processo de decisão que permite estimar características 
populacionais a partir de indivíduos amostrados da população.” Acho que conseguimos 
entender a importância disso tudo, com essa figura colorida aí embaixo, que eu fiz para 
você. 
 
 
 
Ok, técnica entendida! Agora que sabemos o princípio da Inferência, vamos falar sobre 
Estimativas e Estimadores.Eu sei que esses conceitos são difíceis de compreender. E que 
infelizmente, alguns livros intitulados como “Estatística Básica “, atrapalham mais do 
que ajudam no entendimento; principalmente se você não é da área. Mas não se preocupe, 
eu vou ajudá-lo. 
 
Mas antes de começar a explicação, eu gostaria de falar sobre a etimologia (história ou 
origem) da palavra “Estimativa “. Ela vem do latim aestimatus e significa “determinar o 
valor de”, “estimar um valor”. Explicação que vai de encontro à Inferência e à sua 
aplicação na estatística. Excelente! 
 
De maneira simples, estimar um valor é “opinar” sobre algo que não se tem certeza 
quando se não conhece o todo. No exemplo da calça social no trabalho, a única forma de 
não estimar, seria se você coletasse dados das roupas de todos os funcionários da empresa 
naquele dia (censo). Como na maioria dos casos isso não é possível, trabalhamos com 
estimativas e estimadores. 
Mas o que é Estimativa e Estimador? 
 
A estimativa é um valor (ou valores) que atribuímos a um parâmetro de 
uma população baseado em um valor da estatística correspondente da amostra (vide 
figura anterior). 
O estimador é a estatística da amostra utilizada para estimar um parâmetro da população. 
Confuso? Se focarmos apenas nos conceitos, eles ainda podem parecer 
“incompreensíveis”. Então vamos a um exemplo, que ainda é uma das melhores maneiras 
de entendermos alguma coisa. 
Imagine que você quer saber o tempo médio de duração de um casamento no Brasil, onde 
sua população seriam todos os divorciados. No entanto, como não é viável analisar toda 
a população, calculamos uma estimativa, a partir de uma amostra representativa da 
população. 
Nesse caso, você terá que extrair uma amostra dentre as pessoas divorciadas, e registrar 
a duração do casamento. Utilizando essas informações poderemos calcular uma média 
aritmética da amostra. E então com base nesse valor, atribuiremos valores à média 
populacional μ. 
Para materializar, suponhamos que você extraia uma amostra representativa de 
tamanho n, e descubra que o tempo médio de duração de um casamento no Brasil é 
de 15 anos. Nesse caso, consideramos o valor como uma estimativa de μ. Como a 
estatística da amostra, utilizada para estimar um parâmetro da população, é chamada 
de estimador, a média aritmética da amostra, representa um estimador para a média 
aritmética da população μ. Então a minha estimativa é 15 anos, e o meu estimador é a 
média (poderia ser variância, desvio-padrão, mediana, moda). 
Perceba que ao utilizar os conceitos de estimativas e estimadores, estamos falando 
de estatística inferencial. Aquela parte que eu expliquei no começo do texto, e que vai 
nos ajudar a tomar decisões em relação a algumas características de uma população, com 
base em dados coletados das amostras. Lembra? 
Legal! Você entendeu o conceito de Inferência Estatística, estimativa e estimador. Mas já 
sabe quando usar? 
 
Quando usar? 
 
Quando não formos capazes de realizar um censo (levantamento que inclui toda a 
população em estudo), e desejarmos encontrar o valor de um parâmetro da população. É 
aí que vamos precisar das estimativas e dos estimadores. Ou seja, “quase” sempre. 
Um exemplo real dessa situação, e comum a todos nós, são as pesquisas eleitorais. 
Queremos conhecer as porcentagens de intenção de voto de cada candidato na população 
de eleitores (parâmetros), mas observamos apenas uma parte da população (uma 
amostra). É a partir da amostra (representativa), que podemos estimar a porcentagem de 
intenção de voto relativas a cada candidato (estatísticas). 
Esse processo pode ser aplicado em infinitas situações, como por exemplo: 
http://exame.abril.com.br/brasil/noticias/da-solteirice-ao-divorcio-como-os-brasileiros-vivem-o-amor
▪ Uma empresa de laticínios deseja estimar a média de consumo de leite em um 
determinado país que pretende abrir uma fábrica; 
▪ Um gerente de uma instituição financeira pode desejar estimar a média de investimentos 
mensais de um determinado grupo de investidores, para desenvolver um novo produto; 
▪ Uma cervejaria quer estimar a média de consumo de cerveja sem álcool para saber se 
aumenta sua produção. 
Perceba que a estimativa e os estimadores estão em praticamente todo estudo, onde se 
deseja saber algo sobre a população, mas não há possibilidade de fazer um estudo 
englobando todo mundo. Onde a melhor saída é estimar o parâmetro baseado em uma 
amostra representativa. 
Como fazer uma estimativa? 
Meu objetivo não é entrar no mérito das fórmulas matemáticas, mas sim elencar as etapas 
do procedimento relativo às estimativas. De forma resumida, podemos separar o processo 
em 4 etapas: 
1. Selecione uma amostra representativa (há várias Técnicas de Amostragem aplicadas de 
acordo com o tipo de amostra que você precisa). 
2. Colete as informações necessárias dos membros da amostra. 
3. Calcule o valor da estatística da amostra. 
4. Atribua valor (ou valores) ao parâmetro correspondente da população. 
 
Esse é um esquema simples de demonstração para estimar parâmetros. Lembre-se 
sempre: 
A estimação de parâmetros é um processo que consiste em utilizar dados amostrais 
para estimar parâmetros populacionais desconhecidos. 
 
Alguns conceitos importantes 
População: é o conjunto de todos os elementos cuja as características estão sendo 
estudadas. 
Parâmetro: é uma medida que descreve certa característica dos elementos da população. 
Amostra aleatória simples: é a amostra extraída de maneira tal que cada elemento da 
população tenha alguma chance de ser incluído na amostra. 
Estatística: alguma medida associada com os dados de uma amostra a ser extraída da 
população. Quando usada com o objetivo de avaliar (estimar) o valor de algum 
parâmetro, também é chamada de estimador. 
Erro amostral: é a diferença entre uma estatística e o parâmetro que se quer estimar. 
 
10. Análise dos Resultados 
 
Definindo análise estatística 
O que é análise estatística? É a ciência de coletar, explorar e apresentar grandes 
quantidades de dados para descobrir padrões e tendências subjacentes. Estatísticas são 
aplicadas todos os dias – em pesquisas, indústrias e governos – para tornar a tomada de 
decisão um processo mais científico. Por exemplo: 
• Fabricantes usam estatísticas para produzir tecidos com qualidade, promover a indústria 
da aviação e ajudar os guitarristas a compor boas músicas; 
• Pesquisadores mantêm as crianças saudáveis ao aplicar a estatística na análise de 
dados da produção de vacinas virais, o que garante consistência e segurança; 
• Empresas de telecomunicação fazem uso da estatística para otimizar os recursos da rede, 
melhorar o serviço e reduzir a rotatividade de clientes ao obter uma maior percepção dos 
requisitos de seus assinantes; 
• Agências governamentais do mundo inteiro confiam nas estatísticas para obter uma visão 
nítida de seus países, negócios e pessoas. 
• Olhe ao seu redor. Do tubo de pasta de dente em seu banheiro aos aviões que voam sobre 
sua cabeça, você encontra centenas de produtos e processos que foram melhorados com 
a estatística. 
 
A estatística é tão única que ela engloba desde pesquisas sobre diagnósticos 
médicos e análises de marketing à longevidade de uma lâmpada. É um campo 
divertido, porque você realmente pode fazer várias coisas diferentes com ele. 
Computação estatística 
Métodos tradicionais de análise estatística – da amostragem de dados à interpretação dos 
resultados – têm sido usados por cientistas há milhares de anos. Mas o volume de dados 
de hoje torna a estatística ainda mais valiosa e poderosa. Algoritmos avançados, 
computadores poderosos e o armazenamento de baixo custo estão levando a um aumento 
no uso de estatística computacional. 
Esteja você trabalhando com grandes volumes de dados ou executando permutações 
múltiplas em seus cálculos, a estatística computacional tornou-se essencial para os 
estatísticos.Práticas populares de estatística computacional incluem: 
• Programação estatística – das análises de variância e regressão linear tradicionais a 
métodos exatos e técnicas de visualização estatística, a programação estatística é essencial 
para tomar decisões baseadas em dados em qualquer setor; 
https://www.sas.com/pt_br/insights/analytics/analytics.html
https://www.sas.com/pt_br/insights/analytics/analytics.html
• Econometria – modelagem, forecasting e simulações de processos de negócios para 
realizar planejamentos estratégico e tático melhores. Esse método aplica a estatística à 
economia para prever tendências futuras; 
• Pesquisa de operações – identifica as ações que produzirão os melhores resultados – com 
base em muitas opções e resultados possíveis. Agendamento, simulação e processos de 
modelagem relacionados são usados para otimizar os processos de negócios e os desafios 
de gerenciamento; 
• Programação matriz – técnicas computacionais poderosas para implementar seus próprios 
métodos estatísticos e análises de dados exploratórias, usando algoritmos de operação de 
linha; 
• Visualização estatística – análises estatísticas rápidas e interativas, e capacidades 
exploratórias em uma interface visual podem ser usadas para entender dados e construir 
modelos; 
• Melhoria de qualidade estatística – uma abordagem matemática para rever as 
características de qualidade e segurança em todos os aspectos da produção. 
Em um esforço para organizar os dados e tendências futuras baseadas em informações 
demográficas, muitas organizações se apoiam em análises estatísticas. 
Enquanto empresas são bombardeadas com opções sobre o que fazer com a big data, as 
análises estatísticas são uma das maneiras para examinar o panorama geral de um 
negócio, bem como diferentes mercados individualmente. 
Os resultados das análises estatísticas são frutos de serviços de inteligência de mercado 
que envolvem a coleta e o exame detalhado dos dados de um negócio. O exame também 
é responsável por delinear as tendências mercadológicas com base em cada informação 
demográfica de uma população. 
Existem dois tipos de análises estatísticas: descritivas e conclusivas. 
Análises descritivas 
 
As análises descritivas são utilizadas para que organizações possam resumir os dados do 
mercado em que atuam. Esse tipo de análise pretende apenas apresentar dados sobre o 
segmento e setor com a utilização de mapas, gráficos e tabelas. 
Como os gráficos, tabelas e mapas são componentes primários de uma análise, costumam 
ser utilizados para facilitar a compreensão de dados brutos. São utilizados para apresentar 
os dados de uma maneira mais significativa, favorecendo a interpretação do panorama 
atual do mercado. 
 
Análises conclusivas 
 
As análises conclusivas são elaboradas para estudar os dados coletados de uma maneira 
ainda mais objetiva, pois partem de perguntas muito específicas que deverão ser 
respondidas através do processo analítico. Estatísticas conclusivas permitem que 
organizações testem hipóteses e cheguem a conclusões sobre a causalidade entre os 
fatores analisados. Por exemplo, se uma análise descritiva é adequada para 
https://www.cognatis.com.br/blog/2015/08/20/por-que-pesquisa-de-mercado-e-importante-para-seu-negocio/
https://www.cognatis.com.br/blog/2015/08/20/por-que-pesquisa-de-mercado-e-importante-para-seu-negocio/
compreendermos o perfil da população de um mercado, somente através da análise 
conclusiva poderemos saber quais fatores demográficos ou econômicos resultam no 
comportamento de consumo de interesse, bem como entender os mecanismos através dos 
quais estas relações operam. 
No fim das contas, como nem todo mundo é um gênio matemático capacitado a computar 
facilmente as extensas estatísticas geradas em um mercado, as organizações acabam 
recorrendo a algum tipo de serviço de inteligência de mercado. 
 
Busquem se aprofundar mais na disciplina utilizando as referências usadas para montar esse 
material didático. 
Boa Sorte! 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Referências 
Barbetta, Pedro Alberto. “Estatística Aplicada às Ciências Sociais”. UFSC, 2014, 
315p.: http://amzn.to/2cwqx34 
 
COSTA NETO, P.L.O.; CYMBALISTA, M. (1994). Probabilidades. São Paulo: Edgard 
Blucher. 
 
FONSECA, J.S.; MARTINS, G.A. (1993). Curso de estatística. 4a ed. São Paulo: Atlas. 
LAPONNI, Juan Carlos (1997). Estatística usando o Excel. São Paulo: Lapponi 
Treinamento e Editora. 
 
MILONE, G.; ANGELINI, F. (1995). Estatística aplicada. São Paulo: Atlas. 
SNEDECOR, G. W.; COCHRAM, W. G. (1989). Statistical Methods. 8rd ed. Iowa: Iowa 
State University Press, 1989. 
 
Mann, Prem S. “Introdução à Estatística”. Capítulo 8: Estimativa da Média Aritmética e 
da Proporção. LTC, edição 8ª (2015), 788p.: http://amzn.to/2eqJGVw 
 
Moretin, Pedro. “Estatística Básica”. Saraiva, edição 8ª (2014), 
568p.: http://amzn.to/2cip0l6 
 
WONNACOTT, T.H.; WONNACOTT, R. J. (1990). Introductory Statistics. New York. 
John wiley & Sons; 
 
 
https://www.amazon.com.br/Estat%C3%ADstica-Aplicada-%C3%80s-Ci%C3%AAncias-Socias/dp/853280666X/ref=sr_1_1?ie=UTF8&qid=1474220701&sr=8-1&keywords=+Pedro+Alberto+Barbetta
https://www.amazon.com.br/Introdu%C3%A7%C3%A3o-Estat%C3%ADstica-Prem-S-Mann%C2%A0/dp/8521627645/ref=sr_1_3?ie=UTF8&qid=1474152394&sr=8-3&keywords=introdu%C3%A7%C3%A3o+%C3%A0+estat%C3%ADstica
https://www.amazon.com.br/Estat%C3%ADstica-B%C3%A1sica-Pedro-Morettin/dp/8502207997/ref=sr_1_1?ie=UTF8&qid=1474220393&sr=8-1&keywords=estat%C3%ADstica+b%C3%A1sica

Continue navegando