Buscar

A-RELAÇÃO-ENTRE-A-MATEMÁTICA-E-A-ESTATÍSTICA-APOSTILA

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 80 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 80 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 80 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

NÚCLEO DE PÓS GRADUAÇÃO 
 
CURSO DE PÓS-GRADUAÇÃO 
Coordenação Pedagógica – IBRA 
 
 
 
DISCIPLINA 
 
 
 
A RELAÇÃO ENTRE A 
MATEMÁTICA E A 
ESTATÍSTICA 
 
 
 
 
 
 
 
 
 
 
 
 
SUMÁRIO 
 
 
INTRODUÇÃO .......................................................................................................... 03 
 
1 MATEMÁTICA FINANCEIRA E EDUCAÇÃO ESTATÍSTICA ............................... 04 
 
2 A EVOLUÇÃO HISTÓRICA E EPISTEMOLÓGICA DA ESTATÍSTICA ............... 09 
2.1 Epistemologia ...................................................................................................... 09 
2.2 Desenvolvimento histórico................................................................................... 11 
2.3 Os tipos de estatística ......................................................................................... 20 
2.3.1 Estatística computacional ................................................................................. 20 
2.3.2 A estatística primitiva........................................................................................ 29 
2.3.3 Estatística indutiva ........................................................................................... 30 
2.3.4 A estatística oficial............................................................................................ 31 
2.3.4 Aplicações ........................................................................................................ 32 
 
3 A MATEMÁTICA FINANCEIRA, A ESTATÍSTICA E OS PCNs............................ 35 
 
4 A PROBABILIDADE E A ESTATÍSTICA NO CURRÍCULO DE MATEMÁTICA ... 41 
4.1 Os Parâmetros Curriculares Nacionais ............................................................... 43 
4.2 A proposta Curricular de Minas Gerais ............................................................... 45 
4.3 A proposta Curricular de São Paulo .................................................................... 68 
 
REFERÊNCIAS UTILIZADAS E CONSULTADAS................................................... 71 
 
ANEXOS ................................................................................................................... 73 
 
3 
 
 
 
 
 
INTRODUÇÃO 
 
 
 
 
Esta disciplina visa analisar a Matemática Financeira e sua relação com a 
 
Estatística. 
 
Nesse sentido, abordaremos a Matemática Financeira, dentro da perspectiva 
de uma Educação Estatística, objetivando a indagação em torno da importância 
dessa ciência e sua aplicabilidade em nosso dia a dia. 
 
Para tanto, abordar-se-á o ensino da Estatística dentro da Matemática, da 
Educação Básica, analisando as colocações e orientações contidas nos Parâmetros 
Curriculares Nacionais, no que tange a essa temática e suas possibilidades. 
 
Todavia, entendemos que, para compreendermos a Estatística e todas as 
suas aplicações e importância, devemos partir da sua evolução histórica, iniciando 
com uma análise epistemológica do termo e sua aplicabilidade no decorrer da 
História, bem como, analisaremos e caracterizaremos os diversos tipos de 
estatísticas e suas aplicações. 
 
Trataremos em uma unidade à parte, da questão do uso e aplicação da 
estatística e da probabilidade, dentro do currículo da matemática, fazendo uma 
comparação entre, as propostas curriculares dos estados de Minas Gerais e São9 
Paulo, bem como, com as propostas curriculares contidas nos PCN. 
 
Por fim, em anexos, listamos alguns endereços interessantes acerca do tema, 
bem como, compilamos um relato de experiência que, temos certeza, servirá de luz 
para sua futura pesquisa e estudos. 
 
Por tudo isso, esperamos que você desenvolva seus conhecimentos, acerca 
do tema proposto e que faça, também, uma excelente leitura, obtendo o sucesso 
que almejas. 
 
Outras informações e aprofundamentos devem ser buscados através da 
leitura da bibliografia utilizada e relacionada ao final desta. 
 
 
 
 
 
 
 
4 
 
 
 
1 MATEMÁTICA FINANCEIRA E EDUCAÇÃO ESTATÍSTICA 
 
 
 
Matemática e Estatística caminham juntas durante a Educação Básica. 
Contudo, encontram-se questões antagônicas, no que se refere à aplicação de 
ambas ao mesmo tempo, visto que, a Ciência estatística, trata de questões que 
envolvem opiniões e divergências, entre muitos, o que torna a exatidão matemática, 
alheia a seus resultados. 
 
Em vista disso, uma das preocupações necessárias na Educação Estatística 
é com a maneira pela qual os alunos aprendem, o que requer dos estatísticos uma 
aproximação da psicologia e de outras áreas das ciências do comportamento. É 
necessário mudar o conteúdo da estatística e o seu discurso, de forma a 
proporcionar aos alunos o uso do pensamento estatístico e de métodos a partir de 
problemas do mundo real. 
 
Algumas questões podem ser formuladas na educação estatística sobre o 
ensino da disciplina estatística para alunos ingressantes em cursos superiores, 
futuros usuários dessa ferramenta de análise de dados na indústria, na pesquisa 
científica ou em situações cotidianas. Algumas dessas questões referem-se ao 
conteúdo a ser ensinado, à estratégia de ensino a ser utilizada e à intensidade da 
utilização de pacotes estatísticos nas aulas. 
 
Uma questão muito discutida é como utilizar adequadamente a Matemática 
nas disciplinas de estatística. Salienta-se a importância de reforçar o fundamento da 
matemática quando o ensino é voltado para a formação de estatísticos, enquanto 
seria mais produtivo um conteúdo reduzido de matemática quando os estudantes 
serão, no futuro, apenas usuários dessa ferramenta. 
 
A Matemática considera o uso de ferramentas abstratas de matemática para 
resolver problemas concretos na ciência, negócios e outras áreas. 
 
Um importante campo na matemática aplicada é a estatística, que usa a 
teoria das probabilidades como uma ferramenta e permite a descrição, análise e 
predição de fenômenos onde as chances tem um papel fundamental. 
Muitos estudos de experimentação, acompanhamento e observação 
requerem um uso de estatísticas. 
 
 
5 
 
 
 
 
 
 
 
 
 
 
Física matemática 
Mecânica dos 
fluidos 
 
Análise numérica Otimização
 
 
 
 
 
 
Teoria das 
probabilidades 
 
Estatística 
Matemática 
financeira 
Teoria dos 
jogos
 
 
Fonte: wikipedia 
 
 
 
É lamentável o preconceito que alguns autores têm em relação à Matemática, 
posto que, a discussão deveria enfocar o seu uso inadequado no ensino de 
estatística. Segundo Nelder (1986), seria impossível o desenvolvimento da parte 
teórica da estatística sem o corpo de teoria e a notação da matemática. 
 
A estatística matemática é definida por Hand (1998) como as ideias 
estatísticas que são formalizadas pela matemática. Embora Hand reconheça a 
importância da matemática na estatística, ele argumenta que com a utilização de 
softwares estatísticos deve-se priorizar o desenvolvimento de habilidades em análise 
estatística e diminuir os esforços para se entender o fundamento matemático da 
análise. Ele afirma que é questionável o uso da matemática detalhada para o ensino 
de estatística para seus futuros usuários, porém, reconhece que quanto mais 
fundamento matemático o sujeito tiver, menor será a probabilidade de cometer erros. 
 
Os estatísticos necessitam de um profundo conhecimento de matemática, 
mas, para os futuros usuários de estatística, o conhecimento de matemática pode 
ser mais superficial, conforme defende Stuart (1995). O grande perigo, segundo ele, 
é que a abstração matemática de um problema estatístico geralmente ignora 
aspectos práticos importantes do problema e direciona a atenção, quase que 
exclusivamente, para a matemática. 
http://pt.wikipedia.org/wiki/F%C3%ADsica_matem%C3%A1tica
http://pt.wikipedia.org/wiki/F%C3%ADsica_matem%C3%A1tica
http://pt.wikipedia.org/wiki/Mec%C3%A2nica_dos_fluidos
http://pt.wikipedia.org/wiki/An%C3%A1lise_num%C3%A9rica
http://pt.wikipedia.org/wiki/An%C3%A1lise_num%C3%A9ricahttp://pt.wikipedia.org/wiki/Teoria_das_probabilidades
http://pt.wikipedia.org/wiki/Teoria_das_probabilidades
http://pt.wikipedia.org/wiki/Estat%C3%ADstica
http://pt.wikipedia.org/wiki/Estat%C3%ADstica
http://pt.wikipedia.org/wiki/Matem%C3%A1tica_financeira
http://pt.wikipedia.org/wiki/Teoria_dos_jogos
http://pt.wikipedia.org/wiki/Teoria_dos_jogos
6 
 
 
 
De acordo com diversas opiniões de diferentes autores, tais como Snee 
(1990) e Stuart (1995), é necessário que o aluno compreenda a estatística, 
principalmente para que ele possa desenvolver um raciocínio estatístico. Esse seria, 
então, um processo de pensamento no qual se parte do pressuposto que a variação 
dos dados está sempre presente e que identificando, caracterizando, quantificando, 
controlando e reduzindo essa variação pode-se conduzir a melhores resultados 
sobre o problema em investigação. Esse processo de pensamento em que a 
variação está presente exige do sujeito análise, conhecimento, tomada de decisão e, 
consequentemente, aperfeiçoamento. 
 
Os mesmos autores, citados anteriormente, definem o pensamento estatístico 
como “o pensamento que abrange a ideia de processo”, dentro de uma perspectiva 
da “onipresença de variação neste processo”, além da “explicação dessa variação 
(controle estatístico, aleatoriedade e distribuições, efeitos sistemáticos - regressão, 
entre outros) e a necessidade de dados sobre o processo”. (p. 36). 
 
No NCTM (National Council of Teachers of Mathematics, 1989) há um alerta 
para que os alunos entendam a diferença entre a característica de certo/errado do 
pensamento matemático e a natureza dos resultados em análise estatística, 
reconhecendo que a estatística tem um papel intermediário importante entre a 
exatidão da matemática e a natureza ambígua de um mundo largamente 
dependente da opinião individual. Portanto, um aluno deveria sair de um curso de 
estatística com uma prontidão para pensar estatisticamente (probabilisticamente). 
 
Embora não seja nova a discussão sobre a necessidade de priorizar o 
pensamento estatístico no ensino de estatística, o que predomina ainda hoje é o 
pensamento matemático (STUART, 1995). Esse autor salienta a necessidade de se 
desenvolver o pensamento estatístico pelo menos para usuários e estatísticos 
práticos e argumenta que esse pensamento pode ser desenvolvido com base em 
problemas estatísticos estabelecidos pelos próprios usuários, o que pode possibilitar 
a compreensão da estrutura estatística, da coleta de dados, da análise e 
interpretação dos dados e da implementação de soluções. 
Não obstante, é unânime a concepção de que os professores deveriam se 
preocupar mais com os aspectos afetivos do processo ensino-aprendizagem, 
buscando identificar a ansiedade, a atitude e as frustrações do aluno e propondo 
 
7 
 
 
 
estratégias que visem reduzir ou eliminar esses aspectos negativos. Uma das 
estratégias para se lidar com os aspectos afetivos é verificar logo no início de um 
curso ou de uma disciplina de estatística qual é a prontidão do aluno para realizá-la, 
bem como verificar no final do curso como ele se sente após realizá-la. 
 
Dessa forma, os resultados seriam mais positivos, haja vista que, se o aluno 
acredita que estudar estatística é estimulante e que será útil para sua vida, ele 
tenderá a apresentar atitudes positivas em relação à estatística e apresentará um 
comportamento pró-ativo para com a estatística, seja numa situação de 
aprendizagem, seja numa situação de interpretação de informações do dia-a-dia, 
seja na aplicação em sua vida profissional. Daí, a importância do papel do professor, 
no que tange aos estímulos que ele deve oferecer aos alunos, objetivando a sua 
percepção com relação à importância da estatística para a vida. 
 
Nesse sentido, caso o aluno entenda que estatística é matemática e vice 
versa e, se sua experiência com a matemática apresentou momentos frustrantes, 
esse aluno tenderá a demonstrar atitudes negativas ou desfavoráveis em relação à 
estatística. 
 
Em sendo, podemos afirmar que as atitudes dos alunos podem auxiliar ou 
atrapalhar a aprendizagem de estatística, podendo afetar o desenvolvimento do 
pensamento estatístico bem como a aplicação fora da sala de aula dos conceitos 
aprendidos. Segundo Asch (1952), as atitudes são respostas aprendidas ou reações 
emocionais condicionadas e um de seus efeitos é formar predisposições que 
decidem a direção a tomar diante de possíveis alternativas, quando o sujeito está 
diante de novas condições. As atitudes são aprendidas e, para isso ocorrer, o sujeito 
precisa ter tido pelo menos algum contato com o objeto da atitude, nesse caso a 
estatística. 
 
Outrossim, é possível considerar que uma atitude pode se desenvolver ou 
durante a primeira disciplina de estatística, ou em situações cotidianas em que o 
sujeito tenha lidado com os conceitos de estatística, embora, nesse segundo caso a 
probabilidade de ocorrência seja menor. 
Dessa forma, podemos elaborar as seguintes questões, com relação a essa 
temática, questionando se as atitudes dos alunos, em relação à estatística, podem 
surgir das atitudes em relação à matemática. 
 
8 
 
 
 
Segundo alguns estudiosos do tema como Brito (1996) e Gal e Ginsburg, 
(1994), se o aluno acredita que estatística é matemática, suas atitudes em relação a 
esta são transferidas para aquela. Portanto, esta também poderia ser uma origem 
das atitudes em relação à estatística. 
 
Nesse aspecto, são inúmeros os estudos realizados, dentro e fora do Brasil, 
posto que, esse não é um tema nacional. Assim, ao analisarmos alguns desses 
estudos, temos a clara percepção de que a ansiedade matemática e as atitudes 
negativas em relação à matemática influem, não só na aprendizagem dessa 
disciplina como na aprendizagem de disciplinas relacionadas, como por exemplo, a 
estatística (BRITO, 1996). Os alunos que já estudaram matemática num nível 
semelhante ao ensino médio, antes de um curso de estatística, apresentam reações 
afetivas com a matemática que podem afetar suas relações com a estatística (GAL e 
GINSBURG, 1994). 
 
Nesse caso, se são atitudes e, se as atitudes são aprendidas, elas são 
suscetíveis à mudança, na ótica de diversos autores, entre eles Koballa Jr. (1988), 
posto que, embora apresentem um certo grau de estabilidade, existe a possibilidade 
de mudança. 
 
Contudo, para que haja uma mudança nas atitudes em relação à estatística, 
transformando-as em atitudes positivas, é necessário que o professor esteja 
motivado para aplicar estratégias estimulantes. No momento em que o aluno 
começa a perceber que está entendendo o conteúdo e está encontrando aplicação 
no seu cotidiano acadêmico e pessoal, é possível, então, se efetivar essa mudança 
de atitudes. 
Nesse contexto, conhecer as atitudes em relação à estatística no início da 
disciplina pode orientar o professor sobre as estratégias de ensino que possam 
desenvolver atitudes positivas ou modificar as atitudes negativas. Saber se o aluno 
transfere as atitudes negativas em relação à matemática para a estatística pode ser 
um indicador para o professor sobre a intensidade com que a matemática pode ser 
abordada na disciplina estatística e vice e versa. 
 
 
 
 
 
 
 
 
9 
 
 
 
2 A EVOLUÇÃO HISTORICA E EPISTEMOLÓGICA DA ESTATISTICA 
 
 
 
2.1 Epistemologia 
 
 
 
 
A palavra estatística, derivada do termo latino “status” (estado) e, parece ter 
sido introduzida na Alemanha, em 1748, por Achenwall. 
 
Atualmente, a Estatística é encarada como uma ciência capaz de obter, 
sintetizar, prever e tirar inferências sobre dados. Contudo, na Inglaterra do século 
XVII, a estatística era a “Aritmética do Estado” (Political Arithmetic), consistindo 
basicamente na análise dos registros de nascimentos e mortes, originando mais 
tarde as primeiras tábuas de mortalidade. 
 
Antes, porém,durante a Idade Média e, até meados do século XVIII, a 
estatística foi puramente descritiva, coexistindo duas escolas: a escola descritiva 
alemã, cujo representante mais conhecido é o economista G. Achenwall (1719- 
1772), professor na Universidade de Gottingen, considerado pelos alemães como o 
pai da estatística, e a escola dos matemáticos sociais, que procuravam traduzir por 
leis, a regularidade observada de certos fenômenos de caráter econômico e 
sociológico. Embora esta escola procurasse fundamentar a formulação de previsões 
com base em leis sugeridas pela experiência, a estatística confundia-se, 
praticamente, com a demografia à qual fornecia métodos sistemáticos de 
enumeração e organização. 
 
Em sendo, podemos afirmar que, a necessidade sentida, em todas as épocas, 
de conhecer, numérica e quantitativamente, a realidade política e social tornou a 
análise demográfica uma preocupação constante. 
 
No entanto, para adquirir o estatuto de disciplina científica e não, puramente, 
ideográfica ou descritiva, a Estatística teve que esperar pelo desenvolvimento do 
cálculo das probabilidades, que viria a fornecer-lhe a linguagem e o aparelho 
conceitual, permitindo a formulação de conclusões com base em regras indutivas. 
Contudo, data do século XVII, o início do estudo sistemático dos problemas 
ligados aos fenômenos aleatórios, começando a ser manifestada, nesse momento, a 
necessidade de instrumentos matemáticos, aptos a analisar estes tipos de 
 
10 
 
 
 
fenômenos, em todas as ciências que põem o problema do tratamento e 
interpretação de um grande número de dados. 
 
Contudo, alguns estudos comprovam que o desenvolvimento da estatística 
matemática e suas aplicações, deveu-se a F. Galton (1822-1911), K. Pearson (1857- 
1936) e W. S. Gosset (1876-1936), conhecido sob o pseudônimo de Student, sendo 
lícito afirmar-se que a introdução sistemática dos métodos estatísticos na 
investigação experimental se fica a dever, fundamentalmente, aos trabalhos de K. 
Pearson e R. A. Fisher (1890-1962). A partir de Pearson e Fisher o desenvolvimento 
da estatística matemática, por um lado, e dos métodos estatísticos aplicados, por 
outro, têm sido tal que é praticamente impossível referir nomes. Tudo isso ocorreu, 
então, no final do século XIX. 
 
Todavia, de acordo com publicações do site da UFRGS 
(http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatistica) a origem da 
palavra Estatística estaria, de fato, associada à palavra latina status (Estado). 
 
Porém, no mesmo endereço, constam que existam indícios de que 3000 anos 
a.C. já se faziam censos na Babilônia, China e Egito. Além disso, o próprio 
Imperador romano, César Augusto, por exemplo, teria ordenado que se fizesse o 
Censo de todo o Império. 
 
A palavra “censo”, então, é derivada da palavra “censere”, que em Latim 
significa “taxar”. Em 1085, Guilherme, o Conquistador, solicitou um levantamento 
estatístico da Inglaterra, que deveria conter informações sobre terras, proprietários, 
uso da terra, empregados e animais. Os resultados deste Censo foram publicados 
em 1086 no livro intitulado “Domesday Book” e serviram de base para o cálculo de 
impostos. 
 
Contudo, mesmo que a prática de coletar dados sobre colheitas, composição 
da população humana ou de animais, impostos, etc., fosse conhecida pelos 
egípcios, caldeus e gregos e, se atribuam a Aristóteles, cento e oitenta descrições 
de Estados, apenas no século XVII a Estatística passou a ser considerada disciplina 
autônoma, tendo como objetivo básico a descrição dos bens do Estado. 
 
A palavra Estatística foi cunhada pelo acadêmico alemão Gottfried Achenwall 
 
(1719-1772), que foi um notável continuador dos estudos de Hermann Conrig (1606- 
 
1681). A escola alemã atingiu sua maturidade com A. L. von Schlozer (1735-1809), 
 
http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatistica
http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatistica
11 
 
 
 
mas sempre com ideias diferentes daquelas que fundamentaram a Estatística 
Moderna. Com algum exagero, pode-se dizer que o seu principal legado foi o termo 
“STAATENKUNDE”, que deu origem à designação atual. Na Enciclopédia Britânica, 
o verbete “STATISTICS” apareceu em 1797. 
 
 
 
 
2.2 Desenvolvimento Histórico 
 
 
Em contraposição à natureza eminentemente qualitativa da escola alemã, na 
Inglaterra do século XVII surgiram os aritméticos políticos, dentre os quais 
destacaram-se John Graunt (1620-1674) e William Petty (1623-1687). Eles 
preocuparam-se com o estudo numérico dos fenômenos sociais e políticos, na 
busca de leis quantitativas que pudessem explicá-los. O estudo consistia 
essencialmente de exaustivas análises de nascimentos e mortes, realizadas através 
das Tábuas de Mortalidade, que deram origem às atuais Tábuas de Mortalidade 
usadas pelas companhias de seguros. Um dos resultados mais importantes foi a 
constatação de que o percentual de nascimento de crianças do sexo masculino 
(51%) é levemente superior ao do sexo feminino (49%). Dessa forma, a escola dos 
aritméticos políticos pode ser considerada o berço da Demografia. Um de seus mais 
notáveis adeptos foi o pastor alemão Sussmilch (1707-1767), com o qual pode-se 
dizer que a Estatística aparece pela primeira vez como meio indutivo de 
investigação. 
 
Na última metade do século XIX, os alemães Helmert (1843-1917) e Wilhelm 
Lexis (1837-1914), o dinamarquês Thorvald Nicolai Thiele (1838-1910) e o inglês 
Francis Ysidro Edgeworth (1845-1926), obtiveram resultados extremamente valiosos 
para o desenvolvimento da Inferência Estatística, muitos dos quais só foram 
completamente compreendidos mais tarde. Contudo, o impulso decisivo deve-se a 
Karl Pearson (1857-1936), William S. Gosset (1876-1937) e, em especial, a Ronald 
A. Fisher (1890-1962). 
 
Karl Pearson (1857-1936) formou-se em 1879 pela Cambridge University e 
inicialmente dedicou-se ao estudo da evolução de Darwin, aplicando os métodos 
estatísticos aos problemas biológicos relacionados com a evolução e 
hereditariedade. Em 1896, Pearson foi eleito membro da Royal Society of London. 
 
 
12 
 
 
 
Entre 1893 e 1912 escreveu um conjunto de 18 artigos denominado 
Mathematical Contribution to the Theory Evolution, com contribuições extremamente 
importantes para o desenvolvimento da teoria da Análise de Regressão e do 
Coeficiente de Correlação, bem como do teste de hipóteses de qui-quadrado. Em 
sua maioria, seus trabalhos foram publicados na revista Biometrika, que fundou em 
parceria com Walter Frank Raphael Weldon (1860-1906) e Francis Galton (1822- 
1911). Além da valiosa contribuição que deu para a teoria da regressão e da 
correlação, Pearson fez com que a Estatística fosse reconhecida como uma 
disciplina autônoma. Uma coleção de seus artigos foi publicada em “Karl Pearson 
Early Statistical Papers” (Ed. por E. S. Pearson, Cambridge University Press, 1948). 
Para ver uma relação de alguns trabalhos publicados por Karl Pearson 
 
William Sealey Gosset (1876-1937) estudou Química e Matemática na New 
College Oxford. Em 1899 foi contratado como Químico da Cervejaria Guiness em 
Dublin, desenvolvendo um trabalho extremamente importante na área de Estatística. 
Devido à necessidade de manipular dados provenientes de pequenas amostras, 
extraídas para melhorar a qualidade da cerveja, Gosset derivou o teste t de Student 
baseado na distribuição de probabilidades. 
 
Esses resultados foram publicados em 1908 na revista Biometrika, sob o 
pseudônimo de Student, dando origem a uma nova e importante fase dos estudos 
estatísticos. Gosset usava o pseudônimo de Student, pois a Cervejaria Guiness não 
desejava revelar aos concorrentes os métodos estatísticos que estava empregando 
no controle de qualidade da cerveja. Os estudos de Gosset podem ser encontradosem “Student Collected Papers” (Ed. por E.S.Pearson e J. Wishart, University 
College, Londres, 1942). Para ver uma relação de alguns trabalhos publicados por 
Gosset, clique neste link de referências bibliográficas. 
 
A contribuição de Ronald Aylmer Fisher (1890-1962) para a Estatística 
Moderna é, sem dúvidas, a mais importante e decisiva de todas. Formado em 
astronomia pela Universidade de Cambridge em 1912, foi o fundador do célebre 
Statistical Laboratory da prestigiosa Estação Agronômica de Rothamsted, 
contribuindo enormemente tanto para o desenvolvimento da Estatística quanto da 
Genética. Ele apresentou os princípios de planejamento de experimentos, 
introduzindo os conceitos de aleatorização e da Análise da Variância, procedimentos 
muito usados atualmente. 
13 
 
 
 
No princípio dos anos 20, estabeleceu o que a maioria aceita como a 
estrutura da moderna Estatística Analítica, através do conceito da verossimilhança 
(likelihood, em inglês). O seu livro intitulado “Statistical Methods for Research 
Workers”, publicado pela primeira vez em 1925, foi extremamente importante para 
familiarizar os investigadores com as aplicações práticas dos métodos estatísticos e, 
também, para criar a mentalidade estatística entre a nova geração de cientistas. Os 
trabalhos de Fisher encontram-se dispersos em numerosas revistas, mas suas 
contribuições mais importantes foram reunidas em “Contributions to Mathematical 
Statistics” (J. Wiley & Sons, Inc., Nova Iorque, 1950). 
 
Fisher foi eleito membro da Royal Society em 1929 e condecorado com as 
medalhas Royal Medal of the Society e Darwin Medal of the Society em 1938 e em 
1948, respectivamente. Em 1955 foi novamente condecorado, desta vez com a 
medalha Copley Medal of the Royal Society. 
 
Outra área de investigação extremamente importante para o desenvolvimento 
da Estatística é a Teoria das Probabilidades. Usualmente, costuma-se atribuir a 
origem do Cálculo de Probabilidades às questões relacionadas aos jogos de azar 
que o célebre cavaleiro Méré (1607-1684) encaminhou à Blaise Pascal (1623-1662). 
 
No entanto, outros autores sustentam que o Cálculo de Probabilidades teve a 
sua origem na Itália, com especial referência para Luca Pacioli (1445-1517), 
Girolamo Cardano (1501-1576), Nicolo Fontana Tartaglia (1500-1557) e Galileo 
Galilei (1564-1642). 
 
Três anos depois de Pascal ter previsto que a “aliança do rigor geométrico” 
 
com a “incerteza do azar” daria lugar a uma nova ciência, Christiaan Huygens (1629- 
 
1695) publicou o trabalho denominado “De Raciociciis in Ludo Aleae”, que é 
considerado o primeiro livro sobre o Cálculo de Probabilidades. Além disso, ainda 
teve a notável particularidade de introduzir o conceito de esperança matemática. 
 
Gottfried Wilhelm von Leibniz (1646-1716) também dedicou-se ao estudo do 
Cálculo de Probabilidades, publicando um trabalho sobre a “arte combinatória” e 
outro sobre aplicações às questões financeiras. Leibniz também estimulou Jacques 
Bernoulli (1654-1705) ao estudo do Cálculo de Probabilidades, cuja grande obra, 
denominada “Ars Conjectandi”, foi publicada oito anos após a sua morte. 
 
 
 
14 
 
 
 
Em Ars Conjectandi de Jacques Bernoulli, foi publicada e rigorosamente 
provada a Lei dos Grandes Números de Bernoulli, considerada o primeiro teorema 
limite. Pode-se dizer que graças às contribuições de Bernoulli o Cálculo de 
Probabilidades adquiriu o status de ciência. 
 
Além da obra póstuma de Bernoulli, o início do século XVII foi marcado pelos 
livros de Pierre Rémond de Montmort (1678-1719), denominado “Essai d'Analyse sur 
les Jeux de Hazard”, e de Abraham De Moivre (1667-1754), intitulado The Doctrine 
of Chances. 
 
De Moivre era Francês de nascimento, mas desde a sua infância refugiou-se 
na Inglaterra devido às guerras religiosas, fazendo aplicações ao cálculo de 
anuidades e estabelecendo uma equação simples para a lei da mortalidade entre 22 
anos e o limite da longevidade que fixou em 86 anos. Mais tarde, na “Miscellanea 
Analytica”, apresentou resultados aos quais Laplace deu uma forma mais geral e 
que constituem o segundo teorema limite. 
 
É extremamente importante falar, também, do reverendo Thomas Bayes 
(1702-1761) a quem se deve o conceito de probabilidade inversa, relacionado com 
situações em que se caminha do particular para o geral. No seu livro denominado 
“Essay towards solving a problem of the doctrine of chances” (Philosophical 
Transactions of the Royal Society of London, 1764-65, póstumo), Bayes formula 
através do teorema que leva seu nome e do postulado que tantas vezes se lhe 
associa: a primeira tentativa de matematização da inferência Estatística. Mesmo sem 
ter publicado nenhum trabalho com seu nome, em 1742, Thomas Bayes foi eleito 
membro da Royal Society of London. 
 
Os estudos dos astrônomos Pierre-Simon Laplace (1749-1827), Johann Carl 
Friedrich Gauss (1777-1855) e Lambert Adolphe Jacques Quetelet (1796-1874) 
foram fundamentais para o desenvolvimento do Cálculo de Probabilidades. Devido 
aos novos métodos e ideias, o trabalho de Laplace de 1812, intitulado “Théorie 
Analytique des Probabilités”, até o presente é considerado um dos mais importantes 
trabalhos sobre a matéria. 
Johann Carl Friedrich Gauss, professor de astronomia e diretor do 
Observatório de Gottingen, em 1809 apresentou o estudo intitulado “Theoria 
combinationis Observatorium Erroribus Minimis Obnoxia”, explanando uma teoria 
 
15 
 
 
 
sobre a análise de observações aplicável a qualquer ramo da ciência, alargando o 
campo de aplicação do Cálculo de Probabilidades. 
 
Com Lambert Adolphe Jacques Quetelet, por sua vez, inicia-se a aplicação 
aos fenômenos sociais. O seu escrito “Sur l'homme et le développement de ses 
facultés” foi publicado em segunda edição com o título “Physique sociale ou Essai 
sur le développement des facultés de l'homme”, que incluía pormenorizada análise 
da teoria da probabilidade. Quetelet introduziu também o conceito de “homem 
médio” e chamou particular atenção para a notável consistência dos fenômenos 
sociais. Por exemplo, mostrou que fatores como a criminalidade apresentam 
permanências em relação a diferentes países e classes sociais. 
 
Antoine Augustin Cournot (1801-1877) percebeu a importância da Teoria das 
probabilidades na análise estatística, tendo sido o pioneiro no tratamento 
matemático dos fenômenos econômicos. Suas ideias foram publicadas em 
“Exposition de la théorie des chances et des probabilités”. 
 
Na segunda metade do século XIX a Teoria das Probabilidades atingiu um 
dos pontos mais altos com os trabalhos da escola russa fundada por Pafnuty 
Lvovich Chebyshev (1821-1894), que contou com representantes como Andrei 
Andreyevich Markov (1856-1922) e Aleksandr Mikhailovich Lyapunov (1857-1918). 
 
Contudo, o seu maior expoente foi Andrey Nikolayevich Kolmogorov (1903- 
 
1987), a quem se deve um estudo indispensável sobre os fundamentos da Teoria 
das Probabilidades, denominado “Grundbegrife der Warscheinlichkeitrechnung”, 
publicado em 1933. Em 1950 foi traduzido para o Inglês sob o título “Foundations of 
Probability”. (Texto transcrito, integralmente do site da UFRGS, 
http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatistica, 2011). 
 
Outrossim, de acordo com a biblioteca aberta Wikipédia 
(http://pt.wikipedia.org/wiki/Estatistica), o termo estatística surge da expressão em 
latim statisticum collegium ( palestra sobre os assuntos do Estado), de onde surgiu a 
palavra em língua italiana statista, que significa “homem de estado”, ou político, e a 
palavra alemã Statistik, designando a análise de dados sobre o Estado. A palavra foi 
proposta pela primeira vez no século XVII, em latim, por Schmeitzel na Universidade 
de Jena e adotada pelo acadêmico alemão Godofredo Achenwall. Aparece como 
 
 
 
http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatisticahttp://pt.wikipedia.org/wiki/Estatistica
http://pt.wikipedia.org/wiki/Estatistica
16 
 
 
 
vocabulário na Enciclopédia Britânica em 1797, e adquiriu um significado de coleta e 
classificação de dados, no início do século 19. 
 
Já em outra página do mesmo site, referente à História da Estatística 
(http://pt.wikipedia.org/wiki/Historia_da_estatistica), podemos ler que, as primeiras 
aplicações da estatística estavam voltadas para as necessidades de Estado, na 
formulação de políticas públicas, fornecendo dados demográficos e econômicos à 
administração pública. A abrangência da estatística aumentou no começo do século 
XIX para incluir a acumulação e análise de dados de maneira geral. Hoje, a 
estatística é largamente aplicada nas ciências naturais, e sociais, inclusive na 
administração pública e privada. 
 
Seus fundamentos matemáticos foram postos no século XVII com o 
desenvolvimento da teoria das probabilidades por Pascal e Fermat, que surgiu com 
o estudo dos jogos de azar. O método dos mínimos quadrados foi descrito pela 
primeira vez por Carl Friedrich Gauss cerca de 1794. O uso de computadores 
modernos tem permitido a computação de dados estatísticos em larga escala e 
também tornaram possível novos métodos antes impraticáveis. 
 
Nesta página, afirma-se que o termo estatística deriva do neolatim statisticum 
collegium (“conselho de Estado”) e do Italiano statista (“estadista” ou “polític”). O 
alemão Statistik, introduzido pela primeira vez por Gottfried Achenwall (1749), 
designava originalmente a análise de dados sobre o Estado, significando a “ciência 
do Estado” (então chamada aritmética política (political arithmetic) em inglês). A 
palavra adquiriu o significado de coleta e classificação de dados em geral através de 
Sir John Sinclair. 
 
Assim, o propósito original da Statistik era fornecer os dados a serem usados 
pelo governo e outras organizações. A coleta de dados sobre estados e localidades 
continua, em grande parte através de órgãos estatísticos nacionais e internacionais. 
Em particular, os censos fornecem informação regular sobre as populações. 
 
Os métodos matemáticos da estatística emergiram da teoria das 
probabilidades, que remonta à correspondência entre Pierre de Fermat e Blaise 
Pascal (1654). Christiaan Huygens (1657) deu o tratamento científico mais antigo 
que se conhece sobre o assunto. A obra póstuma Ars Conjectandi (1713) de Jakob 
Bernoulli e Abraham de Moivre, The Doctrine of Chances (1718) tratou o assunto 
 
http://pt.wikipedia.org/wiki/Historia_da_estatistica
http://pt.wikipedia.org/wiki/Historia_da_estatistica
17 
 
 
 
como um ramo da matemática. Na era moderna, a obra de Kolmogorov tem sido útil 
na formulação dos modelos fundamentais da teoria das probabilidades, 
imprescindíveis à estatística. 
 
A teoria dos erros remonta à obra póstuma Opera Miscellanea (1722) de 
 
Roger Cotes, mas uma edição de memórias preparada por Thomas Simpson em 
 
1755 (impressa em 1756) aplicou pela primeira vez a teoria à discussão dos erros na 
observação. A reimpressão (de 1757) dessas memórias estabelece o axioma de que 
erros positivos e negativos são igualmente prováveis, e que existem certos limites 
dentro dos quais todos os erros irão ocorrer; erros contínuos são discutidos e é 
fornecida uma curva de probabilidades. 
 
Pierre-Simon Laplace (1774) fez a primeira tentativa de deduzir a regra para a 
combinação de observações dos princípios da teoria das probabilidades. Ele 
representou a lei das probabilidades dos erros através de uma curva. Ele deduziu 
uma fórmula para a média de três observações. Ele também deu (em 1781) uma 
fórmula para a lei de 'facilidade de erro' (um termo devido a Joseph Louis Lagrange, 
1774), mas que levou a equações não tratáveis. Daniel Bernoulli (1778) introduziu o 
princípio do produto máximo de probabilidade de um sistema de erros concorrentes. 
 
O método dos mínimos quadrados, que foi usado para minimizar erros na 
medição de dados, foi publicado independentemente por Adrien-Marie Legendre 
(1805), Robert Adrain (1808) e Carl Friedrich Gauss (1809). Gauss usou o método 
no sua famosa predição de onde se localizava o planeta anão Ceres. Outras provas 
foram dadas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), 
Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856), John Herschel 
(1850) e Morgan Crofton (1870). 
 
Outros que contribuíram foram Ellis (1844), De Morgan (1864), Glaisher 
(1872) e Giovanni Schiaparelli (1875). A fórmula de Peters (1856) para r, o erro 
provável de uma única observação, é bastante conhecida. 
 
No século XIX, autores que trataram da teoria geral incluem Laplace, 
Sylvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), 
Hermann Laurent (1873), Liagre, Didion e Karl Pearson. Augustus De Morgan e 
George Boole fizeram melhorias na apresentação da teoria. 
 
 
 
18 
 
 
 
Adolphe Quetelet (1796-1874), outro importante fundador da estatística, 
introduziu a noção de “homem médio” (l'homme moyen) como um meio de 
compreender fenômenos sociais complexos como taxas de criminalidade, de 
casamento e de suicídio. 
 
Durante o século XX, a criação de instrumentos precisos para a agronomia, 
saúde pública (epidemiologia, bioestatística, etc.), controle de qualidade industrial e 
propósitos econômicos e sociais (taxa de desemprego, econometria, etc.) 
necessitavam avanços substanciais nas práticas estatísticas. 
 
Hoje, a utilização da estatística se expandiu para muito além das suas 
origens. Indivíduos e organizações usam a estatística para compreender dados e 
fazer decisões bem-informadas nas ciências naturais e sociais, na medicina, nos 
negócios e em outras áreas. 
 
A estatística é geralmente tida não como um ramo da matemática, mas como 
uma área distinta, ainda que intimamente relacionada. Muitas universidades mantêm 
departamentos separados de matemática e estatística. 
 
De acordo com a Revista do Instituto Internacional de Estatística, “Cinco 
homens, Hermann Conring, Gottfried Achenwall, Johann Peter Süssmilch, John 
Graunt e William Petty já receberam a honra de serem chamados de fundadores da 
estatística, por diferentes autores”. 
 
Alguns autores dizem que é comum encontrar como marco inicial da 
estatística a publicação do “Observations on the Bills of Mortality” (Observações 
sobre os Sensos de Mortalidade, 1662) de John Graunt. As primeiras aplicações do 
pensamento estatístico estavam voltadas para as necessidades de Estado, na 
formulação de políticas públicas, fornecendo dados demográficos e econômicos. A 
abrangência da estatística aumentou no começo do século XIX para incluir a 
acumulação e análise de dados de maneira geral. Hoje, a estatística é largamente 
aplicada nas ciências naturais, e sociais, inclusive na administração pública e 
privada. 
 
Seus fundamentos matemáticos foram postos no século XVII com o 
desenvolvimento da teoria das probabilidades por Pascal e Fermat, que surgiu com 
o estudo dos jogos de azar. O método dos mínimos quadrados foi descrito pela 
primeira vez por Carl Friedrich Gauss por volta de 1794. O uso de computadores 
19 
 
 
 
modernos tem permitido a computação de dados estatísticos em larga escala e 
também tornaram possível novos métodos antes impraticáveis. 
 
A estatística não é uma ferramenta matemática que nos informa sobre o 
quanto de erros nossas observações apresentam sobre a realidade pesquisada. A 
estatística baseia-se na medição do erro que existe entre a estimativa de quanto 
uma amostra representa adequadamente a população da qual foi extraída. Assim o 
conhecimento de teoria de conjuntos, análise combinatória e cálculo são 
indispensáveis para compreender como o erro se comporta e a magnitude do 
mesmo. É o erro (erro amostral) que define a qualidade da observação edo 
delineamento experimental. 
 
A faceta dessa ferramenta mais palpável é a estatística descritiva. A 
descrição dos dados coletados é comumente apresentado em gráficos ou relatórios 
e serve tanto a prospecção de uma ou mais variáveis para posterior aplicação ou 
não de testes estatísticos bem como a apresentação de resultados de 
delineamentos experimentais. 
 
Nós descrevemos o nosso conhecimento (e) de forma matemática e tentamos 
aprender mais sobre aquilo que podemos observar. Isto requer: 
 
 O planejamento das observações por forma a controlar a sua variabilidade 
 
(concepção do experimento); 
 
 Sumarização da coleção de observações; 
 
 Inferência estatística - obter um consenso sobre o que as observações nos dizem 
sobre o mundo que observamos. 
Em algumas formas de estatística descritiva, nomeadamente mineração de 
dados (data mining), os segundo e terceiro passos tornam-se normalmente mais 
importantes que o primeiro. 
 
A probabilidade de um evento é frequentemente definida como um número 
entre zero e um. Na realidade, porém, nunca há situações que tenham 
probabilidades 0 ou 1. Você pode dizer que, por indução, o sol irá certamente nascer 
amanhã, mas, e se acontecer um evento extremamente improvável que o destrua? 
 
Normalmente aproximamos a probabilidade de alguma coisa para cima ou 
para baixo porque elas são tão prováveis ou improváveis de ocorrer, que é fácil de 
reconhecê-las como probabilidade de um ou zero. Entretanto, isso pode levar a 
20 
 
 
 
desentendimentos e comportamentos perigosos, porque é difícil distinguir entre, uma 
probabilidade de 10−4 e uma de 10−9, a despeito da grande diferença numérica 
entre elas. Por exemplo, se você espera atravessar uma estrada 105 ou 106 vezes 
na sua vida, definir o risco de atravessá-la em 10−9 significa que você está bem 
seguro pelo resto da sua vida. Entretanto, um risco de 10−4 significa que é bem 
provável que você tenha um acidente, mesmo que intuitivamente um risco de 0,01% 
pareça muito baixo. 
 
Portanto, como pudemos observar, existem muitas controvérsias e algumas 
unanimidades, no que tange ao surgimento e desenvolvimento da Estatística. 
 
Não obstante, não há controvérsias quanto à sua importância para a nossa 
vida acadêmica, profissional e pessoal. 
 
Vejamos então, os diversos tipos de Estatísticas e suas aplicações. 
 
 
 
2.3 Os Tipos de Estatística 
 
 
A prática da Estatística sofreu enorme mudança com o crescimento e 
desenvolvimento dos computadores e de todas as suas possibilidades, 
principalmente, a partir da segunda metade do século XX. Os modelos estatísticos 
mais antigos eram quase sempre lineares, mas os computadores modernos, junto 
com algoritmos numéricos apropriados, causaram um aumento do interesse nos 
modelos não lineares (especialmente redes neurais e árvores de decisão) assim 
como na criação de novos tipos, como o modelo linear generalizado e o modelo 
multi-nível. 
 
 
 
2.3.1 Estatística computacional 
 
 
O aumento na capacidade de computação também tem levado à 
popularização de métodos, que demandam muitos cálculos, baseados em 
reamostragem (em inglês e no jargão do meio resamplin), como testes de 
permutação e bootstrap, enquanto técnicas como a amostragem de Gibbs tem feito 
com que os métodos de Bayes fiquem mais fáceis. A revolução informática também 
tem levado a um aumento na ênfase na estatística “experimental” e “empírica”. Um 
 
 
21 
 
 
 
grande número de softwares estatísticos, de uso geral e outros de uso específico, 
estão disponíveis no mercado. 
 
Sobre esse tema, podemos encontrar vasto material para consulta, análise e 
pesquisa para o seu Trabalho de Conclusão de Curso, nos seguintes endereços e, 
os seguintes resumos podem ser lidos, a princípio, como uma amostra do que vem 
sendo produzido e publicado sobre a Estatística computacional. 
 
 
R é confiável para estatística computacional? 
 
Outras 
 
Ciências Exatas e da Terra 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
Marcelo G. Almiron, Departamento de Ciência da Computação - UFMG 
Eliana S. Almeida, Instituto de Computação - UFAL 
Antonio C. Medeiros, Laboratório de Computação Científica e Visualização - UFAL 
Alejandro C. Frery, Instituto de Computação - UFAL 
 
Este trabalho avalia a precisão numérica da plataforma R em duas 
arquiteturas de processador (i386 e amd386), rodando sistemas operacionais 
Microsoft Windows 7, GNU/Linux Ubuntu 9.10 e MAC OS X Leopard (este último 
apenas em i386). 
 
A avaliação consiste em calcular os valores da média, do desvio padrão, da 
correlação de primeira ordem e o estatístico F de ANOVA, empregando conjuntos de 
dados com comportamento conhecidamente problemático. 
 
Os valores reportados por R são contrastados com outros certificados, e o 
número de dígitos significativos corretos é informado para cada situação. 
 
Com exceção de uma situação onde R é incapaz de produzir resultados 
aceitáveis, esta plataforma se mostra precisa e portável, duas propriedades 
essenciais em estatística computacional. 
 
 
Reconstrução de sinais em Redes de Sensores sem Fios com técnicas de 
geoestatística 
 
Inferência Estatística 
http://www.ime.unicamp.br/sinape/19sinape/node/829
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/30
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/35
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
http://www.ime.unicamp.br/sinape/19sinape/node/818
http://www.ime.unicamp.br/sinape/19sinape/node/818
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/25
22 
 
 
 
Ciências Exatas e da Terra 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
Bruno Lopes - Universidade Federal de Alagoas 
 
 
As Redes de Sensores sem Fios (RSsF) são conjuntos de dispositivos que 
obtêm amostras de fenômenos ambientais, sejam eles naturais (como, por exemplo, 
temperatura, pressão atmosférica, intensidade de iluminação, concentração de 
substâncias em cursos d’água) ou antrópicos (qualidade do ar em sinais de trânsito, 
pressão ao longo de um oleoduto). Esses dispositivos têm despertado muito 
interesse, tanto pelas suas potenciais aplicações quanto pelos desafios teóricos e 
tecnológicos que seu uso otimizado oferece. O objetivo deste trabalho trata da 
análise da reconstrução de sinais nessas redes, com base em técnicas de 
geoestatística. Analisam-se três processos de kriging: simples (três variantes), 
ordinário e bayesiano (duas variantes). Leva-se em consideração o processo de 
agrupamento dos nós sensores, com simulações sem agrupamento e com os 
sensores agrupados pelos algoritmos LEACH e SKATER. O algoritmo de kriging 
bayesiano apresenta os melhores resultados qualitativos na maioria dos casos, mas 
se torna inviável para sistemas que necessitem de respostas rápidas. Nesses casos, 
recomenda-se o algoritmo de kriging ordinário. 
 
 
Autenticação Pessoal Baseada na Análise da Dinâmica da Digitação por Métodos 
 
Estatísticos 
 
Outras 
 
Ciências Exatas e da Terra 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Leonardo José Tenório Mourão Torres - UFAL 
Ricardo Rubens G. Nunes Filho - IFAL 
Fabiano S. Brião - UFAL 
 
Rian Gabriel S. Pinheiro - UFAL 
 
 
 
 
 
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/35
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
http://www.ime.unicamp.br/sinape/19sinape/node/817
http://www.ime.unicamp.br/sinape/19sinape/node/817
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/30
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/35
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
 
23 
 
 
 
Alejandro C. Frery - UFAL 
 
 
 
Este trabalho apresenta resultados de autenticação biométrica via Dinâmica 
da Digitação na Web, onde pretende-se identificar uma pessoa pelo seu ritmo 
habitual dedigitar uma senha em um teclado convencional usando métodos 
estatísticos. Os resultados mostram que o uso da Dinâmica da Digitação é simples e 
eficiente para autenticação pessoal, obtendo melhores resultados usando quinze 
amostras por Modelo com taxas de falsa rejeição de 4,26% e de falsa aceitação de 
1,80%. Estas taxas de erros são aceitáveis, visto que um usuário impostor que 
conheça a informação alvo de um usuário autêntico terá acesso às informações 
como: contas bancárias, cartões de créditos, e aplicações industriais, dentre outras. 
 
 
 
Modelo multidimensional de resposta ao item: estimação bayesiana e MCMC 
 
Análise Multivariada 
 
Ciências Sociais Aplicadas 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Patrícia Costa - Universidade do Minho - Portugal 
 
Tufi Soares - Universidade Federal de Juiz de Fora 
 
Maria Eugénia Ferrão - Universidade da Beira Interior - Portugal 
 
Pedro Oliveira - Universidade do Minho - Portugal 
 
 
 
Este trabalho tem como propósito a obtenção das estimativas dos parâmetros 
dos itens e dos fatores latentes do modelo da Teoria de Resposta ao Item 
multidimensional logístico de dois parâmetros conjugando a estimação bayesiana 
com o uso de métodos de simulação Markov Chain Monte Carlo. Em particular, usa- 
se o algoritmo de Metropolis-Hastings com passos de Gibbs. Todas as etapas do 
algoritmo e respectiva fundamentação matemática apresentam-se e ilustram-se com 
recurso a computação desenvolvida em Matlab. Para testar o algoritmo proposto 
utilizam-se dados simulados, considerando que o fator latente afere 2 e 3 
 
http://www.ime.unicamp.br/sinape/19sinape/node/902
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/21
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/37
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
24 
 
 
 
dimensões. Usa-se o critério de informação AIC para identificar o número de fatores 
que melhor se ajusta aos dados. Para comparar as estimativas dos parâmetros 
obtidas pela aplicação do modelo com os valores verdadeiros utilizam-se as 
estatísticas: correlação de Pearson, Erro Absoluto Médio e Erro Quadrático Médio. 
 
 
 
Uso do Teste de Aleatorização na Análise das Séries Temporais 
 
Séries Temporais, Econometria e Finanças 
 
Ciências Agrárias 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Aline Palafoz Pereira - Aluna do curso de Estatística da UFBA 
 
Denise Nunes Viola - Professora do Departamento de Estatística da UFBA 
Gilênio Borges Fernandes - Professor do Departamento de Estatística da UFBA 
 
 
Muitas vezes o pesquisador tem interesse em saber se existe tendência em 
uma série temporal. Uma maneira de verificar essa tendência é através dos mínimos 
quadrados, mas nem sempre os dados apresentam os pressupostos para utilizar 
esta técnica. Quando os pressupostos não são atendidos, uma alternativa é verificar 
a tendência através do teste de aleatorização, que indica se existe ou não algum 
padrão nos os dados. Para rejeitar a hipótese nula usamos o p-valor que é calculado 
a partir da proporção de vezes que a estatística de teste após a aleatorização é 
maior que a estatística obtida com os dados originais. Se o p-valor for menor que o 
nível de significância, rejeita-se a hipótese nula. Para ilustrar este teste foi feito um 
experimento ao longo de um mês com o objetivo de verificar se existe tendência no 
crescimento da planta. Após 10.000 aleatorizações, verificou-se que p-valor=0,023, 
logo, rejeita-se a hipótese nula, portanto, existe tendência na série. 
 
Uso do teste de aleatorização para comparar dois grupos considerando teste não 
paramétrico 
 
Estatística Não-Paramétrica 
 
 
http://www.ime.unicamp.br/sinape/19sinape/node/758
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/29
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/32
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
http://www.ime.unicamp.br/sinape/19sinape/node/757
http://www.ime.unicamp.br/sinape/19sinape/node/757
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/24
25 
 
 
 
Ciências Agrárias 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Jurandir Prazeres Filho - Aluno de graduação em Estatística, UFBA / Bolsista de 
 
Iniciação Científica - CNPq 
 
Denise Nunes Viola - Professora do Departamento de Estatística, UFBA 
Gilênio Borges Fernandes - Professor do Departamento de Estatística, UFBA 
 
Muitas vezes o pesquisador está interessado em comparar médias ou a forma 
da distribuição de dois grupos. Uma maneira para compará-los seria aplicando 
testes paramétricos, tais como o Teste T ou Teste Z (no caso de duas amostras 
independentes) ou o Teste T pareado. Porém, tais testes apresentam certas 
exigências que frequentemente podem não ser atendidas. Neste caso, é indicada a 
utilização de testes não paramétricos ou o teste de aleatorização. Este teste é 
baseado na suposição de que, se a hipótese nula é verdadeira, todas as possíveis 
ordens dos dados são igualmente prováveis. O teste de aleatorização é um 
procedimento em que se comparam valores de uma estatística observada para os 
dados no arranjo original com os valores desta estatística após a aleatorização das 
observações. A regra de decisão é baseada no p-valor - proporção de vezes em que 
a estatística de teste com os aleatorizados é maior ou igual a estatística de teste 
com os dados do arranjo original. Se o p-valor for menor que o nível de significância, 
rejeita-se Ho. É importante escolher adequadamente a estatística de teste e como 
neste estudo foram comparadas as médias de duas amostras independentes e 
pequenas e as exigências para o uso de testes paramétricos não foram atendidas, a 
estatística utilizada foi a do teste não paramétrico Wilcoxon-Mann-Whitney. Dentre 
as vantagens em se utilizar o teste de aleatorização, destaca-se o uso em amostras 
não aleatórias e/ou amostras pequenas, porém seu resultado não pode ser 
generalizado para a população. Observa-se ainda que o teste de aleatorização não 
apresenta tantas exigências quanto os métodos convencionais. Para ilustração 
deste teste foi utilizado um conjunto de dados de plantas de milho, em que as 
variáveis estudadas foram as alturas das plantas. Essas alturas foram medidas no 
vigésimo dia após sua germinação. Foram cultivadas quatro plantas à sombra e 
 
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/32
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
26 
 
 
 
cinco ao sol e o objetivo foi verificar se o ambiente à sombra ou ao sol influencia em 
seu crescimento. Após a aplicação do teste de aleatorização considerando a 
estatística do teste de Wilcoxon-Mann-Whitney e 10.000 aleatorizações obteve-se p- 
valor=0,9666. Como este valor é maior que o nível de significância (alfa=0,05), então 
não há evidências suficientes para rejeitar Ho, ou seja, as amostras são 
provenientes da mesma população, o que equivale a afirmar que há evidencias de 
que o ambiente não influencia no crescimento das plantas. 
 
Aperfeiçoamento De Procedimentos Estatísticos Para Avaliação Institucional Online: 
Implantação De Relatórios Armazenáveis 
 
Outras 
 
Ciências Sociais Aplicadas 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Marina Pasquali Marconato Mancini – CER, DEs, UFSCar 
 
Anderson Luiz Ara-Souza – CER, DEs, UFSCar 
 
Francisco Louzada Neto – CER, DEs, UFSCar 
 
 
 
O princípio de qualidade e desenvolvimento de qualquer instituição está 
intrinsecamente ligado à prática constante de avaliação da mesma e tomada de 
decisões diante dos resultados obtidos. Considerando especialmente Instituições de 
Ensino Superior, geradoras nacionais de conhecimento, a prática da avaliação deve 
ser prioridade a fim de garantir a formação de profissionais qualificados. Nesse 
contexto, e considerando a carência de metodologias desenvolvidas para a 
avaliaçãointerna das instituições, esse trabalho tem por objetivo aperfeiçoar a 
metodologia do Sistema online de Avaliação (Louzada-Neto & Ara-Souza, 2010) ao 
apresentar uma forma de implantação de relatórios de análise em formato PDF. A 
maior vantagem no que diz respeito a esse formato está em garantir a integridade e 
em evitar a manipulação das informações apresentadas. Além disso, as estatísticas 
realizadas poderão ser expostas de forma rápida, íntegra e contínua em qualquer 
navegador ou sistema operacional. É primordial a escolha de sistemas operacionais 
 
http://www.ime.unicamp.br/sinape/19sinape/node/667
http://www.ime.unicamp.br/sinape/19sinape/node/667
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/30
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/37
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
27 
 
 
 
de fácil acesso e baixo custo, garantindo sua implantação em qualquer Instituição de 
 
Ensino e a acessibilidade da metodologia sistemática de autoavaliação proposta. 
 
 
 
Estimação de máxima verossimilhança do modelo de regressão Poisson 
 
Generalizado Inflacionado de Zeros 
 
Modelos Lineares, MLG e outros modelos não-lineares 
 
Teoria 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Flávia Maria Ravagnani Neves Cintra, ICMC-USP / Faag 
 
Marinho Gomes de Andrade Filho, ICMC-USP 
Mário de Castro Andrade Filho, ICMC-USP 
 
 
O modelo de regressão Poisson Generalizado foi proposto por Famoye et al. 
(2004) para ajustar dados em que a variância amostral é maior (ou menor) que a 
média amostral e o modelo de regressão Poisson Generalizado Inflacionado de 
zeros (ZIGP), abordado em Famoye & Singh (2006) e Czado et al. (2007), foi 
proposto para ajustar dados com superdispersão (ou subdispersão) e inflacionados 
de zeros, ou seja dados com ocorrência de zeros maior que o esperado no modelo 
Poisson Generalizado. 
 
Como a distribuição ZIGP não pertence à família exponencial, o modelo de 
regressão não é um modelo linear generalizado (MLG). Portanto, os resultados 
assintóticos válidos para um MLG não se aplicam para a regressão ZIGP. Através de 
simulações vamos verificar que o estimador de máxima verossimilhança no modelo 
ZIGP é assintoticamente normal. 
 
 
A regra dos três números para o cálculo de uma medida de correlação robusta 
 
Análise Exploratória de Dados 
 
Teoria 
 
Estatística Computacional 
 
http://www.ime.unicamp.br/sinape/19sinape/node/635
http://www.ime.unicamp.br/sinape/19sinape/node/635
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/27
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/31
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
http://www.ime.unicamp.br/sinape/19sinape/node/618
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/20
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/31
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
28 
 
 
 
Autor(es) e Instituição: 
 
Gustavo H. Esteves, Departamento de Estatística - Centro de Ciências e Tecnologia 
 
- Universidade Estadual da Paraíba 
 
Diana Maia, Departamento de Estatística - Centro de Ciências e Tecnologia - 
Universidade Estadual da Paraíba 
 
 
 
Um dos problemas mais comuns na Estatística é o cálculo de uma medida de 
correlação robusta, isto é, uma medida que não seja influenciada por pontos 
discrepantes (outliers) presentes no conjunto de dados. Neste trabalho é 
apresentado um método, baseado na técnica de leave one out da teoria de 
discriminadores lineares, que ataca este problema e define uma regra, chamada 
aqui de regra dos três números, que usa a informação do mínimo, da média (ou 
mediana) e do máximo entre n valores de correlação linear de Pearson, onde n é o 
número de observações da amostra, para estimar um valor de correlação robusto. 
 
 
Critérios De Informação De Akaike Versus Bayesiano: Análise Comparativa 
 
Séries Temporais, Econometria e Finanças 
 
Ciências Exatas e da Terra 
 
Estatística Computacional 
 
Autor(es) e Instituição: 
 
Paulo César Emiliano - UFLA 
Elayne Penha Veiga - UFLA 
Mário Javier Ferrua Vivanco - UFLA 
Fortunato Silva de Menezes - UFLA 
 
 
Um modelo é a representação simplificada de algum problema ou situação da 
vida real destinado a ilustrar certos aspectos do problema sem se ater a todos os 
detalhes. Não raro, mais de um modelo pode descrever um mesmo fenômeno, haja 
vista que cada pesquisador tem a liberdade de modelar o fenômeno seguindo a 
 
 
 
http://www.ime.unicamp.br/sinape/19sinape/node/615
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/29
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/35
http://www.ime.unicamp.br/sinape/19sinape/taxonomy/term/57
29 
 
 
 
metodologia que julgar mais adequada. Aqui a seleção do “melhor” modelo torna-se 
então evidente. 
 
Burnham e Anderson (2004), enfatizam a importância de selecionar modelos 
baseando-se em princípios científicos. Dentre as diversas metodologias utilizadas 
para este fim, neste trabalho realizamos uma análise comparativa dos critérios de 
informação de Akaike (AIC), Akaike Corrigido (AICc) e Bayesiano (BIC), quanto a 
sua performance na seleção de modelos. Tais critérios são comparados via 
simulação em modelos normais e em modelos de séries temporais. 
 
 
 
 
 
2.3.2 A Estatística Primitiva 
 
 
À primitiva noção de estatística, descrição qualitativa das coisas e fatos 
notáveis dos Estados (séc. XVII), sucedeu a de enumeração quantitativa de 
populações, produções, bens e riquezas dos mesmos Estados (séc. XVIII). No 
século passado dizia-se que se fazia estatística quando se contavam conjuntos 
numerosos ou se registravam as repetições de determinados fenômenos. A palavra 
estatística aplicava-se aos próprios quadros e tabelas onde se alinhavam os 
resultados dessas contagens. E como os conjuntos numerosos que se contavam 
eram de pessoas, e porque os fenômenos que se registravam, respeitavam à 
população humana, a estatística apareceu, então, como um “estudo numérico dos 
fatos sociais”, como uma “ciência que pretendia deduzir de um grande número de 
observações de fenômenos sociais, leis gerais aplicáveis à vida humana”. 
 
Verificou-se, porém, ser, a maior parte das vezes, pretensiosa essa ambição. 
Os fenômenos sociais são de tal forma complexos que mais não se podia senão 
classificá-los e ordená-los em tipos característicos. Do objeto que era o 
conhecimento da sociedade e dos seus elementos, a estatística passou a ocupar-se 
do estudo de outros conjuntos numerosos e de outros fenômenos realizáveis em 
grande número, sempre fora da ação direta do observador, cujas causas, ou 
condições de realização, parecem múltiplas e complexas. Tais fenômenos chamam- 
se coletivos, de massa ou ainda estatísticos. Apresentam-se hoje não só na 
demografia, mas também na física, na astronomia estelar, na economia, na 
antropologia, na biologia, etc. 
 
30 
 
 
 
2.3.3 A Estatística Indutiva 
 
 
Atualmente pode dizer-se, sem exagero, que a Estatística Indutiva é aplicada 
a todos os ramos do conhecimento e é utilizada em quase todos os aspectos da vida 
humana. Por terem sido os primeiros a estudarem e a utilizarem este ramo da 
Estatística, Galton (1822 – 1911) e Pearson (1857 – 1936) são habitualmente 
considerados os iniciadores da Estatística moderna. 
 
Até à segunda metade do século XIX, a utilização da Estatística consistia na 
recolha de dados, os quais refletiam uma determinada situação. 
 
O imperador Tao pretendia, provavelmente, conhecer melhor a população da 
China quando, acerca de 2200 a.C., ordenou um censo cujos dados são os mais 
antigos que se conhecem. O império romano (séc. VI a.C.), com a sua grande 
extensão, necessitou também de obter dados sobre os variados povos que 
habitavam e, nos quinze séculos seguintes, estados e povos foram estudadosatravés de recenseamentos, por ordem de reis e imperadores. 
 
Quando, hoje em dia, os políticos, os governos ou os sociólogos analisam a 
esperança de vida num país, numa região ou no mundo, seguem um procedimento 
efetuado, pela primeira vez, por Graunt e por Edmund Halley (1658 – 1744). Este 
astrônomo inglês, conhecido pelo cometa que identificou e cuja passagem pela terra 
previu, publicou, em 1692, um livro com o título que explicava claramente de que 
assuntos tratava: Cálculo dos graus de mortalidade da humanidade, deduzidos de 
curiosas tabelas dos nascimentos e mortes da cidade de Breslau, com a intenção de 
estabelecer os preços das anualidades sobre as vidas. Este tipo de estudo 
estatístico é utilizado atualmente, por exemplo, pelas companhias de seguros. 
 
O livro Medicina social, escrito por Quetelet, levou Florence Nightingale (1820 
 
– 1910) a fazer uma grande campanha para que a universidade de Oxford instituísse 
uma cadeira de Estatística, na qual os políticos e legisladores aprendessem como 
era importante as decisões serem baseadas em dados concretos. Embora não 
tivesse conseguido atingir esse objetivo, ela sempre usou essa nova ciência, que 
considerava um estudo “apaixonante”, para pressionar os governos, e até a rainha 
Vitória, no sentido de melhorar o sistema de saúde inglês daquela época. Durante os 
50 anos que dedicou à enfermagem recolheu uma enorme quantidade de dados 
sobre a mortalidade nas zonas de guerra e nos hospitais; utilizando essas 
31 
 
 
 
informações e algumas representações gráficas muito criativas, lutou contra a 
 
“profunda cegueira” dos governantes. 
 
Graunt, Halley, Quetelet e Nightingale, todos eles utilizaram a Estatística para 
descrever várias situações, ou seja, utilizaram a Estatística Descritiva, mas Francis 
Galton utilizou métodos estatísticos completamente inovadores para efetuar 
previsões e tirar conclusões, em assuntos tão diversos como meteorologia (construiu 
o primeiro mapa do tempo de que se tem notícia), religião e hereditariedade. Iniciou- 
se então a Estatística Indutiva. 
 
Galton acreditava completamente nos dados e recolheu-os sobre assuntos 
tão estranhos e variados como a eficácia das orações, a antropologia ou as 
impressões digitais (a partir de um estudo exaustivo de milhares de exemplares 
demonstrou que cada pessoa tem impressões digitais diferentes). A sua enorme 
curiosidade e criatividade levaram-no a construir um instrumento experimental, a 
máquina de Galton, com o qual se pode estudar a probabilidade de uma bola 
percorrer um determinado caminho desde um ponto até ao outro. 
 
Por exemplo, se forem efetuados 10 000 lançamentos de bola e se esta 
percorrer um dos caminhos 345 vezes, a frequência relativa terá sido de 0,0345, 
sendo então de esperar que a probabilidade da bola percorrer aquele caminho seja 
um valor próximo deste (segundo a máquina de Galton). 
 
 
 
2.3.4 A Estatística Oficial 
 
 
Desde tempos remotos que se verificou a necessidade de levantamentos de 
dados de interesse para a governança das sociedades (impostos, recrutamento 
militar, cadastro rural, produções, possibilidades, distribuição das populações pelas 
terras, etc.). A defesa da vida humana levou os Estados a preocuparem-se com o 
recolhimento permanente de números a respeito da natalidade, da nupcialidade, da 
mortalidade, etc. A direção da economia tornou indispensável o conhecimento, 
suficientemente aproximado, da produção, consumo e distribuição das matérias 
primas e dos produtos manufaturados. A necessidade de um organismo permanente 
encarregado do registro das possibilidades e recursos das várias regiões de um país 
foi posta em relevo por Vaubon (1633-1707), mas foi só no princípio do século 
passado que se criou organismos dessa natureza. 
32 
 
 
 
Os dirigentes dos diversos organismos oficiais de estatística, bem como, 
aqueles que orientam a investigação matemática do método estatístico, verificaram 
que se tornava indispensável a colaboração de todos aqueles, que nos vários 
países, se dedicam ao seu estudo. 
 
Por conta disso, desde 1853, ocorrem reuniões internacionais, chamadas 
Congressos Internacionais de Estatística, onde se apresentam e se discutem 
comunicações dos congressistas. Verificou-se que essas reuniões eram 
insuficientes. Por isso, o Congresso de Londres, de 1885, criou o Instituto Nacional 
de Estatística, associação cientifica com 225 membros efetivos e 25 membros 
honorários. Tem a sua sede em Haia, onde funciona, como organismo permanente, 
uma Secretaria. 
 
 
 
2.3.5 Aplicações 
 
 
Algumas ciências usam a estatística aplicada, tão extensivamente, que elas 
têm uma terminologia especializada. Estas disciplinas incluem: 
 
 Bioestatística; 
 
 Contabilometria; 
 
 Controle de qualidade; 
 
 Estatística comercial; 
 
 Estatística econômica; 
 
 Estatística engenharia; 
 
 Estatística física; 
 
 Estatística populacional; 
 
 Estatística psicológica; 
 
 Estatística social (para todas as ciências sociais); 
 
 Física quântica; 
 
 Geoestatística; 
 
 Pesquisa operacional; 
 
33 
 
 
 
 Análise de processo e quimiometria (para análise de dados da química 
analítica e da engenharia química). 
 
 
 
Já de acordo com o Instituto Brasileiro de Geografia e Estatística (IBGE, 
 
2011), grande parte das informações divulgadas pelos meios de comunicação atuais 
provém de pesquisas e estudos estatísticos. Os índices da inflação, de emprego e 
desemprego, divulgados e analisados pela mídia, são um exemplo de aplicação da 
Estatística no nosso dia a dia. O Instituto Brasileiro de Geografia e Estatística - 
IBGE, ao qual a Escola Nacional de Estatísticas está vinculada, é o órgão 
responsável pela produção das estatísticas oficiais que subsidiam estudos e 
planejamentos governamentais no país. 
 
Portanto, os conceitos estatísticos têm exercido profunda influência na 
maioria dos campos do conhecimento humano. Métodos estatísticos vêm sendo 
utilizados no aprimoramento de produtos agrícolas, no desenvolvimento de 
equipamentos espaciais, no controle do tráfego, na previsão de surtos epidêmicos 
bem como no aprimoramento de processos de gerenciamento, tanto na área 
governamental como na iniciativa privada. 
 
Na prática, a Estatística pode ser empregada como ferramenta fundamental 
em várias outras ciências. Na área médica, por exemplo, a Estatística fornece 
metodologia adequada que possibilita decidir sobre a eficiência de um novo 
tratamento no combate à determinada doença. A Estatística permite identificar 
situações críticas e, consequentemente, atuar em seu controle, desempenhando 
papel crucial no estudo da evolução e incidência de uma doença como a AIDS. Na 
área tecnológica, o advento da era espacial suscitou diversos problemas 
relacionados ao cálculo de posição de uma astronave, cuja solução depende 
fundamentalmente de conceitos e teorias estatísticas mais elaboradas, considerando 
que estas informações, como sinais de satélite, são recebidas de forma ruidosa e 
incerta. 
O crescente uso da Estatística vem ao encontro da necessidade de realizar 
análises e avaliações objetivas, fundamentadas em conhecimentos científicos. As 
organizações modernas estão se tornando cada vez mais dependentes de dados 
 
 
 
 
34 
 
 
 
estatísticos para obter Informações essenciais sobre seus processos de trabalho e 
principalmente sobre a conjuntura econômica e social. 
 
As informações estatísticas são concisas, específicas e eficazes, fornecendo 
assim subsídios imprescindíveis para as tomadas racionais de decisão. Neste 
sentido, a Estatística fornece ferramentas importantes para que as empresas e 
instituições possam definir melhor suas metas, avaliar sua performance, identificar 
seus pontos fracos e atuar na melhoria contínua de seus processos.A Estatística, então, forma uma ferramenta chave nos negócios e na 
industrialização como um todo, sendo utilizada para o entendimento de sistemas 
variáveis, controle de processos (chamado de “controle estatístico de processo” ou 
CEP), custos financeiros (contábil) e de qualidade e para sumarização de dados e 
também tomada de decisão baseada em dados. 
E, em sendo, nessas funções ela é uma ferramenta chave ou talvez, a única 
ferramenta segura. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
35 
 
 
 
3 A MATEMÁTICA FINANCEIRA, A ESTATÍSTICA E OS PCN 
 
 
 
 
De acordo com os Parâmetros Curriculares Nacionais, para a Educação 
Básica, em Matemática, vemos que, para as três séries do Ensino Médio são 
colocadas, claramente, a questão da formação dos alunos. 
 
Em sendo, podemos constatar que, em todas as disciplinas da área, os temas 
de estudo da primeira série deveriam tratar do entorno das informações que cercam 
os alunos, numa visão contextualizada, colocando-os em contato com as primeiras 
ideias e procedimentos básicos para ler e interpretar situações simples. 
 
Como isso não ocorre, vemos, por exemplo, a questão dos Conjuntos que, 
tradicionalmente, ao darmos inicio ao ensino de funções, estabelece-se como meta 
inicial, o estudo dos números reais e de conjuntos e suas operações, para depois, 
definir relações e, só então, identificar as funções como particulares relações. Todo 
esse percurso é abandonado assim que a definição de função é estabelecida, pois 
para a análise dos diferentes tipos de funções, todo o estudo relativo a conjuntos e 
relações é desnecessário. 
 
Assim, o ensino pode ser iniciado diretamente pela noção de função para 
descrever situações de dependência entre duas grandezas, o que permite o estudo 
a partir de situações contextualizadas, descritas algébrica e graficamente (PCN+, 
Ensino Médio, 2002, p. 121). 
 
As funções, exponencial e logarítmica, por exemplo, são usadas para 
descrever a variação de duas grandezas em que o crescimento da variável 
independente é muito rápido, sendo aplicada em áreas do conhecimento como 
matemática financeira, crescimento de populações, intensidade sonora, pH de 
substâncias e outras. A resolução de equações logarítmicas e exponenciais e o 
estudo das propriedades de características e mantissas podem ter sua ênfase 
diminuída e, até mesmo, podem ser suprimidas (PCN+, 2002, p. 121). 
 
Com relação às sequências, é preciso garantir uma abordagem conectada à 
ideia de função, na qual as relações com diferentes funções possam ser analisadas. 
O estudo da progressão geométrica infinita com razão positiva e menor que 1 
oferece talvez a única oportunidade de o aluno estender o conceito de soma para 
 
 
36 
 
 
 
um número infinito de parcelas, ampliando sua compreensão sobre a adição e tendo 
a oportunidade de se defrontar com as ideias de convergência e de infinito. Essas 
ideias foram e são essenciais para o desenvolvimento da ciência, especialmente 
porque permitem explorar regularidades. 
 
O ensino desta unidade deve ater-se à lei de formação dessas sequências e a 
mostrar aos alunos quais propriedades decorrem delas. 
 
Associar às sequências seus gráficos e relacionar os conceitos de sequência 
crescente ou decrescente, aos correspondentes gráficos, permite ao aluno 
compreender melhor as ideias envolvidas, ao mesmo tempo em que dá a ele a 
possibilidade de acompanhar o comportamento de uma sequência, sem precisar 
decorar informações (PCN+, 2002, p. 118). 
 
Na segunda série, já poderia haver uma mudança significativa no sentido de 
que cada disciplina mostrasse sua dimensão enquanto Ciência, com suas formas 
características de pensar e modelar fatos e fenômenos. 
 
Iniciando pela trigonometria, temos como objetivos da mesma: 
 
 Utilizar e interpretar modelos para resolução de situações-problema que 
envolvam medições, em especial o cálculo de distâncias inacessíveis, e para 
construir modelos que correspondem a fenômenos periódicos. 
 
 Compreender o conhecimento científico e tecnológico como resultado de uma 
construção humana em um processo histórico e social, reconhecendo o uso 
de relações trigonométricas em diferentes épocas e contextos sociais. 
 
Apesar de sua importância, tradicionalmente a trigonometria é apresentada 
desconectada das aplicações, investindo-se muito tempo no cálculo algébrico das 
identidades e equações em detrimento dos aspectos importantes das funções 
trigonométricas e da análise de seus gráficos. O que deve ser assegurado são as 
aplicações da trigonometria na resolução de problemas que envolvem medições, em 
especial o cálculo de distâncias inacessíveis e para construir modelos que 
correspondem a fenômenos periódicos. 
Dessa forma, o estudo deve ater-se às funções seno, cosseno e tangente 
com ênfase ao seu estudo na primeira volta do círculo trigonométrico e à perspectiva 
histórica das aplicações das relações trigonométricas. Outro aspecto importante do 
 
37 
 
 
 
estudo deste tema é o fato desse conhecimento ter sido responsável pelo avanço 
tecnológico em diferentes épocas, como é o caso do período das navegações ou, 
atualmente, na agrimensura, o que permite aos alunos perceberem o conhecimento 
matemático como forma de resolver problemas que os homens se propuseram e 
continuam se propondo. 
 
Ainda neste tema, é possível alargar e aprofundar o conhecimento dos alunos 
sobre números e operações, mas não isoladamente dos outros conceitos, isto é, 
pode-se tratar os números decimais e fracionários, mas mantendo de perto a relação 
estreita com problemas que envolvem medições, cálculos aproximados, 
porcentagens, assim como os números irracionais devem se ligar ao trabalho com 
geometria e medidas. É ainda importante para o aluno, nessa etapa de sua 
formação, o desenvolvimento da capacidade de estimativa da ordem de grandeza de 
resultados de cálculo ou medições e da capacidade de tratar com valores numéricos 
exatos ou aproximados de acordo com a situação e o instrumental disponível. 
 
Com relação à álgebra, há ainda o estudo de Equações Polinomiais e de 
Sistemas Lineares. Esses dois conteúdos devem receber um tratamento que 
enfatize sua importância cultural, isto é, estender os conhecimentos que os alunos 
possuem sobre a resolução de equações de primeiro e segundo graus e sobre a 
resolução de sistemas de duas equações e duas incógnitas para sistemas lineares 3 
por 3, aplicando esse estudo à resolução de problemas simples de outras áreas do 
conhecimento. Uma abordagem mais qualitativa e profunda deve ser feita dentro da 
parte flexível do currículo, como opção específica de cada escola. 
 
Resumidamente, em relação às competências a serem desenvolvidas pela 
Matemática, a abordagem proposta para esse tema permite ao aluno usar e 
interpretar modelos, perceber o sentido de transformações, buscar regularidades, 
conhecer o desenvolvimento histórico e tecnológico de parte de nossa cultura e 
adquirir uma visão sistematizada de parte do conhecimento matemático. 
 
No que tange à Estatística, Contagem e Probabilidade, uma das grandes 
competências propostas pelos PCNEM diz respeito à contextualização sociocultural 
como forma de aproximar o aluno da realidade e fazê-lo vivenciar situações 
próximas que lhe permitam reconhecer a diversidade que o cerca e reconhecer-se 
como indivíduo capaz de ler e atuar nesta realidade. 
 
 
38 
 
 
 
A Matemática do ensino médio pode ser determinante para a leitura das 
informações que circulam na mídia e em outras áreas do conhecimento na forma de 
tabelas, gráficos e informações de caráter estatístico. Contudo, espera-se do aluno 
nessa fase da escolaridade que ultrapasse a leitura de informações e reflita mais 
criticamente sobre seus significados. 
 
Assim, o tema proposto deve ir além da simples descrição e representação de

Continue navegando