Baixe o app para aproveitar ainda mais
Prévia do material em texto
A RELAÇÃO ENTRE A MATEMÁTICA E A ESTATÍSTICA Belo Horizonte 2 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 SUMÁRIO INTRODUÇÃO .......................................................................................................... 03 1 MATEMÁTICA FINANCEIRA E EDUCAÇÃO ESTATÍSTICA .............................. 04 2 A EVOLUÇÃO HISTÓRICA E EPISTEMOLÓGICA DA ESTATÍSTICA ............... 09 2.1 Epistemologia ...................................................................................................... 09 2.2 Desenvolvimento histórico .................................................................................. 11 2.3 Os tipos de estatística ......................................................................................... 20 2.3.1 Estatística computacional ................................................................................. 20 2.3.2 A estatística primitiva ....................................................................................... 28 2.3.3 Estatística indutiva ........................................................................................... 29 2.3.4 A estatística oficial ........................................................................................... 31 2.3.4 Aplicações ........................................................................................................ 32 3 A MATEMÁTICA FINANCEIRA, A ESTATÍSTICA E OS PCNs ........................... 34 4 A PROBABILIDADE E A ESTATÍSTICA NO CURRÍCULO DE MATEMÁTICA ... 39 4.1 Os Parâmetros Curriculares Nacionais ............................................................... 41 4.2 A proposta Curricular de Minas Gerais ............................................................... 44 4.3 A proposta Curricular de São Paulo .................................................................... 66 REFERÊNCIAS UTILIZADAS E CONSULTADAS .................................................. 69 ANEXOS ................................................................................................................... 71 3 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 INTRODUÇÃO Esta disciplina visa analisar a Matemática Financeira e sua relação com a Estatística. Nesse sentido, abordaremos a Matemática Financeira, dentro da perspectiva de uma Educação Estatística, objetivando a indagação em torno da importância dessa ciência e sua aplicabilidade em nosso dia a dia. Para tanto, abordar-se-á o ensino da Estatística dentro da Matemática, da Educação Básica, analisando as colocações e orientações contidas nos Parâmetros Curriculares Nacionais, no que tange a essa temática e suas possibilidades. Todavia, entendemos que, para compreendermos a Estatística e todas as suas aplicações e importância, devemos partir da sua evolução histórica, iniciando com uma análise epistemológica do termo e sua aplicabilidade no decorrer da História, bem como, analisaremos e caracterizaremos os diversos tipos de estatísticas e suas aplicações. Trataremos em uma unidade à parte, da questão do uso e aplicação da estatística e da probabilidade, dentro do currículo da matemática, fazendo uma comparação entre as propostas curriculares dos estados de Minas Gerais e São9 Paulo, bem como, com as propostas curriculares contidas nos PCN. Por fim, em anexos, listamos alguns endereços interessantes acerca do tema, bem como, compilamos um relato de experiência que, temos certeza, servirá de luz para sua futura pesquisa e estudos. Por tudo isso, esperamos que você desenvolva seus conhecimentos, acerca do tema proposto e que faça, também, uma excelente leitura, obtendo o sucesso que almejas. Outras informações e aprofundamentos devem ser buscados através da leitura da bibliografia utilizada e relacionada ao final desta. Coordenação Pedagógica do Instituto IPEMIG. Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 1 MATEMÁTICA FINANCEIRA E EDUCAÇÃO ESTATÍSTICA Matemática e Estatística caminham juntas durante a Educação Básica. Contudo, encontram-se questões antagônicas, no que se refere à aplicação de ambas ao mesmo tempo, visto que, a Ciência estatística, trata de questões que envolvem opiniões e divergências, entre muitos, o que torna a exatidão matemática, alheia a seus resultados. Em vista disso, uma das preocupações necessárias na Educação Estatística é com a maneira pela qual os alunos aprendem, o que requer dos estatísticos uma aproximação da psicologia e de outras áreas das ciências do comportamento. É necessário mudar o conteúdo da estatística e o seu discurso, de forma a proporcionar aos alunos o uso do pensamento estatístico e de métodos a partir de problemas do mundo real. Algumas questões podem ser formuladas na educação estatística sobre o ensino da disciplina estatística para alunos ingressantes em cursos superiores, futuros usuários dessa ferramenta de análise de dados na indústria, na pesquisa científica ou em situações cotidianas. Algumas dessas questões referem-se ao conteúdo a ser ensinado, à estratégia de ensino a ser utilizada e à intensidade da utilização de pacotes estatísticos nas aulas. Uma questão muito discutida é como utilizar adequadamente a Matemática nas disciplinas de estatística. Salienta-se a importância de reforçar o fundamento da matemática quando o ensino é voltado para a formação de estatísticos, enquanto seria mais produtivo um conteúdo reduzido de matemática quando os estudantes serão, no futuro, apenas usuários dessa ferramenta. A Matemática considera o uso de ferramentas abstratas de matemática para resolver problemas concretos na ciência, negócios e outras áreas. Um importante campo na matemática aplicada é a estatística, que usa a teoria das probabilidades como uma ferramenta e permite a descrição, análise e predição de fenômenos onde as chances tem um papel fundamental. Muitos estudos de experimentação, acompanhamento e observação requerem um uso de estatísticas. 5 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 É lamentável o preconceito que alguns autores têm em relação à Matemática, posto que, a discussão deveria enfocar o seu uso inadequado no ensino de estatística. Segundo Nelder (1986), seria impossível o desenvolvimento da parte teórica da estatística sem o corpo de teoria e a notação da matemática. A estatística matemática é definida por Hand (1998) como as ideias estatísticas que são formalizadas pela matemática. Embora Hand reconheça a importância da matemática na estatística, ele argumenta que com a utilização de softwares estatísticos deve-se priorizar o desenvolvimento de habilidades em análise estatística e diminuir os esforços para se entender o fundamento matemático da análise. Ele afirma que é questionável o uso da matemática detalhada para o ensino de estatística para seus futuros usuários, porém, reconhece que quanto mais fundamento matemático o sujeito tiver, menor será a probabilidade de cometer erros. Os estatísticos necessitam de um profundo conhecimento de matemática, mas, para os futuros usuários de estatística, o conhecimento de matemática pode ser mais superficial, conforme defende Stuart (1995). O grande perigo, segundo ele, é que a abstração matemática de um problema estatístico geralmente ignora aspectos práticos importantes do problema e direciona a atenção, quase que exclusivamente, para a matemática. a Física matemátic Mecânica dos s fluido a Análise numéric o Otimizaçã Teoria das s probabilidade a Estatístic Matemática financeir a Teoria dos jogo s Fonte: wikipedia 6 Instituto Pedagógico de Minas Geraishttp://www.ipemig.com (31) 3270 4500 De acordo com diversas opiniões de diferentes autores, tais como Snee (1990) e Stuart (1995), é necessário que o aluno compreenda a estatística, principalmente para que ele possa desenvolver um raciocínio estatístico. Esse seria, então, um processo de pensamento no qual se parte do pressuposto que a variação dos dados está sempre presente e que identificando, caracterizando, quantificando, controlando e reduzindo essa variação pode-se conduzir a melhores resultados sobre o problema em investigação. Esse processo de pensamento em que a variação está presente exige do sujeito análise, conhecimento, tomada de decisão e, consequentemente, aperfeiçoamento. Os mesmos autores, citados anteriormente, definem o pensamento estatístico como “o pensamento que abrange a ideia de processo”, dentro de uma perspectiva da “onipresença de variação neste processo”, além da “explicação dessa variação (controle estatístico, aleatoriedade e distribuições, efeitos sistemáticos - regressão, entre outros) e a necessidade de dados sobre o processo”. (p. 36). No NCTM (National Council of Teachers of Mathematics, 1989) há um alerta para que os alunos entendam a diferença entre a característica de certo/errado do pensamento matemático e a natureza dos resultados em análise estatística, reconhecendo que a estatística tem um papel intermediário importante entre a exatidão da matemática e a natureza ambígua de um mundo largamente dependente da opinião individual. Portanto, um aluno deveria sair de um curso de estatística com uma prontidão para pensar estatisticamente (probabilisticamente). Embora não seja nova a discussão sobre a necessidade de priorizar o pensamento estatístico no ensino de estatística, o que predomina ainda hoje é o pensamento matemático (STUART, 1995). Esse autor salienta a necessidade de se desenvolver o pensamento estatístico pelo menos para usuários e estatísticos práticos e argumenta que esse pensamento pode ser desenvolvido com base em problemas estatísticos estabelecidos pelos próprios usuários, o que pode possibilitar a compreensão da estrutura estatística, da coleta de dados, da análise e interpretação dos dados e da implementação de soluções. Não obstante, é unânime a concepção de que os professores deveriam se preocupar mais com os aspectos afetivos do processo ensino-aprendizagem, buscando identificar a ansiedade, a atitude e as frustrações do aluno e propondo 7 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 estratégias que visem reduzir ou eliminar esses aspectos negativos. Uma das estratégias para se lidar com os aspectos afetivos é verificar logo no início de um curso ou de uma disciplina de estatística qual é a prontidão do aluno para realizá-la, bem como verificar no final do curso como ele se sente após realizá-la. Dessa forma, os resultados seriam mais positivos, haja vista que, se o aluno acredita que estudar estatística é estimulante e que será útil para sua vida, ele tenderá a apresentar atitudes positivas em relação à estatística e apresentará um comportamento pró-ativo para com a estatística, seja numa situação de aprendizagem, seja numa situação de interpretação de informações do dia-a-dia, seja na aplicação em sua vida profissional. Daí a importância do papel do professor, no que tange aos estímulos que ele deve oferecer aos alunos, objetivando a sua percepção com relação à importância da estatística para a vida. Nesse sentido, caso o aluno entenda que estatística é matemática e vice-versa e, se sua experiência com a matemática apresentou momentos frustrantes, esse aluno tenderá a demonstrar atitudes negativas ou desfavoráveis em relação à estatística. Em sendo, podemos afirmar que as atitudes dos alunos podem auxiliar ou atrapalhar a aprendizagem de estatística, podendo afetar o desenvolvimento do pensamento estatístico bem como a aplicação fora da sala de aula dos conceitos aprendidos. Segundo Asch (1952), as atitudes são respostas aprendidas ou reações emocionais condicionadas e um de seus efeitos é formar predisposições que decidem a direção a tomar diante de possíveis alternativas, quando o sujeito está diante de novas condições. As atitudes são aprendidas e, para isso ocorrer, o sujeito precisa ter tido pelo menos algum contato com o objeto da atitude, nesse caso a estatística. Outrossim, é possível considerar que uma atitude pode se desenvolver ou durante a primeira disciplina de estatística, ou em situações cotidianas em que o sujeito tenha lidado com os conceitos de estatística, embora, nesse segundo caso a probabilidade de ocorrência seja menor. Dessa forma, podemos elaborar as seguintes questões, com relação a essa temática, questionando se as atitudes dos alunos, em relação à estatística, podem surgir das atitudes em relação à matemática. Segundo alguns estudiosos do tema como Brito (1996) e Gal e Ginsburg, (1994), se o aluno acredita que estatística é matemática, suas atitudes em relação a 8 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 esta são transferidas para aquela. Portanto, esta também poderia ser uma origem das atitudes em relação à estatística. Nesse aspecto, são inúmeros os estudos realizados, dentro e fora do Brasil, posto que, esse não é um tema nacional. Assim, ao analisarmos alguns desses estudos, temos a clara percepção de que a ansiedade matemática e as atitudes negativas em relação à matemática influem, não só na aprendizagem dessa disciplina como na aprendizagem de disciplinas relacionadas, como por exemplo, a estatística (BRITO, 1996). Os alunos que já estudaram matemática num nível semelhante ao ensino médio, antes de um curso de estatística, apresentam reações afetivas com a matemática que podem afetar suas relações com a estatística (GAL e GINSBURG, 1994). Nesse caso, se são atitudes e, se as atitudes são aprendidas, elas são suscetíveis à mudança, na ótica de diversos autores, entre eles Koballa Jr. (1988), posto que, embora apresentem um certo grau de estabilidade, existe a possibilidade de mudança. Contudo, para que haja uma mudança nas atitudes em relação à estatística, transformando-as em atitudes positivas, é necessário que o professor esteja motivado para aplicar estratégias estimulantes. No momento em que o aluno começa a perceber que está entendendo o conteúdo e está encontrando aplicação no seu cotidiano acadêmico e pessoal, é possível, então, se efetivar essa mudança de atitudes. Nesse contexto, conhecer as atitudes em relação à estatística no início da disciplina pode orientar o professor sobre as estratégias de ensino que possam desenvolver atitudes positivas ou modificar as atitudes negativas. Saber se o aluno transfere as atitudes negativas em relação à matemática para a estatística pode ser um indicador para o professor sobre a intensidade com que a matemática pode ser abordada na disciplina estatística e vice e versa. 9 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 2 A EVOLUÇÃO HISTORICA E EPISTEMOLÓGICA DA ESTATISTICA 2.1 Epistemologia A palavra estatística, derivada do termo latino “status” (estado) e, parece ter sido introduzida na Alemanha, em 1748, por Achenwall. Atualmente, a Estatística é encarada como uma ciência capaz de obter, sintetizar, prever e tirar inferências sobre dados. Contudo, na Inglaterra do século XVII, a estatística era a “Aritmética do Estado” (Political Arithmetic), consistindo basicamente na análise dos registros de nascimentos e mortes, originando mais tarde as primeiras tábuas de mortalidade. Antes, porém, durante a Idade Média e, até meados do século XVIII, a estatística foi puramente descritiva, coexistindo duas escolas: a escola descritiva alemã, cujo representante mais conhecido é o economistaG. Achenwall (17191772), professor na Universidade de Gottingen, considerado pelos alemães como o pai da estatística, e a escola dos matemáticos sociais, que procuravam traduzir por leis, a regularidade observada de certos fenômenos de caráter econômico e sociológico. Embora esta escola procurasse fundamentar a formulação de previsões com base em leis sugeridas pela experiência, a estatística confundia-se, praticamente, com a demografia à qual fornecia métodos sistemáticos de enumeração e organização. Em sendo, podemos afirmar que, a necessidade sentida, em todas as épocas, de conhecer, numérica e quantitativamente, a realidade política e social tornou a análise demográfica uma preocupação constante. No entanto, para adquirir o estatuto de disciplina científica e não, puramente, ideográfica ou descritiva, a Estatística teve que esperar pelo desenvolvimento do cálculo das probabilidades, que viria a fornecer-lhe a linguagem e o aparelho conceitual, permitindo a formulação de conclusões com base em regras indutivas. Contudo, data do século XVII, o início do estudo sistemático dos problemas ligados aos fenômenos aleatórios, começando a ser manifestada, nesse momento, a necessidade de instrumentos matemáticos, aptos a analisar estes tipos de fenômenos, em todas as ciências que põem o problema do tratamento e interpretação de um grande número de dados. 10 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Contudo, alguns estudos comprovam que o desenvolvimento da estatística matemática e suas aplicações, deveu-se a F. Galton (1822-1911), K. Pearson (18571936) e W. S. Gosset (1876-1936), conhecido sob o pseudônimo de Student, sendo lícito afirmar-se que a introdução sistemática dos métodos estatísticos na investigação experimental se fica a dever, fundamentalmente, aos trabalhos de K. Pearson e R. A. Fisher (1890-1962). A partir de Pearson e Fisher o desenvolvimento da estatística matemática, por um lado, e dos métodos estatísticos aplicados, por outro, têm sido tal que é praticamente impossível referir nomes. Tudo isso ocorreu, então, no final do século XIX. Todavia, de acordo com publicações do site da UFRGS (http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatistica) a origem da palavra Estatística estaria, de fato, associada à palavra latina status (Estado). Porém, no mesmo endereço, constam que existam indícios de que 3000 anos a.C. já se faziam censos na Babilônia, China e Egito. Além disso, o próprio Imperador romano, César Augusto, por exemplo, teria ordenado que se fizesse o Censo de todo o Império. A palavra “censo”, então, é derivada da palavra “censere”, que em Latim significa “taxar”. Em 1085, Guilherme, o Conquistador, solicitou um levantamento estatístico da Inglaterra, que deveria conter informações sobre terras, proprietários, uso da terra, empregados e animais. Os resultados deste Censo foram publicados em 1086 no livro intitulado “Domesday Book” e serviram de base para o cálculo de impostos. Contudo, mesmo que a prática de coletar dados sobre colheitas, composição da população humana ou de animais, impostos, etc., fosse conhecida pelos egípcios, caldeus e gregos e, se atribuam a Aristóteles, cento e oitenta descrições de Estados, apenas no século XVII a Estatística passou a ser considerada disciplina autônoma, tendo como objetivo básico a descrição dos bens do Estado. A palavra Estatística foi cunhada pelo acadêmico alemão Gottfried Achenwall (1719-1772), que foi um notável continuador dos estudos de Hermann Conrig (16061681). A escola alemã atingiu sua maturidade com A. L. von Schlozer (1735- 1809), mas sempre com ideias diferentes daquelas que fundamentaram a Estatística Moderna. Com algum exagero, pode-se dizer que o seu principal legado foi o termo 11 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 “STAATENKUNDE”, que deu origem à designação atual. Na Enciclopédia Britânica, o verbete “STATISTICS” apareceu em 1797. 2.2 Desenvolvimento Histórico Em contraposição à natureza eminentemente qualitativa da escola alemã, na Inglaterra do século XVII surgiram os aritméticos políticos, dentre os quais destacaram-se John Graunt (1620-1674) e William Petty (1623-1687). Eles preocuparam-se com o estudo numérico dos fenômenos sociais e políticos, na busca de leis quantitativas que pudessem explicá-los. O estudo consistia essencialmente de exaustivas análises de nascimentos e mortes, realizadas através das Tábuas de Mortalidade, que deram origem às atuais Tábuas de Mortalidade usadas pelas companhias de seguros. Um dos resultados mais importantes foi a constatação de que o percentual de nascimento de crianças do sexo masculino (51%) é levemente superior ao do sexo feminino (49%). Dessa forma, a escola dos aritméticos políticos pode ser considerada o berço da Demografia. Um de seus mais notáveis adeptos foi o pastor alemão Sussmilch (1707-1767), com o qual pode-se dizer que a Estatística aparece pela primeira vez como meio indutivo de investigação. Na última metade do século XIX, os alemães Helmert (1843-1917) e Wilhelm Lexis (1837-1914), o dinamarquês Thorvald Nicolai Thiele (1838-1910) e o inglês Francis Ysidro Edgeworth (1845-1926), obtiveram resultados extremamente valiosos para o desenvolvimento da Inferência Estatística, muitos dos quais só foram completamente compreendidos mais tarde. Contudo, o impulso decisivo deve-se a Karl Pearson (1857-1936), William S. Gosset (1876-1937) e, em especial, a Ronald A. Fisher (1890-1962). Karl Pearson (1857-1936) formou-se em 1879 pela Cambridge University e inicialmente dedicou-se ao estudo da evolução de Darwin, aplicando os métodos estatísticos aos problemas biológicos relacionados com a evolução e hereditariedade. Em 1896, Pearson foi eleito membro da Royal Society of London. Entre 1893 e 1912 escreveu um conjunto de 18 artigos denominado Mathematical Contribution to the Theory Evolution, com contribuições extremamente importantes para o desenvolvimento da teoria da Análise de Regressão e do Coeficiente de Correlação, bem como do teste de hipóteses de qui-quadrado. Em sua 12 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 maioria, seus trabalhos foram publicados na revista Biometrika, que fundou em parceria com Walter Frank Raphael Weldon (1860-1906) e Francis Galton (18221911). Além da valiosa contribuição que deu para a teoria da regressão e da correlação, Pearson fez com que a Estatística fosse reconhecida como uma disciplina autônoma. Uma coleção de seus artigos foi publicada em “Karl Pearson Early Statistical Papers” (Ed. por E. S. Pearson, Cambridge University Press, 1948). Para ver uma relação de alguns trabalhos publicados por Karl Pearson William Sealey Gosset (1876-1937) estudou Química e Matemática na New College Oxford. Em 1899 foi contratado como Químico da Cervejaria Guiness em Dublin, desenvolvendo um trabalho extremamente importante na área de Estatística. Devido à necessidade de manipular dados provenientes de pequenas amostras, extraídas para melhorar a qualidade da cerveja, Gosset derivou o teste t de Student baseado na distribuição de probabilidades. Esses resultados foram publicados em 1908 na revista Biometrika, sob o pseudônimo de Student, dando origem a uma nova e importante fase dos estudos estatísticos. Gosset usava o pseudônimo de Student, pois a Cervejaria Guiness não desejava revelar aos concorrentes os métodos estatísticos que estava empregando no controle de qualidade da cerveja. Os estudos de Gosset podem ser encontrados em “Student Collected Papers” (Ed. por E.S.Pearson e J. Wishart, University College, Londres, 1942). Para ver uma relação de alguns trabalhos publicados por Gosset, clique neste link de referências bibliográficas. A contribuição de RonaldAylmer Fisher (1890-1962) para a Estatística Moderna é, sem dúvidas, a mais importante e decisiva de todas. Formado em astronomia pela Universidade de Cambridge em 1912, foi o fundador do célebre Statistical Laboratory da prestigiosa Estação Agronômica de Rothamsted, contribuindo enormemente tanto para o desenvolvimento da Estatística quanto da Genética. Ele apresentou os princípios de planejamento de experimentos, introduzindo os conceitos de aleatorização e da Análise da Variância, procedimentos muito usados atualmente. No princípio dos anos 20, estabeleceu o que a maioria aceita como a estrutura da moderna Estatística Analítica, através do conceito da verossimilhança (likelihood, em inglês). O seu livro intitulado “Statistical Methods for Research Workers”, publicado pela primeira vez em 1925, foi extremamente importante para familiarizar os 13 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 investigadores com as aplicações práticas dos métodos estatísticos e, também, para criar a mentalidade estatística entre a nova geração de cientistas. Os trabalhos de Fisher encontram-se dispersos em numerosas revistas, mas suas contribuições mais importantes foram reunidas em “Contributions to Mathematical Statistics” (J. Wiley & Sons, Inc., Nova Iorque, 1950). Fisher foi eleito membro da Royal Society em 1929 e condecorado com as medalhas Royal Medal of the Society e Darwin Medal of the Society em 1938 e em 1948, respectivamente. Em 1955 foi novamente condecorado, desta vez com a medalha Copley Medal of the Royal Society. Outra área de investigação extremamente importante para o desenvolvimento da Estatística é a Teoria das Probabilidades. Usualmente, costuma-se atribuir a origem do Cálculo de Probabilidades às questões relacionadas aos jogos de azar que o célebre cavaleiro Méré (1607-1684) encaminhou à Blaise Pascal (1623-1662). No entanto, outros autores sustentam que o Cálculo de Probabilidades teve a sua origem na Itália, com especial referência para Luca Pacioli (1445-1517), Girolamo Cardano (1501-1576), Nicolo Fontana Tartaglia (1500-1557) e Galileo Galilei (1564- 1642). Três anos depois de Pascal ter previsto que a “aliança do rigor geométrico” com a “incerteza do azar” daria lugar a uma nova ciência, Christiaan Huygens (16291695) publicou o trabalho denominado “De Raciociciis in Ludo Aleae”, que é considerado o primeiro livro sobre o Cálculo de Probabilidades. Além disso, ainda teve a notável particularidade de introduzir o conceito de esperança matemática. Gottfried Wilhelm von Leibniz (1646-1716) também dedicou-se ao estudo do Cálculo de Probabilidades, publicando um trabalho sobre a “arte combinatória” e outro sobre aplicações às questões financeiras. Leibniz também estimulou Jacques Bernoulli (1654-1705) ao estudo do Cálculo de Probabilidades, cuja grande obra, denominada “Ars Conjectandi”, foi publicada oito anos após a sua morte. Em Ars Conjectandi de Jacques Bernoulli, foi publicada e rigorosamente provada a Lei dos Grandes Números de Bernoulli, considerada o primeiro teorema limite. Pode-se dizer que graças às contribuições de Bernoulli o Cálculo de Probabilidades adquiriu o status de ciência. 14 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Além da obra póstuma de Bernoulli, o início do século XVII foi marcado pelos livros de Pierre Rémond de Montmort (1678-1719), denominado “Essai d'Analyse sur les Jeux de Hazard”, e de Abraham De Moivre (1667-1754), intitulado The Doctrine of Chances. De Moivre era Francês de nascimento, mas desde a sua infância refugiou-se na Inglaterra devido às guerras religiosas, fazendo aplicações ao cálculo de anuidades e estabelecendo uma equação simples para a lei da mortalidade entre 22 anos e o limite da longevidade que fixou em 86 anos. Mais tarde, na “Miscellanea Analytica”, apresentou resultados aos quais Laplace deu uma forma mais geral e que constituem o segundo teorema limite. É extremamente importante falar, também, do reverendo Thomas Bayes (1702- 1761) a quem se deve o conceito de probabilidade inversa, relacionado com situações em que se caminha do particular para o geral. No seu livro denominado “Essay towards solving a problem of the doctrine of chances” (Philosophical Transactions of the Royal Society of London, 1764-65, póstumo), Bayes formula através do teorema que leva seu nome e do postulado que tantas vezes se lhe associa: a primeira tentativa de matematização da inferência Estatística. Mesmo sem ter publicado nenhum trabalho com seu nome, em 1742, Thomas Bayes foi eleito membro da Royal Society of London. Os estudos dos astrônomos Pierre-Simon Laplace (1749-1827), Johann Carl Friedrich Gauss (1777-1855) e Lambert Adolphe Jacques Quetelet (1796-1874) foram fundamentais para o desenvolvimento do Cálculo de Probabilidades. Devido aos novos métodos e ideias, o trabalho de Laplace de 1812, intitulado “Théorie Analytique des Probabilités”, até o presente é considerado um dos mais importantes trabalhos sobre a matéria. Johann Carl Friedrich Gauss, professor de astronomia e diretor do Observatório de Gottingen, em 1809 apresentou o estudo intitulado “Theoria combinationis Observatorium Erroribus Minimis Obnoxia”, explanando uma teoria sobre a análise de observações aplicável a qualquer ramo da ciência, alargando o campo de aplicação do Cálculo de Probabilidades. Com Lambert Adolphe Jacques Quetelet, por sua vez, inicia-se a aplicação aos fenômenos sociais. O seu escrito “Sur l'homme et le développement de ses facultés” 15 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 foi publicado em segunda edição com o título “Physique sociale ou Essai sur le développement des facultés de l'homme”, que incluía pormenorizada análise da teoria da probabilidade. Quetelet introduziu também o conceito de “homem médio” e chamou particular atenção para a notável consistência dos fenômenos sociais. Por exemplo, mostrou que fatores como a criminalidade apresentam permanências em relação a diferentes países e classes sociais. Antoine Augustin Cournot (1801-1877) percebeu a importância da Teoria das probabilidades na análise estatística, tendo sido o pioneiro no tratamento matemático dos fenômenos econômicos. Suas ideias foram publicadas em “Exposition de la théorie des chances et des probabilités”. Na segunda metade do século XIX a Teoria das Probabilidades atingiu um dos pontos mais altos com os trabalhos da escola russa fundada por Pafnuty Lvovich Chebyshev (1821-1894), que contou com representantes como Andrei Andreyevich Markov (1856-1922) e Aleksandr Mikhailovich Lyapunov (1857-1918). Contudo, o seu maior expoente foi Andrey Nikolayevich Kolmogorov (19031987), a quem se deve um estudo indispensável sobre os fundamentos da Teoria das Probabilidades, denominado “Grundbegrife der Warscheinlichkeitrechnung”, publicado em 1933. Em 1950 foi traduzido para o Inglês sob o título “Foundations of Probability”. (Texto transcrito, integralmente do site da UFRGS, http://paginas.ufrgs.br/mat/graduacao/estatistica/historia-da-estatistica, 2011). Outrossim, de acordo com a biblioteca aberta Wikipédia (http://pt.wikipedia.org/wiki/Estatistica), o termo estatística surge da expressão em latim statisticum collegium ( palestra sobre os assuntos do Estado), de onde surgiu a palavra em língua italiana statista, que significa “homem de estado”, ou político, e a palavra alemã Statistik, designando a análise de dados sobre o Estado. A palavra foi proposta pela primeira vez no século XVII, em latim, por Schmeitzel na Universidade de Jena e adotada pelo acadêmico alemão Godofredo Achenwall. Aparece como vocabulário na Enciclopédia Britânica em 1797, e adquiriu um significado de coleta e classificação de dados, no início do século 19. Já em outrapágina do mesmo site, referente à História da Estatística (http://pt.wikipedia.org/wiki/Historia_da_estatistica), podemos ler que, as primeiras 16 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 aplicações da estatística estavam voltadas para as necessidades de Estado, na formulação de políticas públicas, fornecendo dados demográficos e econômicos à administração pública. A abrangência da estatística aumentou no começo do século XIX para incluir a acumulação e análise de dados de maneira geral. Hoje, a estatística é largamente aplicada nas ciências naturais, e sociais, inclusive na administração pública e privada. Seus fundamentos matemáticos foram postos no século XVII com o desenvolvimento da teoria das probabilidades por Pascal e Fermat, que surgiu com o estudo dos jogos de azar. O método dos mínimos quadrados foi descrito pela primeira vez por Carl Friedrich Gauss cerca de 1794. O uso de computadores modernos tem permitido a computação de dados estatísticos em larga escala e também tornaram possível novos métodos antes impraticáveis. Nesta página, afirma-se que o termo estatística deriva do neolatim statisticum collegium (“conselho de Estado”) e do Italiano statista (“estadista” ou “polític”). O alemão Statistik, introduzido pela primeira vez por Gottfried Achenwall (1749), designava originalmente a análise de dados sobre o Estado, significando a “ciência do Estado” (então chamada aritmética política (political arithmetic) em inglês). A palavra adquiriu o significado de coleta e classificação de dados em geral através de Sir John Sinclair. Assim, o propósito original da Statistik era fornecer os dados a serem usados pelo governo e outras organizações. A coleta de dados sobre estados e localidades continua, em grande parte através de órgãos estatísticos nacionais e internacionais. Em particular, os censos fornecem informação regular sobre as populações. Os métodos matemáticos da estatística emergiram da teoria das probabilidades, que remonta à correspondência entre Pierre de Fermat e Blaise Pascal (1654). Christiaan Huygens (1657) deu o tratamento científico mais antigo que se conhece sobre o assunto. A obra póstuma Ars Conjectandi (1713) de Jakob Bernoulli e Abraham de Moivre, The Doctrine of Chances (1718) tratou o assunto como um ramo da matemática. Na era moderna, a obra de Kolmogorov tem sido útil na formulação dos modelos fundamentais da teoria das probabilidades, imprescindíveis à estatística. A teoria dos erros remonta à obra póstuma Opera Miscellanea (1722) de Roger Cotes, mas uma edição de memórias preparada por Thomas Simpson em 1755 17 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 (impressa em 1756) aplicou pela primeira vez a teoria à discussão dos erros na observação. A reimpressão (de 1757) dessas memórias estabelece o axioma de que erros positivos e negativos são igualmente prováveis, e que existem certos limites dentro dos quais todos os erros irão ocorrer; erros contínuos são discutidos e é fornecida uma curva de probabilidades. Pierre-Simon Laplace (1774) fez a primeira tentativa de deduzir a regra para a combinação de observações dos princípios da teoria das probabilidades. Ele representou a lei das probabilidades dos erros através de uma curva. Ele deduziu uma fórmula para a média de três observações. Ele também deu (em 1781) uma fórmula para a lei de 'facilidade de erro' (um termo devido a Joseph Louis Lagrange, 1774), mas que levou a equações não tratáveis. Daniel Bernoulli (1778) introduziu o princípio do produto máximo de probabilidade de um sistema de erros concorrentes. O método dos mínimos quadrados, que foi usado para minimizar erros na medição de dados, foi publicado independentemente por Adrien-Marie Legendre (1805), Robert Adrain (1808) e Carl Friedrich Gauss (1809). Gauss usou o método na sua famosa predição de onde se localizava o planeta anão Ceres. Outras provas foram dadas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856), John Herschel (1850) e Morgan Crofton (1870). Outros que contribuíram foram Ellis (1844), De Morgan (1864), Glaisher (1872) e Giovanni Schiaparelli (1875). A fórmula de Peters (1856) para r, o erro provável de uma única observação, é bastante conhecida. No século XIX, autores que trataram da teoria geral incluem Laplace, Sylvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion e Karl Pearson. Augustus De Morgan e George Boole fizeram melhorias na apresentação da teoria. Adolphe Quetelet (1796-1874), outro importante fundador da estatística, introduziu a noção de “homem médio” (l'homme moyen) como um meio de compreender fenômenos sociais complexos como taxas de criminalidade, de casamento e de suicídio. Durante o século XX, a criação de instrumentos precisos para a agronomia, saúde pública (epidemiologia, bioestatística, etc.), controle de qualidade industrial e 18 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 propósitos econômicos e sociais (taxa de desemprego, econometria, etc.) necessitavam avanços substanciais nas práticas estatísticas. Hoje, a utilização da estatística se expandiu para muito além das suas origens. Indivíduos e organizações usam a estatística para compreender dados e fazer decisões bem-informadas nas ciências naturais e sociais, na medicina, nos negócios e em outras áreas. A estatística é geralmente tida não como um ramo da matemática, mas como uma área distinta, ainda que intimamente relacionada. Muitas universidades mantêm departamentos separados de matemática e estatística. De acordo com a Revista do Instituto Internacional de Estatística, “Cinco homens, Hermann Conring, Gottfried Achenwall, Johann Peter Süssmilch, John Graunt e William Petty já receberam a honra de serem chamados de fundadores da estatística, por diferentes autores”. Alguns autores dizem que é comum encontrar como marco inicial da estatística a publicação do “Observations on the Bills of Mortality” (Observações sobre os Sensos de Mortalidade, 1662) de John Graunt. As primeiras aplicações do pensamento estatístico estavam voltadas para as necessidades de Estado, na formulação de políticas públicas, fornecendo dados demográficos e econômicos. A abrangência da estatística aumentou no começo do século XIX para incluir a acumulação e análise de dados de maneira geral. Hoje, a estatística é largamente aplicada nas ciências naturais, e sociais, inclusive na administração pública e privada. Seus fundamentos matemáticos foram postos no século XVII com o desenvolvimento da teoria das probabilidades por Pascal e Fermat, que surgiu com o estudo dos jogos de azar. O método dos mínimos quadrados foi descrito pela primeira vez por Carl Friedrich Gauss por volta de 1794. O uso de computadores modernos tem permitido a computação de dados estatísticos em larga escala e também tornaram possível novos métodos antes impraticáveis. A estatística não é uma ferramenta matemática que nos informa sobre o quanto de erros nossas observações apresentam sobre a realidade pesquisada. A estatística baseia-se na medição do erro que existe entre a estimativa de quanto uma amostra representa adequadamente a população da qual foi extraída. Assim o conhecimento de teoria de conjuntos, análise combinatória e cálculo são indispensáveis para 19 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 compreender como o erro se comporta e a magnitude do mesmo. É o erro (erro amostral) que define a qualidade da observação e do delineamento experimental. A faceta dessa ferramenta mais palpável é a estatística descritiva. A descrição dos dados coletados é comumente apresentado emgráficos ou relatórios e serve tanto a prospecção de uma ou mais variáveis para posterior aplicação ou não de testes estatísticos bem como a apresentação de resultados de delineamentos experimentais. Nós descrevemos o nosso conhecimento (e) de forma matemática e tentamos aprender mais sobre aquilo que podemos observar. Isto requer: O planejamento das observações por forma a controlar a sua variabilidade (concepção do experimento); Sumarização da coleção de observações; Inferência estatística - obter um consenso sobre o que as observações nos dizem sobre o mundo que observamos. Em algumas formas de estatística descritiva, nomeadamente mineração de dados (data mining), os segundo e terceiro passos tornam-se normalmente mais importantes que o primeiro. A probabilidade de um evento é frequentemente definida como um número entre zero e um. Na realidade, porém, nunca há situações que tenham probabilidades 0 ou 1. Você pode dizer que, por indução, o sol irá certamente nascer amanhã, mas, e se acontecer um evento extremamente improvável que o destrua? Normalmente aproximamos a probabilidade de alguma coisa para cima ou para baixo porque elas são tão prováveis ou improváveis de ocorrer, que é fácil de reconhecê-las como probabilidade de um ou zero. Entretanto, isso pode levar a desentendimentos e comportamentos perigosos, porque é difícil distinguir entre uma probabilidade de 10−4 e uma de 10−9, a despeito da grande diferença numérica entre elas. Por exemplo, se você espera atravessar uma estrada 105 ou 106 vezes na sua vida, definir o risco de atravessá-la em 10−9 significa que você está bem seguro pelo resto da sua vida. Entretanto, um risco de 10−4 significa que é bem provável que você tenha um acidente, mesmo que intuitivamente um risco de 0,01% pareça muito baixo. Portanto, como pudemos observar, existem muitas controvérsias e algumas unanimidades, no que tange ao surgimento e desenvolvimento da Estatística. 20 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Não obstante, não há controvérsias quanto à sua importância para a nossa vida acadêmica, profissional e pessoal. Vejamos então, os diversos tipos de Estatísticas e suas aplicações. 2.3 Os Tipos de Estatística A prática da Estatística sofreu enorme mudança com o crescimento e desenvolvimento dos computadores e de todas as suas possibilidades, principalmente, a partir da segunda metade do século XX. Os modelos estatísticos mais antigos eram quase sempre lineares, mas os computadores modernos, junto com algoritmos numéricos apropriados, causaram um aumento do interesse nos modelos não lineares (especialmente redes neurais e árvores de decisão) assim como na criação de novos tipos, como o modelo linear generalizado e o modelo multi-nível. 2.3.1 Estatística computacional O aumento na capacidade de computação também tem levado à popularização de métodos, que demandam muitos cálculos, baseados em reamostragem (em inglês e no jargão do meio resamplin), como testes de permutação e bootstrap, enquanto técnicas como a amostragem de Gibbs tem feito com que os métodos de Bayes fiquem mais fáceis. A revolução informática também tem levado a um aumento na ênfase na estatística “experimental” e “empírica”. Um grande número de softwares estatísticos, de uso geral e outros de uso específico, estão disponíveis no mercado. Sobre esse tema, podemos encontrar vasto material para consulta, análise e pesquisa para o seu Trabalho de Conclusão de Curso, nos seguintes endereços e, os seguintes resumos podem ser lidos, a princípio, como uma amostra do que vem sendo produzido e publicado sobre a Estatística computacional. R é confiável para estatística computacional? Outras Ciências Exatas e da Terra Estatística Computacional 21 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Autor(es) e Instituição: Marcelo G. Almiron, Departamento de Ciência da Computação - UFMG Eliana S. Almeida, Instituto de Computação - UFAL Antonio C. Medeiros, Laboratório de Computação Científica e Visualização - UFAL Alejandro C. Frery, Instituto de Computação - UFAL Este trabalho avalia a precisão numérica da plataforma R em duas arquiteturas de processador (i386 e amd386), rodando sistemas operacionais Microsoft Windows 7, GNU/Linux Ubuntu 9.10 e MAC OS X Leopard (este último apenas em i386). A avaliação consiste em calcular os valores da média, do desvio padrão, da correlação de primeira ordem e o estatístico F de ANOVA, empregando conjuntos de dados com comportamento conhecidamente problemático. Os valores reportados por R são contrastados com outros certificados, e o número de dígitos significativos corretos é informado para cada situação. Com exceção de uma situação onde R é incapaz de produzir resultados aceitáveis, esta plataforma se mostra precisa e portável, duas propriedades essenciais em estatística computacional. Reconstrução de sinais em Redes de Sensores sem Fios com técnicas de geoestatística Inferência Estatística Ciências Exatas e da Terra Estatística Computacional Autor(es) e Instituição: Bruno Lopes - Universidade Federal de Alagoas As Redes de Sensores sem Fios (RSsF) são conjuntos de dispositivos que obtêm amostras de fenômenos ambientais, sejam eles naturais (como, por exemplo, temperatura, pressão atmosférica, intensidade de iluminação, concentração de substâncias em cursos d’água) ou antrópicos (qualidade do ar em sinais de trânsito, pressão ao longo de um oleoduto). Esses dispositivos têm despertado muito interesse, tanto pelas suas potenciais aplicações quanto pelos desafios teóricos e tecnológicos que seu uso otimizado oferece. O objetivo deste trabalho trata da análise da 22 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 reconstrução de sinais nessas redes, com base em técnicas de geoestatística. Analisam-se três processos de kriging: simples (três variantes), ordinário e bayesiano (duas variantes). Leva-se em consideração o processo de agrupamento dos nós sensores, com simulações sem agrupamento e com os sensores agrupados pelos algoritmos LEACH e SKATER. O algoritmo de kriging bayesiano apresenta os melhores resultados qualitativos na maioria dos casos, mas se torna inviável para sistemas que necessitem de respostas rápidas. Nesses casos, recomenda-se o algoritmo de kriging ordinário. Autenticação Pessoal Baseada na Análise da Dinâmica da Digitação por Métodos Estatísticos Outras Ciências Exatas e da Terra Estatística Computacional Autor(es) e Instituição: Leonardo José Tenório Mourão Torres - UFAL Ricardo Rubens G. Nunes Filho - IFAL Fabiano S. Brião - UFAL Rian Gabriel S. Pinheiro - UFAL Alejandro C. Frery - UFAL Este trabalho apresenta resultados de autenticação biométrica via Dinâmica da Digitação na Web, onde pretende-se identificar uma pessoa pelo seu ritmo habitual de digitar uma senha em um teclado convencional usando métodos estatísticos. Os resultados mostram que o uso da Dinâmica da Digitação é simples e eficiente para autenticação pessoal, obtendo melhores resultados usando quinze amostras por Modelo com taxas de falsa rejeição de 4,26% e de falsa aceitação de 1,80%. Estas taxas de erros são aceitáveis, visto que um usuário impostor que conheça a informação alvo de um usuário autêntico terá acesso às informações como: contas bancárias, cartões de créditos, e aplicações industriais, dentre outras. 23 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Modelo multidimensional de resposta ao item: estimação bayesiana e MCMC Análise Multivariada Ciências Sociais Aplicadas Estatística Computacional Autor(es) e Instituição: Patrícia Costa - Universidade do Minho - PortugalTufi Soares - Universidade Federal de Juiz de Fora Maria Eugénia Ferrão - Universidade da Beira Interior - Portugal Pedro Oliveira - Universidade do Minho - Portugal Este trabalho tem como propósito a obtenção das estimativas dos parâmetros dos itens e dos fatores latentes do modelo da Teoria de Resposta ao Item multidimensional logístico de dois parâmetros conjugando a estimação bayesiana com o uso de métodos de simulação Markov Chain Monte Carlo. Em particular, usase o algoritmo de Metropolis-Hastings com passos de Gibbs. Todas as etapas do algoritmo e respectiva fundamentação matemática apresentam-se e ilustram-se com recurso a computação desenvolvida em Matlab. Para testar o algoritmo proposto utilizam-se dados simulados, considerando que o fator latente afere 2 e 3 dimensões. Usa-se o critério de informação AIC para identificar o número de fatores que melhor se ajusta aos dados. Para comparar as estimativas dos parâmetros obtidas pela aplicação do modelo com os valores verdadeiros utilizam-se as estatísticas: correlação de Pearson, Erro Absoluto Médio e Erro Quadrático Médio. Uso do Teste de Aleatorização na Análise das Séries Temporais Séries Temporais, Econometria e Finanças Ciências Agrárias Estatística Computacional Autor(es) e Instituição: Aline Palafoz Pereira - Aluna do curso de Estatística da UFBA 24 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Denise Nunes Viola - Professora do Departamento de Estatística da UFBA Gilênio Borges Fernandes - Professor do Departamento de Estatística da UFBA Muitas vezes o pesquisador tem interesse em saber se existe tendência em uma série temporal. Uma maneira de verificar essa tendência é através dos mínimos quadrados, mas nem sempre os dados apresentam os pressupostos para utilizar esta técnica. Quando os pressupostos não são atendidos, uma alternativa é verificar a tendência através do teste de aleatorização, que indica se existe ou não algum padrão nos os dados. Para rejeitar a hipótese nula usamos o p-valor que é calculado a partir da proporção de vezes que a estatística de teste após a aleatorização é maior que a estatística obtida com os dados originais. Se o p-valor for menor que o nível de significância, rejeita-se a hipótese nula. Para ilustrar este teste foi feito um experimento ao longo de um mês com o objetivo de verificar se existe tendência no crescimento da planta. Após 10.000 aleatorizações, verificou-se que p-valor=0,023, logo, rejeita-se a hipótese nula, portanto, existe tendência na série. Uso do teste de aleatorização para comparar dois grupos considerando teste não paramétrico Estatística Não-Paramétrica Ciências Agrárias Estatística Computacional Autor(es) e Instituição: Jurandir Prazeres Filho - Aluno de graduação em Estatística, UFBA / Bolsista de Iniciação Científica - CNPq Denise Nunes Viola - Professora do Departamento de Estatística, UFBA Gilênio Borges Fernandes - Professor do Departamento de Estatística, UFBA Muitas vezes o pesquisador está interessado em comparar médias ou a forma da distribuição de dois grupos. Uma maneira para compará-los seria aplicando testes paramétricos, tais como o Teste T ou Teste Z (no caso de duas amostras independentes) ou o Teste T pareado. Porém, tais testes apresentam certas 25 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 exigências que frequentemente podem não ser atendidas. Neste caso, é indicada a utilização de testes não paramétricos ou o teste de aleatorização. Este teste é baseado na suposição de que, se a hipótese nula é verdadeira, todas as possíveis ordens dos dados são igualmente prováveis. O teste de aleatorização é um procedimento em que se comparam valores de uma estatística observada para os dados no arranjo original com os valores desta estatística após a aleatorização das observações. A regra de decisão é baseada no p-valor - proporção de vezes em que a estatística de teste com os aleatorizados é maior ou igual a estatística de teste com os dados do arranjo original. Se o p-valor for menor que o nível de significância, rejeita-se Ho. É importante escolher adequadamente a estatística de teste e como neste estudo foram comparadas as médias de duas amostras independentes e pequenas e as exigências para o uso de testes paramétricos não foram atendidas, a estatística utilizada foi a do teste não paramétrico Wilcoxon-Mann-Whitney. Dentre as vantagens em se utilizar o teste de aleatorização, destaca-se o uso em amostras não aleatórias e/ou amostras pequenas, porém seu resultado não pode ser generalizado para a população. Observa-se ainda que o teste de aleatorização não apresenta tantas exigências quanto os métodos convencionais. Para ilustração deste teste foi utilizado um conjunto de dados de plantas de milho, em que as variáveis estudadas foram as alturas das plantas. Essas alturas foram medidas no vigésimo dia após sua germinação. Foram cultivadas quatro plantas à sombra e cinco ao sol e o objetivo foi verificar se o ambiente à sombra ou ao sol influencia em seu crescimento. Após a aplicação do teste de aleatorização considerando a estatística do teste de Wilcoxon-Mann-Whitney e 10.000 aleatorizações obteve-se pvalor=0,9666. Como este valor é maior que o nível de significância (alfa=0,05), então não há evidências suficientes para rejeitar Ho, ou seja, as amostras são provenientes da mesma população, o que equivale a afirmar que há evidencias de que o ambiente não influencia no crescimento das plantas. Aperfeiçoamento De Procedimentos Estatísticos Para Avaliação Institucional Online: Implantação De Relatórios Armazenáveis Outras Ciências Sociais Aplicadas Estatística Computacional 26 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Autor(es) e Instituição: Marina Pasquali Marconato Mancini – CER, DEs, UFSCar Anderson Luiz Ara-Souza – CER, DEs, UFSCar Francisco Louzada Neto – CER, DEs, UFSCar O princípio de qualidade e desenvolvimento de qualquer instituição está intrinsecamente ligado à prática constante de avaliação da mesma e tomada de decisões diante dos resultados obtidos. Considerando especialmente Instituições de Ensino Superior, geradoras nacionais de conhecimento, a prática da avaliação deve ser prioridade a fim de garantir a formação de profissionais qualificados. Nesse contexto, e considerando a carência de metodologias desenvolvidas para a avaliação interna das instituições, esse trabalho tem por objetivo aperfeiçoar a metodologia do Sistema online de Avaliação (Louzada-Neto & Ara-Souza, 2010) ao apresentar uma forma de implantação de relatórios de análise em formato PDF. A maior vantagem no que diz respeito a esse formato está em garantir a integridade e em evitar a manipulação das informações apresentadas. Além disso, as estatísticas realizadas poderão ser expostas de forma rápida, íntegra e contínua em qualquer navegador ou sistema operacional. É primordial a escolha de sistemas operacionais de fácil acesso e baixo custo, garantindo sua implantação em qualquer Instituição de Ensino e a acessibilidade da metodologia sistemática de autoavaliação proposta. Estimação de máxima verossimilhança do modelo de regressão Poisson Generalizado Inflacionado de Zeros Modelos Lineares, MLG e outros modelos não-lineares Teoria Estatística Computacional Autor(es) e Instituição: Flávia Maria Ravagnani Neves Cintra, ICMC-USP / Faag Marinho Gomes de Andrade Filho, ICMC-USP Mário de Castro Andrade Filho, ICMC-USP 27 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 O modelo de regressão Poisson Generalizado foi proposto por Famoye et al. (2004) para ajustar dados em que a variância amostral é maior (ou menor) que a médiaamostral e o modelo de regressão Poisson Generalizado Inflacionado de zeros (ZIGP), abordado em Famoye & Singh (2006) e Czado et al. (2007), foi proposto para ajustar dados com superdispersão (ou subdispersão) e inflacionados de zeros, ou seja dados com ocorrência de zeros maior que o esperado no modelo Poisson Generalizado. Como a distribuição ZIGP não pertence à família exponencial, o modelo de regressão não é um modelo linear generalizado (MLG). Portanto, os resultados assintóticos válidos para um MLG não se aplicam para a regressão ZIGP. Através de simulações vamos verificar que o estimador de máxima verossimilhança no modelo ZIGP é assintoticamente normal. A regra dos três números para o cálculo de uma medida de correlação robusta Análise Exploratória de Dados Teoria Estatística Computacional Autor(es) e Instituição: Gustavo H. Esteves, Departamento de Estatística - Centro de Ciências e Tecnologia - Universidade Estadual da Paraíba Diana Maia, Departamento de Estatística - Centro de Ciências e Tecnologia - Universidade Estadual da Paraíba Um dos problemas mais comuns na Estatística é o cálculo de uma medida de correlação robusta, isto é, uma medida que não seja influenciada por pontos discrepantes (outliers) presentes no conjunto de dados. Neste trabalho é apresentado um método, baseado na técnica de leave one out da teoria de discriminadores lineares, que ataca este problema e define uma regra, chamada aqui de regra dos três números, que usa a informação do mínimo, da média (ou mediana) e do máximo entre n valores de correlação linear de Pearson, onde n é o número de observações da amostra, para estimar um valor de correlação robusto. 28 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Critérios De Informação De Akaike Versus Bayesiano: Análise Comparativa Séries Temporais, Econometria e Finanças Ciências Exatas e da Terra Estatística Computacional Autor(es) e Instituição: Paulo César Emiliano - UFLA Elayne Penha Veiga - UFLA Mário Javier Ferrua Vivanco - UFLA Fortunato Silva de Menezes - UFLA Um modelo é a representação simplificada de algum problema ou situação da vida real destinado a ilustrar certos aspectos do problema sem se ater a todos os detalhes. Não raro, mais de um modelo pode descrever um mesmo fenômeno, haja vista que cada pesquisador tem a liberdade de modelar o fenômeno seguindo a metodologia que julgar mais adequada. Aqui a seleção do “melhor” modelo torna-se então evidente. Burnham e Anderson (2004), enfatizam a importância de selecionar modelos baseando-se em princípios científicos. Dentre as diversas metodologias utilizadas para este fim, neste trabalho realizamos uma análise comparativa dos critérios de informação de Akaike (AIC), Akaike Corrigido (AICc) e Bayesiano (BIC), quanto a sua performance na seleção de modelos. Tais critérios são comparados via simulação em modelos normais e em modelos de séries temporais. 2.3.2 A Estatística Primitiva À primitiva noção de estatística, descrição qualitativa das coisas e fatos notáveis dos Estados (séc. XVII), sucedeu a de enumeração quantitativa de populações, produções, bens e riquezas dos mesmos Estados (séc. XVIII). No século passado dizia-se que se fazia estatística quando se contavam conjuntos numerosos ou se 29 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 registravam as repetições de determinados fenômenos. A palavra estatística aplicava- se aos próprios quadros e tabelas onde se alinhavam os resultados dessas contagens. E como os conjuntos numerosos que se contavam eram de pessoas, e porque os fenômenos que se registravam, respeitavam à população humana, a estatística apareceu, então, como um “estudo numérico dos fatos sociais”, como uma “ciência que pretendia deduzir de um grande número de observações de fenômenos sociais, leis gerais aplicáveis à vida humana”. Verificou-se, porém, ser, a maior parte das vezes, pretensiosa essa ambição. Os fenômenos sociais são de tal forma complexos que mais não se podia senão classificá-los e ordená-los em tipos característicos. Do objeto que era o conhecimento da sociedade e dos seus elementos, a estatística passou a ocupar-se do estudo de outros conjuntos numerosos e de outros fenômenos realizáveis em grande número, sempre fora da ação direta do observador, cujas causas, ou condições de realização, parecem múltiplas e complexas. Tais fenômenos chamamse coletivos, de massa ou ainda estatísticos. Apresentam-se hoje não só na demografia, mas também na física, na astronomia estelar, na economia, na antropologia, na biologia, etc. 2.3.3 A Estatística Indutiva Atualmente pode dizer-se, sem exagero, que a Estatística Indutiva é aplicada a todos os ramos do conhecimento e é utilizada em quase todos os aspectos da vida humana. Por terem sido os primeiros a estudarem e a utilizarem este ramo da Estatística, Galton (1822 – 1911) e Pearson (1857 – 1936) são habitualmente considerados os iniciadores da Estatística moderna. Até à segunda metade do século XIX, a utilização da Estatística consistia na recolha de dados, os quais refletiam uma determinada situação. O imperador Tao pretendia, provavelmente, conhecer melhor a população da China quando, acerca de 2200 a.C., ordenou um censo cujos dados são os mais antigos que se conhecem. O império romano (séc. VI a.C.), com a sua grande extensão, necessitou também de obter dados sobre os variados povos que habitavam e, nos quinze séculos seguintes, estados e povos foram estudados através de recenseamentos, por ordem de reis e imperadores. 30 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Quando, hoje em dia, os políticos, os governos ou os sociólogos analisam a esperança de vida num país, numa região ou no mundo, seguem um procedimento efetuado, pela primeira vez, por Graunt e por Edmund Halley (1658 – 1744). Este astrônomo inglês, conhecido pelo cometa que identificou e cuja passagem pela terra previu, publicou, em 1692, um livro com o título que explicava claramente de que assuntos tratava: Cálculo dos graus de mortalidade da humanidade, deduzidos de curiosas tabelas dos nascimentos e mortes da cidade de Breslau, com a intenção de estabelecer os preços das anualidades sobre as vidas. Este tipo de estudo estatístico é utilizado atualmente, por exemplo, pelas companhias de seguros. O livro Medicina social, escrito por Quetelet, levou Florence Nightingale (1820 – 1910) a fazer uma grande campanha para que a universidade de Oxford instituísse uma cadeira de Estatística, na qual os políticos e legisladores aprendessem como era importante as decisões serem baseadas em dados concretos. Embora não tivesse conseguido atingir esse objetivo, ela sempre usou essa nova ciência, que considerava um estudo “apaixonante”, para pressionar os governos, e até a rainha Vitória, no sentido de melhorar o sistema de saúde inglês daquela época. Durante os 50 anos que dedicou à enfermagem recolheu uma enorme quantidade de dados sobre a mortalidade nas zonas de guerra e nos hospitais; utilizando essas informações e algumas representações gráficas muito criativas, lutou contra a “profunda cegueira” dos governantes. Graunt, Halley, Quetelet e Nightingale, todos eles utilizaram a Estatística para descrever várias situações, ou seja, utilizaram a Estatística Descritiva, mas Francis Galton utilizou métodos estatísticos completamente inovadores para efetuar previsões e tirar conclusões, em assuntos tão diversos como meteorologia (construiu o primeiro mapa do tempo de que se tem notícia), religião e hereditariedade. Iniciou-se então a Estatística Indutiva. Galton acreditava completamente nos dados e recolheu-os sobre assuntos tão estranhos e variados como a eficácia das orações,a antropologia ou as impressões digitais (a partir de um estudo exaustivo de milhares de exemplares demonstrou que cada pessoa tem impressões digitais diferentes). A sua enorme curiosidade e criatividade levaram-no a construir um instrumento experimental, a máquina de Galton, com o qual se pode estudar a probabilidade de uma bola percorrer um determinado caminho desde um ponto até ao outro. 31 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Por exemplo, se forem efetuados 10 000 lançamentos de bola e se esta percorrer um dos caminhos 345 vezes, a frequência relativa terá sido de 0,0345, sendo então de esperar que a probabilidade da bola percorrer aquele caminho seja um valor próximo deste (segundo a máquina de Galton). 2.3.4 A Estatística Oficial Desde tempos remotos que se verificou a necessidade de levantamentos de dados de interesse para a governança das sociedades (impostos, recrutamento militar, cadastro rural, produções, possibilidades, distribuição das populações pelas terras, etc.). A defesa da vida humana levou os Estados a preocuparem-se com o recolhimento permanente de números a respeito da natalidade, da nupcialidade, da mortalidade, etc. A direção da economia tornou indispensável o conhecimento, suficientemente aproximado, da produção, consumo e distribuição das matérias primas e dos produtos manufaturados. A necessidade de um organismo permanente encarregado do registro das possibilidades e recursos das várias regiões de um país foi posta em relevo por Vaubon (1633-1707), mas foi só no princípio do século passado que se criou organismos dessa natureza. Os dirigentes dos diversos organismos oficiais de estatística, bem como, aqueles que orientam a investigação matemática do método estatístico, verificaram que se tornava indispensável a colaboração de todos aqueles, que nos vários países, se dedicam ao seu estudo. Por conta disso, desde 1853, ocorrem reuniões internacionais, chamadas Congressos Internacionais de Estatística, onde se apresentam e se discutem comunicações dos congressistas. Verificou-se que essas reuniões eram insuficientes. Por isso, o Congresso de Londres, de 1885, criou o Instituto Nacional de Estatística, associação cientifica com 225 membros efetivos e 25 membros honorários. Tem a sua sede em Haia, onde funciona, como organismo permanente, uma Secretaria. 32 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 2.3.5 Aplicações Algumas ciências usam a estatística aplicada, tão extensivamente, que elas têm uma terminologia especializada. Estas disciplinas incluem: Bioestatística; Contabilometria; Controle de qualidade; Estatística comercial; Estatística econômica; Estatística engenharia; Estatística física; Estatística populacional; Estatística psicológica; Estatística social (para todas as ciências sociais); Física quântica; Geoestatística; Pesquisa operacional; Análise de processo e quimiometria (para análise de dados da química analítica e da engenharia química). Já de acordo com o Instituto Brasileiro de Geografia e Estatística (IBGE, 2011), grande parte das informações divulgadas pelos meios de comunicação atuais provém de pesquisas e estudos estatísticos. Os índices da inflação, de emprego e desemprego, divulgados e analisados pela mídia, são um exemplo de aplicação da Estatística no nosso dia a dia. O Instituto Brasileiro de Geografia e Estatística - IBGE, ao qual a Escola Nacional de Estatísticas está vinculada, é o órgão responsável pela produção das estatísticas oficiais que subsidiam estudos e planejamentos governamentais no país. 33 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Portanto, os conceitos estatísticos têm exercido profunda influência na maioria dos campos do conhecimento humano. Métodos estatísticos vêm sendo utilizados no aprimoramento de produtos agrícolas, no desenvolvimento de equipamentos espaciais, no controle do tráfego, na previsão de surtos epidêmicos bem como no aprimoramento de processos de gerenciamento, tanto na área governamental como na iniciativa privada. Na prática, a Estatística pode ser empregada como ferramenta fundamental em várias outras ciências. Na área médica, por exemplo, a Estatística fornece metodologia adequada que possibilita decidir sobre a eficiência de um novo tratamento no combate à determinada doença. A Estatística permite identificar situações críticas e, consequentemente, atuar em seu controle, desempenhando papel crucial no estudo da evolução e incidência de uma doença como a AIDS. Na área tecnológica, o advento da era espacial suscitou diversos problemas relacionados ao cálculo de posição de uma astronave, cuja solução depende fundamentalmente de conceitos e teorias estatísticas mais elaboradas, considerando que estas informações, como sinais de satélite, são recebidas de forma ruidosa e incerta. O crescente uso da Estatística vem ao encontro da necessidade de realizar análises e avaliações objetivas, fundamentadas em conhecimentos científicos. As organizações modernas estão se tornando cada vez mais dependentes de dados estatísticos para obter Informações essenciais sobre seus processos de trabalho e principalmente sobre a conjuntura econômica e social. As informações estatísticas são concisas, específicas e eficazes, fornecendo assim subsídios imprescindíveis para as tomadas racionais de decisão. Neste sentido, a Estatística fornece ferramentas importantes para que as empresas e instituições possam definir melhor suas metas, avaliar sua performance, identificar seus pontos fracos e atuar na melhoria contínua de seus processos. A Estatística, então, forma uma ferramenta chave nos negócios e na industrialização como um todo, sendo utilizada para o entendimento de sistemas variáveis, controle de processos (chamado de “controle estatístico de processo” ou CEP), custos financeiros (contábil) e de qualidade e para sumarização de dados e também tomada de decisão baseada em dados. 34 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 E, em sendo, nessas funções ela é uma ferramenta chave ou talvez, a única ferramenta segura. 3 A MATEMÁTICA FINANCEIRA, A ESTATÍSTICA E OS PCN De acordo com os Parâmetros Curriculares Nacionais, para a Educação Básica, em Matemática, vemos que, para as três séries do Ensino Médio são colocadas, claramente, a questão da formação dos alunos. Em sendo, podemos constatar que, em todas as disciplinas da área, os temas de estudo da primeira série deveriam tratar do entorno das informações que cercam os alunos, numa visão contextualizada, colocando-os em contato com as primeiras ideias e procedimentos básicos para ler e interpretar situações simples. Como isso não ocorre, vemos, por exemplo, a questão dos Conjuntos que, tradicionalmente, ao darmos início ao ensino de funções, estabelece-se como meta inicial, o estudo dos números reais e de conjuntos e suas operações, para depois, definir relações e, só então, identificar as funções como particulares relações. Todo esse percurso é abandonado assim que a definição de função é estabelecida, pois para a análise dos diferentes tipos de funções, todo o estudo relativo a conjuntos e relações é desnecessário. Assim, o ensino pode ser iniciado diretamente pela noção de função para descrever situações de dependência entre duas grandezas, o que permite o estudo a partir de situações contextualizadas, descritas algébrica e graficamente (PCN+, Ensino Médio, 2002, p. 121). As funções, exponencial e logarítmica, por exemplo, são usadas para descrever a variação de duas grandezas em que o crescimento da variável independente é muito rápido, sendo aplicada em áreas do conhecimento comomatemática financeira, crescimento de populações, intensidade sonora, pH de substâncias e outras. A resolução de equações logarítmicas e exponenciais e o estudo das propriedades de características e mantissas podem ter sua ênfase diminuída e, até mesmo, podem ser suprimidas (PCN+, 2002, p. 121). Com relação às sequências, é preciso garantir uma abordagem conectada à ideia de função, na qual as relações com diferentes funções possam ser analisadas. 35 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 O estudo da progressão geométrica infinita com razão positiva e menor que 1 oferece talvez a única oportunidade de o aluno estender o conceito de soma para um número infinito de parcelas, ampliando sua compreensão sobre a adição e tendo a oportunidade de se defrontar com as ideias de convergência e de infinito. Essas ideias foram e são essenciais para o desenvolvimento da ciência, especialmente porque permitem explorar regularidades. O ensino desta unidade deve ater-se à lei de formação dessas sequências e a mostrar aos alunos quais propriedades decorrem delas. Associar às sequências seus gráficos e relacionar os conceitos de sequência crescente ou decrescente, aos correspondentes gráficos, permite ao aluno compreender melhor as ideias envolvidas, ao mesmo tempo em que dá a ele a possibilidade de acompanhar o comportamento de uma sequência, sem precisar decorar informações (PCN+, 2002, p. 118). Na segunda série, já poderia haver uma mudança significativa no sentido de que cada disciplina mostrasse sua dimensão enquanto Ciência, com suas formas características de pensar e modelar fatos e fenômenos. Iniciando pela trigonometria, temos como objetivos da mesma: Utilizar e interpretar modelos para resolução de situações-problema que envolvam medições, em especial o cálculo de distâncias inacessíveis, e para construir modelos que correspondem a fenômenos periódicos. Compreender o conhecimento científico e tecnológico como resultado de uma construção humana em um processo histórico e social, reconhecendo o uso de relações trigonométricas em diferentes épocas e contextos sociais. Apesar de sua importância, tradicionalmente a trigonometria é apresentada desconectada das aplicações, investindo-se muito tempo no cálculo algébrico das identidades e equações em detrimento dos aspectos importantes das funções trigonométricas e da análise de seus gráficos. O que deve ser assegurado são as aplicações da trigonometria na resolução de problemas que envolvem medições, em especial o cálculo de distâncias inacessíveis e para construir modelos que correspondem a fenômenos periódicos. 36 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Dessa forma, o estudo deve ater-se às funções seno, cosseno e tangente com ênfase ao seu estudo na primeira volta do círculo trigonométrico e à perspectiva histórica das aplicações das relações trigonométricas. Outro aspecto importante do estudo deste tema é o fato desse conhecimento ter sido responsável pelo avanço tecnológico em diferentes épocas, como é o caso do período das navegações ou, atualmente, na agrimensura, o que permite aos alunos perceberem o conhecimento matemático como forma de resolver problemas que os homens se propuseram e continuam se propondo. Ainda neste tema, é possível alargar e aprofundar o conhecimento dos alunos sobre números e operações, mas não isoladamente dos outros conceitos, isto é, pode- se tratar os números decimais e fracionários, mas mantendo de perto a relação estreita com problemas que envolvem medições, cálculos aproximados, porcentagens, assim como os números irracionais devem se ligar ao trabalho com geometria e medidas. É ainda importante para o aluno, nessa etapa de sua formação, o desenvolvimento da capacidade de estimativa da ordem de grandeza de resultados de cálculo ou medições e da capacidade de tratar com valores numéricos exatos ou aproximados de acordo com a situação e o instrumental disponível. Com relação à álgebra, há ainda o estudo de Equações Polinomiais e de Sistemas Lineares. Esses dois conteúdos devem receber um tratamento que enfatize sua importância cultural, isto é, estender os conhecimentos que os alunos possuem sobre a resolução de equações de primeiro e segundo graus e sobre a resolução de sistemas de duas equações e duas incógnitas para sistemas lineares 3 por 3, aplicando esse estudo à resolução de problemas simples de outras áreas do conhecimento. Uma abordagem mais qualitativa e profunda deve ser feita dentro da parte flexível do currículo, como opção específica de cada escola. Resumidamente, em relação às competências a serem desenvolvidas pela Matemática, a abordagem proposta para esse tema permite ao aluno usar e interpretar modelos, perceber o sentido de transformações, buscar regularidades, conhecer o desenvolvimento histórico e tecnológico de parte de nossa cultura e adquirir uma visão sistematizada de parte do conhecimento matemático. No que tange à Estatística, Contagem e Probabilidade, uma das grandes competências propostas pelos PCNEM diz respeito à contextualização sociocultural 37 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 como forma de aproximar o aluno da realidade e fazê-lo vivenciar situações próximas que lhe permitam reconhecer a diversidade que o cerca e reconhecer-se como indivíduo capaz de ler e atuar nesta realidade. A Matemática do ensino médio pode ser determinante para a leitura das informações que circulam na mídia e em outras áreas do conhecimento na forma de tabelas, gráficos e informações de caráter estatístico. Contudo, espera-se do aluno nessa fase da escolaridade que ultrapasse a leitura de informações e reflita mais criticamente sobre seus significados. Assim, o tema proposto deve ir além da simples descrição e representação de dados, atingindo a investigação sobre esses dados e a tomada de decisões. Em sendo, Estatística e Probabilidade lidam com dados e informações em conjuntos finitos e utilizam procedimentos que permitem controlar com certa segurança a incerteza e mobilidade desses dados. Por isso, a Contagem ou análise combinatória é apenas parte instrumental desse tema. Da mesma forma, a Probabilidade acena com resultados possíveis, mas não exatos. Assim, ao afirmar que o resultado 1 tem 1/6 de probabilidade no lançamento de um dado, não há certeza de que em seis lançamentos do dado o número 1 sairá exatamente uma vez. A Contagem ou Análise Combinatória, ao mesmo tempo em que possibilita uma abordagem mais completa da probabilidade por si só, permite também o desenvolvimento de uma nova forma de pensar em Matemática denominada raciocínio combinatório. Ou seja, decidir sobre a forma mais adequada de organizar números ou informações para poder contar os casos possíveis não deve ser aprendido como uma lista de fórmulas, mas como um processo que exige a construção de um modelo simplificado e explicativo da situação. As fórmulas devem ser consequência do raciocínio combinatório desenvolvido frente à resolução de problemas diversos e devem ter a função de simplificar cálculos quando a quantidade de dados é muito grande. Esses conteúdos devem ter maior espaço e empenho de trabalho no ensino médio, mantendo de perto a perspectiva da resolução de problemas aplicados para se evitar a teorização excessiva e estéril. Espera-se que assim o aluno possa se orientar frente a informações de natureza estatística ou probabilística. 38 Instituto Pedagógico de Minas Gerais http://www.ipemig.com (31) 3270 4500 Decidir sobre a forma mais adequada de organizar números e informações com o objetivo de simplificar cálculos em situações reais envolvendo grande quantidade de dados ou de eventos. Identificar regularidades para estabelecer
Compartilhar