Baixe o app para aproveitar ainda mais
Prévia do material em texto
elementos de probabilidade e estatística: princípios, conceitos, DEFINIÇÕES, teoria e aplicações em engenharia MEMÓRIA DE LEITURA AMPLIADA, IMPLEMENTADA (GeoGebra, MS-Excel, Maple ou MatLab) E COMPARTILHADA DEPARTAMENTO ACADÊMICO DE MATEMÁTICA JOSE DONIZETTI DE LIMA 2014 2 PREFÁCIO É muito comum sentir a angústia dos acadêmicos quando se deparam com as dificuldades de aprendizado inerentes a esta complexa e instigante disciplina, que exige conhecimento de matemática acumulados nos ensinos fundamental, médio e cálculo diferencial e integral. Nesse sentido, essas notas de aula, foram elaboradas com o objetivo de minimizar as dificuldades enfrentadas pelos acadêmicos, conscientizando-os sobre os desafios reais do mundo prático e firmando conceitos. As apostilas e slides, foram elaborados, de forma simples, clara, concisa e lógica abordando assuntos indispensáveis para um bom curso de Probabilidade e Estatística destinados aos cursos de Engenharia. Embora o cálculo das probabilidades pertença ao campo da Matemática, sua inclusão aqui se justifica pelo fato da maioria dos fenômenos de que trata a Estatística ser de natureza probabilística ou aleatórios (do latim alea = sorte. Este texto destina-se aos acadêmicos matriculados na referida disciplina, ou a quem possa interessar, devendo servir como um guia para as aulas, que são realizadas durante o semestre letivo. O texto que se segue constitui uma simples compilação de apontamentos, alguns deles retirados a partir das referências indicadas no final do mesmo. Pretende-se fornecer, em forma de texto orientador, o desenvolvimento dos sumários referentes às aulas correspondentes aos conteúdos essenciais a essa disciplina e não substituir a leitura das referências. Assim, estas notas de aula seguem de perto a bibliografia referenciada e que correspondem aos livros textos desta disciplina, sugere-se a sua aquisição e/ou consulta a nossa biblioteca. Referencias especificas, são apresentadas antes dos textos. Adverte-se o leitor de que nestas notas de aulas se fará um estudo muito elementar de alguns tópicos e aos interessados em maiores detalhes (demonstrações), sugere-se as referências que aparecem ao longo do texto ou no final do mesmo. A resolução dos exercícios propostos é fundamental para entendimento dos assuntos aqui abordados. A utilização de softwares específicos acompanhará todo o desenvolvimento teórico. Pretende-se que o acadêmico adquira habilidades na utilização de recursos computacionais no tratamento de problemas envolvendo probabilidade e estatística. Assim, sempre que possível são evidenciadas potenciais aplicações, bem como formas de resolução de exercícios e/ou problemas nos softwares (Microsoft Excel e/ou R e/ou Statgraphics Centurion). Este último é um software proprietário, porém disponibiliza uma versão completa para avaliação grátis durante 30 dias, no site: http://www.statgraphics.com/downloads.htm. Propositalmente, os resultados fornecidos pelos softwares são apresentados, para que o acadêmico motive-se a executar e estudar os programas aqui apresentados. Recomenda-se que o acadêmico observe atentamente cada resultado, interpretando- o corretamente. A maioria dos programas (resolução de exercícios/problemas da engenharia) é discutido nas aulas, e desse modo espera-se que esse material facilite a assimilação dos conteúdos. Meus interesses de pesquisa estão centrados nas áreas de Otimização Numérica, Programação Linear e Não-Linear, Estatística univariada e multivariada, Análise Gerencial de Custos, Engenharia Econômica, com temas ligados à Engenharia de Produção (minha área de doutoramento), nas quais publiquei artigos e apresentei trabalhos em congressos. Interesso-me por questões de ensino fundamental, médio e superior e defendo a resolução de problemas como motor fundamental da aprendizagem. “TEXTOS ENTRE ASPAS NÃO SÃO DE MINHA AUTORIA”. O processo de melhoria contínua parte da identificação das oportunidades de melhoria. Assim, críticas e sugestões, bem como correção de eventuais erros no material, serão bem recebidas. donizetti@utfpr.edu.br. Notas do autor. Pato Branco, março de 2014. 3 FRASES: Pare e reflita ou simplesmente reflita... Analise o passado, administre o presente e planeje o futuro. "O homem não é nada em si mesmo. Não passa de uma probabilidade infinita. Mas ele é o responsável infinito dessa probabilidade". Albert Camus. "O que tem sido acreditado por todos, e sempre, e em toda a parte, tem toda a probabilidade de ser falso". Paul Valéry. “Há três tipos de mentira: as mentiras, as mentiras sérias e a estatística”. Benjamin Disraeli. “Os números não mentem; mas os mentirosos forjam os números” “Se torturarmos os dados por bastante tempo, eles acabarão por admitir qualquer coisa”. “Algumas pessoas usam a estatística como um bêbado usa um poste de iluminação - para servir de apoio e não para iluminar”. Andrew Lang (historiador): “As teorias científicas lidam com conceitos, não com a realidade. Embora elas sejam formuladas para corresponder à realidade, esta correspondência é aproximada e a justificativa para todas as conclusões teóricas é baseada em alguma forma de raciocínio indutivo.” Athanasios Papoulis. “Os métodos estatísticos fornecem ferramentas importantes para a engenharia, com teor descritivo e analítico para operar com a variabilidade presente nos dados observados.” Prof. Von Zuben. DCA/FEEC/Unicamp. “Quanto mais se aprende, mais se descobre que não se sabe nada diante da dimensão das coisas a serem aprendidas... “ “A mente que se abre a uma nova ideia jamais volta ao seu tamanho original”. Albert Einstein “Tudo deve tornar-se o mais simples possível, porém, não simplificado.” Albert Einstein “Não se pode ensinar coisa alguma a alguém; pode-se apenas auxiliá-lo a descobrir por si mesmo". “O professor é aquele que transfere o que sabe e aprende o que ensina.” Cora Coralina, poetisa brasileira “Nada é mais difícil, e por isso mais precioso, do que ser capaz de decidir. A pior decisão é a indecisão.” “Devemos sempre observar o processo de construção do conhecimento, para isso, torna-se imprescindível considerar a participação do acadêmico ao longo do processo de aprendizagem” (GUIDORIZZI, 2001). “A aprendizagem é o fruto exclusivo do trabalho ativo do acadêmico, cabendo ao instrutor as tarefas de propor problemas desafiantes, orientar o estudante na sua resolução, e fornecer os elementos teóricos essenciais para possibilitar a atividade deste” (GUIDORIZZI, 2001). “Excelência... não é um ato, mas um hábito.” Aristóteles “O que distingue o homem não é a grandeza do gênio, mas a alteza do caráter.” “A Matemática é a honra do espírito humano” Leibniz “A educação é o transporte para o futuro.” “Nenhum país se desenvolveu sem investimento em capital humano.” A utilização de diversos recursos multimídia fomenta a busca de informações, a reflexão sobre elas e a reconstrução do conhecimento. Além disso, otimiza a interação dos acadêmicos entre si e com o professor. 4 SÍMBOLOS MATEMÁTICOS SÍMBOLO LÊ-SE = Igual Diferente (exemplo: 33,03/1 ) Aproximadamente (exemplo: 33,03/1 ) Coincidentes (exemplo: retas coincidentes) Não coincidentes % Por cento (indica uma divisão por 100, por exemplo: 5% = 5/100) Mais ou menos (exemplo: 2442 xxx ) Maior que Maior ou igual a Menor que Menor ou igual a Tal que, de modo que, de maneira que, de forma que Qualquer que seja ou todo elemento Implica Se, e somente se Existe Não existe Único Pertence Não pertence União Intersecção Está contido Contém BA A não está contido em B N Conjunto dos números naturais Z Conjunto dos números inteiros Q Conjunto dos números racionais cQ ou 'Q ou I Conjunto dos números irracionais Conjunto dos números reais } { ou Utilizado para indicar conjunto vazio * Indica a exclusão do elemento zero / / Paralelas ou paralelos (exemplo: retas paralelas) Perpendicular ou ortogonal (exemplo: retas perpendiculares) ... dqc Conforme queríamos demonstrar Somatório Produtório Infinito BAf : f é uma função do conjunto A no conjunto B Lxf px )(lim Limite da função f quando x tende a p é igual a L. )(),(,,,'),(' yDfD dx dy dx dfyxf xx Notações usadas para representar a derivada de uma função: )(xfy . dxxf )( Integral indefinida da função f em relação a variável x. dxxf b a )( Integral definida da função f em relação a variável x, de a até b. dxxf )( Integral imprópria 5 Alfabeto Grego Fonte: http://www.profwillian.com/_diversos/alfa_grego.asp SÍMBOLOS ESTATÍSTICOS Símbolo Lê-se Utilizado para indicar Alfa (alpha) Nível de significância (erro tipo I) Beta (beta) Erro tipo II. (1 – ) = Poder do teste estatístico Gama (gamma) Distribuição gama Sigma (sigma) Desvio-padrão populacional 2 Sigma ao quadrado Variância populacional s2 “s” ao quadrado Variância amostral s “s” Desvio-padrão amostral Teta (theta) Vetor.... Mi (mu) Média populacional x x barra Média amostral Qui Qui-quadrado Experimento Aleatório (ou estocástico) Pi População E Letra E Evento Ômega Espaço amostral S Space Espaço amostral União (ou reunião) Proporção (população) x~ Mediana G Média Geométrica H Média Harmônica MP Média Ponderada Experimento aleatório P(E) Probabilidade de ocorrer o evento E http://glossario.spestatistica.pt/ 6 SUMÁRIO PROBABILIDADE E ESTATÍSTICA Capítulo 01 – INTRODUÇÃO............................................................................................................aa Capítulo 02 – ELEMENTOS DE PROBABILIDADE – TEORIA ELEMENTAR DE PROBABILIDADE..............zz Capítulo 03 – VARIÁVEIS ALEATÓRIAS...................................................................................................zz Capítulo 04 – DISTRIBUIÇÕES DE PROBABILIDADES..............................................................................zz Capítulo 05 – INFERÊNCIA ESTATÍSTICA................................................................................................zz Capítulo 06 – ESTIMAÇÃO......................................................................................................................zz Capítulo 07 – TESTE DE HIPÓTESE..........................................................................................................zz Capítulo 08 – CONTROLE ESTATÍSTICO DE PROCESSO..........................................................................zz Capítulo 09 – ANÁLISE DE VARIÂNCIA...................................................................................................zz Capítulo 10 – ATIVIDADES PRÁTICAS SUPERVISIONADAS (APS) Listas de exercícios-problemas propostos para a revisão dos conceitos...............................................xx Segundo Loesch (2012), os fundamentos matemáticos necessários para o estudo de Probabilidade e Estatística, incluem: “Teoria elementar dos conjuntos, Análise combinatória, Cálculo (diferenciação, integração, pontos extremos) e Álgebra linear (matrizes e suas operações, determinantes, valores característicos)”. Assim, foram elaborados os seguintes apêndices: 1) TEORIA ELEMENTAR DOS CONJUNTOS 2) ANÁLISE COMBINATÓRIA E NÚMEROS BINOMIAIS 3) ESTATÍSTICA DESCRITIVA 4) ANÁLISE DE CORRELAÇÃO E REGRESSÃO 5) INTRODUÇÃO À ESTATÍSTICA MULTIVARIADA (ANÁLISE MULTIVARIADA DE DADOS) PREFÁCIO: APOSTILA = “MEMÓRIA DE LEITURA COMPARTILHADA” Uma seleção ou síntese do que entendo como relevante para os acadêmicos dos cursos de engenharia, seja para a formação profissional, pessoal ou para despertar o interesse sobre algo. É claro que escrevi boa parte do texto, elaborei aplicativos computacionais para ilustrar teoremas e vislumbrar potenciais aplicações. Trabalho prático em dupla: estudo de caso real ou análise crítica de um artigo, de sua área de estudo, que utilizou tópicos da Probabilidade e Estatísticas (nesse caso, os cálculos tem que serem refeitos) que foram abordados no semestre ou tópicos avançados. Sugere-se fazer também o trabalho envolvendo o Controle Estatístico do Processo (CEP). Ver o que escrevi no caderno e slides da carla tem caten. Probabilidade: O QUE É? COMO CALCULAR? Probabilidade = Possibilidade = Chance 1) Qual o papel da Estatística no seu curso de Engenharia? 2) O que mais lhe chamou a atenção no documentário “O Prazer da Estatística”, disponível em: http://www.youtube.com/watch?v=xLr68J2yDJ8, acesso em: out. 2013. Consegue identificar/vislumbrar aplicação(ões) no seu curso de graduação? Qual(is)? 3) Escolha um ator que contribuiu de forma relevante no processo de desenvolvimento da Probabilidade e Estatística. Identifique/caracterize a(s) sua(s) descoberta(s) e em que é(são) utilizada(s) na atualidade? Pesquise um dos fundadores/pesquisadores/construtores da Estatística e descreva a sua contribuição para essa Ciência e visualize potenciais aplicações para a sua área de estudo. AVALIAÇÃO DA PARTE HISTÓRICA 7 SONDAGEM 1) O que você entende por Estatística? Cite um exemplo de aplicabilidade em sua área de atuação, área de estudo (seu curso). 2) O que você entende por média? Cite exemplos numéricos. 3) O que você entende por mediana? Cite exemplos numéricos. 4) O que você entende por desvio-padrão? Cite exemplos numéricos. 5) Escreva tudo que conseguir relacionar à Estatística, como objeto de estudo. 6) Você já estudou Estatística? Quando? De 1 a 10 qual a nota para seus conhecimentos em Estatística? 7) Você consegue visualizar a importância da Estatística para o seu curso? 8) Escreva pelo menos dois pontos que mereçam a sua crítica do ponto de vista estatístico: Para predizer o resultado de uma eleição municipal, um pesquisador de opinião pública telefona a pessoas selecionadas aleatoriamente da lista telefônica da cidade. Resposta: Do ponto de vista estatístico, a realização dessa pesquisa demonstra no mínimo os seguintes problemas: (i) nem todos os eleitores têm telefone; (ii) nem todos eleitores que têm telefone, têm seus nomes na lista; e (iii) não considera o número de eleitores por residência. 9) Escreva pelo menos dois pontos que mereçam a sua crítica do ponto de vista estatístico: Para avaliar a opinião do público sobre a estratégia que certo plano de saúde está adotando para aumentar o número de adeptos ao mesmo, um pesquisador envia o formulário pelo correio, sendo que no mesmo consta a seguinte pergunta aos entrevistados: “Você acha que essa prática injusta deve ser interrompida?” O formulário deverá ser devolvido via correios. Resposta: Do ponto de vista estatístico a realização dessa pesquisa demonstra dois problemas no mínimo: (i) a forma de coleta de dados, na qual o participante escolhe se quer ou não responder, ou seja, permite ao elemento da amostra escolher se quer ou não participar da mesma; e (ii) a pergunta é tendenciosa, ou seja, induz a resposta do entrevistado. 10) Ao elaborarmos os questionários de pesquisa devemos ser imparciais, veja o exemplo a seguir: Qual a sua opinião a respeito do atendimento exercido pelo Sistema Único de Saúde (SUS)? � Atende plenamente as necessidades. � Atende parcialmente as necessidades. �Não atende as necessidades. � Não utilizo. � Não conheço. 11) Qual é a sua opinião sobre a pesquisa estatística? 12) Quais os pontos que merecem críticas em uma pesquisa realizada por meio de formulários enviados pelo correio tradicional ou por correio eletrônico (e-mail)? 13) Quais os pontos que merecem críticas em uma pesquisa realizada por telefone? 14) Pesquise um dos fundadores/pesquisadores/construtores da Estatística e descreva a sua contribuição para essa Ciência e visualize potenciais aplicações para a sua área de estudo. 15) Elabore uma questão e responda-a. 8 O planejamentO de uma pesquisa Dois tipos de pesquisas empíricas (BARBETTA et al., 2010) DE LEVANTAMENTO: Características de interesse de uma população são levantadas (observadas ou medidas), mas sem manipulação. EXPERIMENTAL: Grupos de indivíduos (ou animais, ou objetos) são manipulados para se avaliar o efeito de diferentes tratamentos. ESTRATÉGIAS NO PLANEJAMENTO DE EXPERIMENTOS (BARBETTA et al., 2010) Reconhecer, estabelecer e delimitar claramente o problema; Identificar os possíveis fatores que podem afetar o problema em estudo; Verificar quais fatores que poderão ser mantidos fixos e, portanto, não terão os seus efeitos avaliados no estudo experimental; Identificar, para cada fator, o intervalo de variação e os níveis que entrarão no estudo; Escolher um projeto experimental adequado, isto é, saber como combinar os níveis dos fatores de forma que se possa resolver o problema proposto com o menor custo possível; Escolher a resposta adequada, ou seja, a variável Y que mede adequadamente o resultado (a qualidade, o desempenho, etc.) do processo; e; O planejamento de como será a análise dos dados do experimento. DICAS (Carla ten Caten, 2007) Antes de se iniciar a COLETA DE DADOS é fundamental definir qual a sua finalidade, isto é, onde os dados serão utilizados, de que forma serão usados, o que se busca conhecer com esta informação. É fundamental que sejam registradas todas informações. Se isso não for feito neste momento, depois não será possível utilizar os dados coletados analisando-os por turno ou por produto. O processo se comunica através de DADOS que são coletados. 9 DICAS PARA O ESTUDO DE CASO PRÁTICO (adaptado de KUME, 1993) 1. Como coletar dados? 1.1 Tenha objetivos bem definidos Dados são um guia para nossas ações. A partir de dados aprendemos fatos pertinentes, e tomamos providências apropriadas baseadas em tais fatos. Antes de coletar dados, é importante definir o que se pretende fazer com eles. Em uma fábrica de máquinas, foi feita uma inspeção por amostragem no recebimento de um certo tipo de peça comprada fora. Um lote que deveria ser rejeitado foi, excepcionalmente, aceito para manter a produção dentro do programado. Entretanto, não se tomou nenhuma providência especial quanto ao lote aceito. Isto significa que tanto os lotes que estavam conforme a especificação, como os que não estavam, seguiram para o processo seguinte. Estes dados certamente estavam sendo coletados para determinar a aceitabilidade dos lotes, mas não foram utilizados para nada. No controle da qualidade, os objetivos da coleta de dados: (i) controle e acompanhamento do processo de produção; (ii) análise de não-conformidades, e (iii) Inspeção. Qualquer coleta de dados tem o seu próprio propósito e deve ser seguida por ações. 1.2 Qual é o seu propósito? Uma vez definido o objetivo da coleta de dados, os tipos de comparações a serem realizadas também são determinados e isto, por sua vez, identifica o tipo dos dados que devem ser coletados. Por exemplo, suponha que haja um problema envolvendo variação em uma característica da qualidade de um produto. Se for coletado apenas um dado por dia, é impossível determinar a variação que ocorre ao longo de um dia. Ou, caso se deseje descobrir de que maneira são produzidos produtos defeituosos por dois operários, é necessário colher seus dados em separado para que seja possível analisar o desempenho de cada operário. Se a comparação de um em relação a outro revela uma clara diferença, a ação corretiva que elimina a diferença entre os operários irá também reduzir a variação no processo. Este modo de dividir um grupo em diversos subgrupos com base em certos fatores, é chamado de estratificação. A estratificação é muito importante. É necessário tornar habitual a aplicação da estratificação, no seu raciocínio, em todos os tipos de situações. Então, suponha que se queira saber a relação entre a quantidade de um componente e a dureza do produto. Em um caso como este, em que se deseja saber se há uma relação entre os valores de duas características, os dados precisam estar disponíveis em pares. Se os dados forem coletados em pares eles poderão ser analisados através do uso de um diagrama de dispersão. 1.3 As medições são confiáveis? Mesmo que as amostras tenham sido coletadas apropriadamente, será feito um julgamento errado se a própria medição não for confiável. Por exemplo, inspeções realizadas por um certo inspetor apontaram uma fração defeituosa muito diferente da dos demais inspetores, e um cuidadoso exame posterior revelou que o equipamento de medição era inadequado. No caso de uma inspeção sensorial, como a inspeção visual, diferenças devidas aos próprios inspetores são muito comuns. Este fato precisa ser levado em consideração quando da coleta e análise de dados. 1.4 Encontre maneiras corretas para registrar os dados Após a coleta dos dados, vários métodos estatísticos são utilizados para analisá-los, de modo que eles se tornem uma fonte de informação. Ao coletar dados, é importante dispô-los de forma clara para 10 facilitar o posterior tratamento. Em primeiro lugar, a sua origem precisa ser claramente registrada. Dados cuja origem não seja claramente conhecida, tornam-se inúteis. Com frequência, são obtidas poucas informações úteis, apesar de gastar-se uma semana na coleta de dados sobre características da qualidade, porque as pessoas esquecem de anotar em que dias da semana eles foram coletados, quais foram as máquinas que executaram o processo, quais foram os operários, quais lotes de materiais foram envolvidos, e assim por diante. Em segundo lugar, os dados precisam ser registrados de tal modo que possam ser facilmente utilizados. Como são frequentemente utilizados mais tarde, para calcular estatísticas, tais como médias e amplitudes é melhor que já sejam anotados em uma maneira que facilite esses cálculos. Por exemplo, dados envolvendo 100 peças, obtidos através da realização de 4 medições por dia (às 9 h, 11 h, 14 h e 16 h) durante 25 dias, deveriam naturalmente ser registrados em uma folha de dados, como se observa na Tabela a seguir, na qual os horários estão dispostos na horizontal e os dias estão listados verticalmente. Desta forma, os cálculos diários podem ser feitos considerando os valores em cada linha, e os cálculos por horário, com os valores contidos em cada coluna. Se a intenção é de coletar dados de forma contínua, deve ser providenciada, de antemão, uma quantidade de folhas de registro padronizadas. Tabela – Um Exemplo de Folha de Dados Data Hora 9 h 11 h 14 h 16 h 1/02 12,3 11,5 13,2 14,2 2/02 13,2 12,5 14,0 14,0 3/03 ... ... ... ... 2 Folhas de Verificação Como exposto na seção anterior, quando for preciso coletar dados, é essencial esclarecer sua finalidade e ter valores que reflitam claramente os fatos. Além dessas premissas, em situações reais é importante que os dados sejam coletados de uma maneira simples e em um formulário fácil de usar. Uma folha de verificação é um formulário de papel no qual os itens a serem verificados já estão impressos, de modo que os dados possam ser coletados de forma fácil e concisa. Suas principais finalidadessão duas: (i) facilitar a coleta de dados; e (ii) organizar os dados simultaneamente à coleta, para que possam ser facilmente usados mais tarde. A coleta e o registro dos dados parecem ser fáceis mas, na realidade, não são. Usualmente, quanto mais pessoas processam dados, maior é a possibilidade do aparecimento de erros de escrita. Por esta razão, a folha de verificação – na qual os dados podem ser registrados através de marcas ou símbolos simples, e imediatamente organizados sem necessidade de rearranjo manual posterior – torna-se uma poderosa ferramenta de registro. A seguir, são apresentados alguns exemplos de folhas de verificação. Exemplo ilustrativo 1 – Folha de verificação para a distribuição do processo de produção Suponha que queiramos conhecer a variação nas dimensões de um certo tipo de peça cuja especificação de usinagem seja 8,300 ± 0,008 mm. Para estudar a distribuição dos valores característicos do processo, são normalmente usados histogramas. Valores como a média e variância são calculados com base no histograma e a forma da distribuição também é examinada de várias maneiras. Na construção de um histograma, é muito incômodo coletar uma grande quantidade de dados e, em seguida, desenhar um gráfico mostrando a distribuição das frequências. Uma maneira mais simples é classificar os dados exatamente no instante de sua coleta. A Figura a seguir é um exemplo de formulário que pode ser previamente preparado. Cada vez que uma medição é feita, uma marca (por ex. x é colocada na quadricula apropriada, para que se tenha o histograma pronto no momento em que as medições forem encerradas. Quando for necessário fazer uma estratificação usando uma 11 única folha de verificação, é melhor utilizar cores ou marcas diferentes para posteriormente permitir sua distinção. Figura – Folha de verificação para distribuição do processo produtivo Exemplo ilustrativo 2 – Folha de verificação para item defeituoso A Figura a seguir mostra uma folha de verificação usada no processo de inspeção final de um certo produto de plástico. O inspetor faz uma marca sempre que encontra um defeito. No fim do dia, ele pode verificar rapidamente a quantidade total e os tipos de defeitos que ocorreram. O mero conhecimento da quantidade total de defeitos não nos leva às ações corretivas, mas se uma folha de verificação como a dessa Figura for utilizada, pistas muito importantes podem ser obtidas para a melhoria do processo, porque os dados mostram claramente quais tipos de defeitos são frequentes e quais não são. Figura – Folha do Verificação para itens defeituosos Ao usar essa folha de verificação, como foi o caso do exemplo ilustrativo 1, será impossível estratificar os dados posteriormente, por exemplo, conforme o período do dia (manhã e tarde), uma vez que os dados já foram coletados. Portanto, quando a estratificação é considerada necessária, este fato deve ser considerado desde o início da preparação da folha de verificação. É necessário definir claramente, de antemão, como os defeitos devem ser registrados quando forem encontrados dois ou mais num mesmo produto e, então, dar instruções completas para as pessoas que farão a contagem. No caso da última Figura, 42 entre 1.525 itens apresentaram defeitos. Entretanto, a quantidade total de defeitos foi de 62 porque, em alguns casos, foram encontrados dois ou mais defeitos em um mesmo item. 12 CAPÍTULO 1 – INTRODUÇÃO Apresentação: A presente apostila trata dos principais tópicos da estatística descritiva e da estatística indutiva que faz parte do currículo de um curso de graduação em Engenharia. Procuramos resumir aqui os conhecimentos que julgamos necessários para termos um ponto de apoio em nossos primeiros passos a caminho da Estatística Inferencial. Não há pretensão de esgotar o assunto nesta apostila, mas simplesmente de auxiliar na compreensão dos princípios básicos da ciência Estatística. Como os conhecimentos são progressivos e ordenados, ela deve ser lida a partir do capítulo inicial. Os exercícios propostos foram escolhidos para esclarecer melhor o assunto e para acrescentar conhecimento. Assim, é de fundamental importância a sua resolução e discussão com colegas e professores. Como sabemos, todas as ciências têm suas raízes na história do homem. A Matemática, que é considerada “a ciência que une à clareza do raciocínio a síntese da linguagem”, originou-se do convívio social, das trocas, da contagem, com caráter prático, utilitário e empírico. O surgimento e o desenvolvimento da Estatística não foi diferente. A ciência não se baseia apenas em medições. Mesmo nas ciências que dependem grandemente de métricas quantitativas, a medição apenas não é suficiente. As quantificações devem permitir comparações. Isso implica a aceitação comum da sua fidedignidade, um modo de quantificar e expressar a incerteza associada às medições, bem como às inferências delas derivadas. A estatística moderna proporciona às ciências empíricas uma tecnologia quantitativa. É uma lógica e uma metodologia para a quantificação da incerteza e para uma análise das consequências dessa incerteza no planejamento e interpretação da experimentação e da observação. A estatística moderna é muito mais do que uma caixa de ferramentas, um saco de truques, ou uma miscelânea de técnicas isoladas. Há uma unidade subjacente aos métodos estatísticos. A Estatística, não é um ramo da Matemática Aplicada. Para os estatísticos é uma outra ciência, assim como a Física, e não apenas um parte da matemática, opinião esta que partilho. Como toda ciência, podemos dizer que a sua essência é a observação e o seu objetivo básico é a inferência (raciocínio, conclusão, dedução, indução, ou seja, inferir: deduzir pelo raciocínio). Podemos dizer ainda, que todo conhecimento humano está dominado pela noção de medida, ou que os estudos científicos, econômicos, estatais, têm seus fatos apresentados numericamente. Essa apresentação organizada recebe o nome de Estatística. Estatística é o estudo das populações, das variações e dos métodos de redução de dados (FISHER, 1970). A Estatística é uma coleção de métodos para: planejar experimentos, obter dados, organizar, resumir, analisar, e concluir sobre as informações coletadas (BERTOLO, 2008). A Estatística aplicada a problemas biológicos e/ou na área de saúde é chamada de Bioestatística ou Biometria. Bioestatística é a Estatística aplicada às ciências da vida (BERQUÓ, SOUZA e GOTLIEB, 1981). A combinação de ferramentas matemáticas e estatísticas, nas mais diversas áreas da ciência tem contribuído fundamentalmente para o desenvolvimento tecnológico da humanidade. Na química, esta combinação também é conhecida como quimiometria e a sua aplicação é verificada em diversas atividades, tais como: utilização de métodos de análise e de processos industriais, a análise e extração de informação relevante em dados químicos, imagens digitais e hiperespectral, entre outros (texto do Prof. Dr. Vanderlei Aparecido de Lima, 2012). Motivação: 13 A utilização de métodos estatísticos tem se tornado imprescindível nas mais diversas áreas do conhecimento humano, exigindo do acadêmico de graduação e pós-graduação um maior comprometimento com a disciplina. Porém, o excesso de formulações e cálculos contidos na literatura existente, acaba provocando um certo desinteresse quanto à real aplicação dos métodos de análise de dados. Todo profissional de Engenharia, não importa sua área de atuação, está constantemente exposto ao uso da Estatística, visto que os textos científicos raramente deixam de citar algum de seus numerosos aspectos. Por isso, é importante que ele domine, no mínimo, os aspectos básicos dessa ciência, para que esteja em condições de julgar aquilo que está lendo. A maior parte dos livros dessa área do conhecimento são, paraos iniciantes, de difícil compreensão, talvez pela abordagem excessivamente matemática. O que procura-se, nesta apostila, é apresentar o tema de um modo compreensível, para os que não são expert em matemática. Além do que, com o advento das calculadoras científicas e dos computadores e o surgimento dos softwares estatísticos, todos passaram a ter condições de executar cálculos estatísticos, pelo menos aqueles mais simples desde que dominem as noções básicas. Com o uso de calculadoras avançadas é possível resolver parte dos problemas, pois os cálculos se tornam extremamente simplificados. Ainda assim, torna-se necessário o conhecimento de conceitos básicos. Optamos por sacrificar as demonstrações sempre que estas envolvessem conhecimentos de Matemática que julgamos estarem acima das possibilidades dos leitores para os quais escrevemos esse texto. Segundo, Ulysses Doria Filho, doutor em Pediatria pela Faculdade de Medicina da Universidade de São Paulo (FM-USP), grande parte das publicações na área da Saúde apresenta problemas metodológicos e estatísticos. E acrescenta, Yassuhiko Okay, professor titular da Departamento de Pediatria da FM-USP, podemos “ter comido gato por lebre” ao aceitar conclusões, que careciam de fundamentação metodológica e estatística, de autores de artigos científicos. No entanto, a estatística não realiza milagres. Ela apenas traduz, em linguagem adequada e científica, aquilo que o fenômeno que se investiga está querendo dizer. Não há como “forçar a barra”. Um projeto de pesquisa mal formulado metodologicamente não pode ser salvo pela Estatística. VARIABILIDADE Ribeiro e ten Caten (2000) “Apesar de nossa formação ser basicamente determinística, ensinando que 1 + 1 é igual a 2 e 15 + 5 é igual a 20, vivemos em um mundo onde tudo varia. Por exemplo, alguém que tem o hábito de preparar um churrasco no fim de semana pode ter comprado dois quilos de carne inúmeras vezes, mas ele nunca recebeu exatamente 2,00 Kg. Da mesma forma, o seu trajeto para o trabalho pode incluir um trecho de 15 min., feito de automóvel, mais um trecho de 5 min., feito a pé, mas você nunca fez todo o trajeto em exatamente 20:00 min.” “Similarmente, os processos produtivos dependem de vários parâmetros (pressão, temperatura, velocidade, etc.); esses parâmetros deveriam ser mantidos em certos níveis, mas eles irão apresentar variabilidade. Consequentemente, os produtos resultantes de processos de manufatura, ou de processos de prestação de serviço, também irão apresentar variabilidade. Um eixo usinado terá um diâmetro final de aproximadamente 50,0 mm. Em um restaurante, você será servido em aproximadamente 20 min.” “A variabilidade está sempre presente em qualquer processo onde ocorre a produção de bens ou serviços, independentemente de quão bem ele seja projetado e operado. Se compararmos duas peças quaisquer, produzidas pelo mesmo processo, suas medidas jamais serão exatamente idênticas. As medidas feitas em um lote, podem estar todas dentro das especificações, mas mesmo assim a variabilidade estará presente.” 14 “As fontes de variabilidade podem agir de forma diferente sobre o processo. Conforme a fonte de variabilidade, o resultado pode ser: (i) pequenas diferenças peça-a-peça, em função da habilidade do operador ou diferenças de matéria-prima, (ii) alteração gradual no processo, em função do desgaste de ferramentas ou mudança na temperatura do dia, e (iii) alteração brusca no processo, devido a alguma mudança de procedimento, ou queda de corrente, ou troca de setup, etc.” “As fontes de variabilidade interferem nos processos de produção de bens ou serviços, fazendo com que os produtos finais não sejam exatamente idênticos. Isso pode conduzir a produtos defeituosos, ou seja, produtos cujas características não satisfazem a uma determinada especificação.” ROTEIRO BÁSICO PARA UM PROJETO DE PESQUISA EM ESTATÍSTICA 1o Passo) Justificativa. 2o Passo) Objetivos da pesquisa. 3o Passo) Formulação das hipóteses. 4o Passo) Detalhamento do plano de trabalho estatístico. 5o Passo) Plano de coleta de dados. 6o Passo) Teste piloto. 7o Passo) Instrução aos entrevistados ou aos observadores. 8o Passo) Realização da pesquisa. 9o Passo) Análise dos resultados. 10o Passo) Apresentação de relatórios de conclusão. VER LIVROS, SLIDES DA UFRGS E LOESCH (CAP. 2) DICAS PARA A APRESENTAÇÃO DO ESTUDO DE CASO Dicas para a elaboração dos slides: 20 minutos para a apresentação, logo utilize no máximo de 20 lâminas (ideal seriam 15 slides), passando rápido pelo referencial teórico e gastando um número maior de lâminas nos procedimentos metodológicos e resultados encontrados, algo assim: 1. Titulo (1 slide) 2. Introdução ou contextualização (globalização, concorrência, por exemplo) (1 slide) 3. Tema (1 slide) 4. Objetivos (1 slide) 5. Justificativa (1 slide) 6. Referencial (2 slides) 7. Procedimentos metodológicos (2 slides) 8. Resultados (2 slides) Seja objetivo na revisão teórica, destacando os principais achados que vão influenciar teu trabalho; os slides devem ser objetivos, limpos (pouco texto). Linguagem mais telegráfica. Evite: excesso de cores; excesso de informação (sempre reduzir apenas para frases-chaves). Além disto, não usar todo o espaço do slide é preciso deixar margem à esquerda e à direita. Preze pela qualidade de informações e dimensionamento. 15 E por último, sugiro que você treine bastante para não passar dos 20 minutos. Utilize o gravador do Power point... Bom trabalho, Abraços, Prof. Donizetti. Glossário, Definições e Conceitos Preliminares Conjunto: é uma coleção de objetos e os objetos de um conjunto são chamados elementos. “A cardinalidade do espaço amostral é o número total de elementos no conjunto. O espaço amostral pode ter cardinalidade finita ou infinita. Por exemplo, no caso do lançamento de um dado de seis faces, a cardinalidade do espaço amostral é 6. No caso da escolha de um entre todos números reais, a cardinalidade é infinita. A cardinalidade de um conjunto A pode ser representada por #A”. Eventos mutuamente exclusivos são aqueles que não podem ocorrer simultaneamente. Portanto, dois eventos A e B são mutuamente exclusivos se a sua intersecção é nula, isto é, A B = . Dito de outra forma, “dois ou mais eventos são mutuamente exclusivos quando a realização de um exclui a realização do(s) outro(s)”. Axioma: a palavra axioma é usada para indicar uma afirmação formal considerada verdadeira, dispensando provas (demonstrações). Na Matemática moderna, os axiomas de uma teoria são proposições consideradas verdadeiras e em geral não são provados com a estrutura da teoria em questão. Todas as outras proposições da teoria, tem de ser obtidas de modo puramente lógico a partir dos axiomas propostos. Em suma, axiomas são os princípios básicos sob os quais a teoria será construída. Referências: Gnedenko, B.V. The theory of probability. Moscow: Mir Publishers, 1969. SANT’ANNA, A.S. O que é um axioma. Barueri, SP: Manole, 2003. Teorema: as propriedades que podem ser obtidas como consequências lógicas dos axiomas são os teoremas. No enunciado da maioria dos teoremas existem duas partes: a parte do “se”, chamada de hipótese e a parte do “então”, chamada de conclusão. A argumentação que verifica a veracidade de um teorema é uma demonstração (ou prova), a qual consiste em mostrar que a conclusão é consequência de se admitir a hipótese como verdadeira. Variável: Uma variável, em estatística, é um símbolo usado para representar qualquer elemento de um conjunto dado. “Compreende-se como população o conjunto de indivíduos, objetos ou entes que têm pelo menos uma variável comum observável. Uma amostra é qualquer subconjunto de elementos extraídos da população; portanto, é uma parte da população. Contrapõe-seao censo, que é uma coletânea de informações sobre toda a população. É evidente que, através do censo, se tem a informação completa, não apresentando portanto, os riscos a que uma amostra está sujeita. Contudo, nem sempre o censo é possível. Fatores como custo da amostragem, tempo disponível ou impossibilidade de acesso a todos os elementos restringem, na maioria das vezes, a possibilidade de realização do censo. Outras vezes, como no controle de qualidade industrial, a produção contínua obriga a considerar a população (a produção) teoricamente infinita” (LOESCH, 2012). “Encontramos na natureza dois tipos de fenômenos: determinísticos e aleatórios. Os fenômenos determinísticos são aqueles em que os resultados são sempre os mesmos, qualquer que seja o número de ocorrências. Nos fenômenos aleatórios, os resultados não são previsíveis, mesmo que haja um grande número de repetições do mesmo fenômeno. Nestes, as condições do experimento podem determinar somente o comportamento probabilístico do resultado observável” (LOESCH, 2012). Estatística inferencial × Estatística descritiva: 16 Estatística descritiva: aplicação de métodos numéricos (cálculo de medidas de tendência central e variabilidade, por exemplo), tabelas de frequências e gráficos na organização e apresentação da informação em uma forma sucinta. Estatística inferencial: estimação pontual de parâmetros, estimação de intervalos de confiança e teste de hipóteses, por exemplo. O que é uma distribuição de probabilidade? Ribeiro e ten Caten (2000) Devido à variabilidade inerente do processo, as medidas individuais são diferentes, mas em grupo elas tendem a formar um padrão. Quando o processo é estável, esse padrão pode ser descrito por uma distribuição de probabilidade. Uma distribuição de probabilidade é um modelo matemático que relaciona um certo valor da variável em estudo com a sua probabilidade de ocorrência. Há dois tipos de distribuição de probabilidade: Distribuições Discretas: Quando a variável que está sendo medida só pode assumir certos valores, como por exemplo os valores inteiros: 0, 1, 2, ... Ocorrem em experimentos que requerem contagem. Ex.-> Distribuição Binomial, Poisson Distribuições Contínuas: Quando a variável que está sendo medida é expressa em uma escala contínua, como no caso de uma característica dimensional. Ocorrem em experimentos que requerem medidas. Exemplos: tensão elétrica, pressão (força/área), ... Ex.-> Distribuição Normal Os conceitos de experimento, espaço amostral e evento: Experimento é o termo utilizado em estatística para indicar a realização de algo, ou a observação de algo, que acontece sob certas condições, levando a um resultado. No experimento aleatório não podemos prever o que vai acontecer. Exemplo: (i) lançar um dado; (ii) retirar uma carta do baralho. Espaço amostral => todas as possibilidades de um evento. Devido à imprevisibilidade ou ao elemento do acaso no experimento, o tipo de modelo matemático usual envolvendo equações determinísticas é inadequado e um novo tipo de estrutura matemática é necessário para representar os fenômenos de interesse, denominados processos estocásticos. Uma vez que o resultado do experimento não é previsível, ele vai ser um dentre os muitos resultados possíveis. O espaço amostral de um experimento aleatório é o conjunto de todos os resultados possíveis do experimento, sendo geralmente denotado por S (space) ou (letra grega ômega). Normalmente, é interessante focalizar a atenção em subconjuntos do espaço amostral S. Para tanto, define-se um evento como qualquer subconjunto E do espaço amostral S, isto é, E ⊂ S. 17 Espaço amostral, eventos e probabilidades (LOESCH, 2012) “Muito embora não sejamos capazes de afirmar que resultado particular irá ocorrer em um experimento probabilístico, se pudermos descrever o conjunto de todos os resultados possíveis do experimento, temos seu espaço amostral”. “Para cada experimento probabilístico , o espaço amostral associado é o conjunto de todos os resultados possíveis de . Um espaço amostral pode ser um conjunto finito, infinito enumerável ou infinito não enumerável. Considerem-se os exemplos a seguir”. Experimento Espaço amostral associado 1: lançamento de um dado; observar número da face superior 1 = {1, 2, 3, 4, 5, 6} 2: sortear 4 assinantes de uma lista telefônica e contar o número de assinantes sorteados que sejam do gênero feminino 2 = {0, 1, 2, 3, 4} 3: lançar uma moeda até que saia cara pela primeira vez; contar o número de lançamentos 3 = {1, 2, 3, 4, 5, ...} 4: a partir de determinado instante, registrar o tempo necessário até que ocorra a primeira ligação telefônica 4 = [0, +[ 5: registrar a temperatura em um determinado momento em uma determinada localidade 5 = [m, M] em que m e M são as temperaturas mínima e máxima possível. 6: uma moeda é lançada duas vezes; observar sequência de resultados 6 = {(F,F); (F, K); (K, F); (K, K)}, por considerar F = cara e K = coroa) “No experimento 1 de lançamento de um dado, o espaço amostral é 1 = {1, 2, 3, 4, 5, 6}. Caso desejemos nos referir, ao realizar um experimento, à ocorrência de um resultado par, o mesmo fica caracterizado pelo subconjunto {2, 4, 6} de 1, o qual é um evento.” Para maiores detalhes sobre definições, axiomas, e exemplos envolvendo teoria de probabilidade, favor consultar material de apoio (PAPOULIS, 1991, capítulos 1 e 2). O conceito de variável aleatória: Quando uma lâmpada entra em operação, o seu tempo de vida não pode ser predito. Esse é um exemplo de variável aleatória (ou estocástica) contínua. Por outro lado, o lançamento de um dado é uma variável aleatória (ou estocástica) discreta. O conjunto S = {1, 2, 3, 4, 5, 6} e o intervalo real de unidades de tempo S = [0, +∞) são os espaços amostrais correspondentes a esses dois experimentos. Nesses experimentos, são eventos: número par na face que ficou voltada para cima: E = {2, 4, 6} e lâmpada com tempo de vida inferior a 400 unidades de tempo: E = [0, 400). Assim, uma variável aleatória é uma função que aloca um ponto do espaço amostral a cada resultado de um experimento aleatório. Em outras palavras, uma variável aleatória é uma função associada a um experimento, sendo que a realização do experimento leva essa variável a assumir um valor dependente do acaso, mas pertencente ao respectivo espaço amostral. Modelos: Modelos são representações da realidade em estudo. Alguns tipos de modelos: modelo analógico, modelo icônico, modelo matemático, modelo probabilístico, modelo estatístico ou estocástico. Figura – Modelo Matemático (y = 2x + 3) x Modelo Estatístico (y^ = 5,21x + 10,53) 18 MODELOS Adaptado a partir de Barbetta et al. (2010) “Os modelos podem ser considerados como alguma representação da realidade em estudo, destacando aspectos relevantes e desprezando detalhes insignificantes. Em geral, eles servem para simplificar, descrever e facilitar a interpretação daquilo que se está estudando”. “Na engenharia, o estudante costuma defrontar com os chamados modelos determinísticos, isto é, conhecidas as entradas x1, x2, ..., xk, o modelo permite chegar ao resultado y, usando uma função y = f(x1, x2, ..., xk). É o que acontece, por exemplo, com a Lei de Ohm, em que, dadas a tensão (x1) e a resistência (x2) de um circuito simples, podemos calcular o fluxo da corrente elétrica (y) por: 2 1 x xy “Muitas vezes, porém, as condições do experimento não permitem deduzir qual o resultado, mas somente a chance (ou a probabilidade) de possíveis resultados. É o caso da observação da face voltada para cima no lançamento imparcial de uma moeda perfeitamente equilibrada. Antes da realização do experimento não se tem como dizer o resultado, mas érazoável atribuir probabilidade 0,5 para cara e 0,5 para coroa. É um exemplo de modelo probabilístico ou estocástico”. “Um exemplo menos trivial de modelo probabilístico é a descrição do número de indivíduos que chegam a uma fila, ou do número de pacotes de dados que chegam a um servidor por segundo. Como veremos futuramente, sob certas condições e admitindo que a taxa média de chegadas por segundo é (um valor positivo e fixo), a probabilidade de chegar exatamente k pacotes em um dado segundo é de, aproximadamente: ! )( ekP k em que ...,2,1,0k 845905...2,7182818211lim x x x e Esse tipo de modelo pode auxiliar o projetista a planejar a capacidade de um sistema computacional. Assista ao documentário disponível em: http://www.youtube.com/watch?v=xLr68J2yDJ8. Todo estudante já deve ter-se defrontado com os modelos mecanísticos, caracterizados por serem totalmente deduzidos do conhecimento sobre o fenômeno físico em questão – a Lei de Ohm é um exemplo. De outro lado estão os chamados modelos empíricos, que são construídos com base em observações reais sobre o problema em estudo. Por exemplo, podemos ter interesse em conhecer a relação entre a resistência à compressão de um concreto e seu tempo de hidratação. Para isso, podemos realizar um experimento, que resulta em observações dessas duas variáveis. A Figura abaixo apresenta os resultados da resistência (MPa*) de 11 corpos de prova, com tempos de hidratação entre 10 e 20 dias. Corpo de prova Tempo de Hidratação (dias) Resistência (MPa) 1 10 11,3 2 11 12,1 3 12 16,4 4 13 16,3 5 14 20,2 6 15 20,5 7 16 25,0 8 17 26,4 9 18 26,2 10 19 28,4 11 20 30,2 Figura – Resultados de um experimento sobre resistência à compressão de concreto, em função do tempo de hidratação — dados e gráfico 19 “A Figura anterior mostra que não se tem uma função matemática simples para explicar exatamente a relação entre as duas variáveis em questão. Contudo, o gráfico expõe os pontos em torno de uma reta. Ou seja, podemos admitir que a resistência esperada do concreto se relaciona linearmente com o tempo de hidratação; e o fato de os pontos observados não estarem exatamente sobre uma reta é porque existem inúmeros fatores não controláveis que agem sobre o processo – o erro experimental. “Uma função matemática que explica aproximadamente o relacionamento entre duas ou mais variáveis, construída com base em dados observados, pode ser considerada um modelo de regressão, um tipo especial de modelo empírico. Dado um problema, o conhecimento de engenharia é fundamental para escolher adequadamente as variáveis e, às vezes, a forma funcional (uma reta, uma parábola, etc.), mas a construção completa do modelo é feita através dos dados. No exemplo em questão, a Figura apresentada sugere que uma reta (y = a + bx) descreve aproximadamente o relacionamento. As 11 observações da resistência (y) para diferentes tempos de hidratação (x) são usadas para obter valores de a e b adequados, conforme estudaremos futuramente. A Figura a seguir mostra a equação de regressão analítica e graficamente. O chapéu sobre y é para diferenciar o modelo (a reta) dos valores efetivamente observados (os pontos). xy 95,101,8ˆ em que x é o tempo de hidratação e yˆ é o valor de resistência predito pelo modelo. Figura – Exemplo de um modelo empírico para explicar a resistência de um concreto, em função do tempo de hidratação. Obs.: * O pascal (símbolo: Pa) é a unidade padrão de pressão e tensão no sistema internacional (SI). Equivale a força de 1 N aplicada uniformemente sobre uma superfície de 1 m². O nome dessa unidade é uma homenagem a Blaise Pascal, eminente matemático, físico e filósofo francês. MPa = megapascal = 106 pascal. A Figura a seguir apresenta um programa escrito na planilha eletrônica de cálculos MS-Excel que executa uma regressão linear simples. Veremos isso em um capítulo posterior. Nome do arquivo: Regressao_Linear_Programa_Prof_Donizetti_22outubro2013.xls 20 FASES HISTÓRICAS DA ESTATÍSTICA – UM POUCO DE HISTÓRIA E ALGUMAS ESTÓRIAS? Adaptado/compilado a partir de: http://www.alea.pt/html/nomesEdatas/swf/biografias.asp?art=10 e http://www.mat.ufrgs.br/~vigo/historia.html Primeira Fase: “A origem da palavra Estatística está associada à palavra latina status (Estado). Há indícios de que 3000 anos a.C. já se faziam censos na Babilônia, China e Egito e até mesmo o 4º livro do Antigo Testamento (Números) faz referência à uma instrução dada a Moisés, para que fizesse um levantamento dos homens de Israel que estivessem aptos para guerrear. Usualmente, estas informações eram utilizadas para a taxação de impostos ou para o alistamento militar. O Imperador César Augusto, por exemplo, ordenou que se fizesse o Censo de todo o Império Romano (63 a.C. a 14 d.C.).” “A palavra "CENSO" é derivada da palavra "CENSERE", que em Latim significa "TAXAR". Em 1085, Guilherme, O Conquistador, solicitou um levantamento estatístico da Inglaterra, que deveria conter informações sobre terras, proprietários, uso da terra, empregados e animais. Os resultados deste Censo foram publicados em 1086 no livro intitulado "Domesday Book" (http://www.fordham.edu/halsall/source/domesday1.asp) e serviram de base para o cálculo de impostos.” “Contudo, mesmo que a prática de coletar dados sobre colheitas, composição da população humana ou de animais, impostos, etc., fosse conhecida pelos egípcios, hebreus, caldeus e gregos, e se atribuam a Aristóteles 180 (cento e oitenta) descrições de Estados, apenas no século XVII a Estatística passou a ser considerada disciplina autônoma, tendo como objetivo básico a descrição dos bens do Estado.” Desde a queda do império romano passou praticamente um milênio sem que se conheçam estatísticas importantes, a não ser as realizadas por Pipino, em 758, e por Carlos Magno, em 762, sobre as terras que eram propriedade da Igreja. Desde então, muitos Estados ordenaram estudos para melhor conhecerem determinadas características da população, nomeadamente para determinarem leis sobre impostos e número de homens disponíveis para combater. Esta foi a primeira fase do que, hoje, se chama Estatística. Segunda Fase: No século XVII, na Inglaterra, iniciou-se uma segunda fase em que já se analisavam grupos de observações numéricas relacionadas à saúde pública, nascimentos, mortes e comércio. Nesta fase, distinguiram-se John Graunt (1620-1674) e William Petty (1623-1687), que procuraram leis quantitativas para traduzir fenômenos sociais e políticos. “A palavra Estatística foi cunhada pelo acadêmico alemão Gottfried Achenwall (1719-1772), que foi um notável continuador dos estudos de Hermann Conrig (1606-1681). A escola alemã atingiu sua maturidade com A. L. von Schlozer (1735-1809), mas sempre com ideias diferentes daquelas que fundamentaram a Estatística Moderna. Com algum exagero, pode-se dizer que o seu principal legado foi o termo "STAATENKUNDE", que deu origem à designação atual. Na Enciclopédia Britânica, o verbete "STATISTICS" apareceu em 1797.” “Em contraposição à natureza eminentemente qualitativa da escola alemã, na Inglaterra do século XVII surgiram os aritméticos políticos, dentre os quais destacaram-se John Graunt (1620-1674) e William Petty (1623-1687). Eles preocuparam-se com o estudo numérico dos fenômenos sociais e políticos, na busca de leis quantitativas que pudessem explicá-los. O estudo consistia essencialmente de exaustivas análises de nascimentos e mortes, realizadas por intermédio das Tábuas de Mortalidade, que deram origem às atuais Tábuas de Mortalidade usadas pelas companhias de seguros. Um dos resultados mais importantes foi a constatação de que o percentual de nascimentode crianças do sexo masculino (51%) é levemente superior ao do sexo feminino (49%). Dessa forma, a 21 escola dos aritméticos políticos pode ser considerada o berço da Demografia. Um de seus mais notáveis adeptos foi o pastor alemão Sussmilch (1707-1767), com o qual pode-se dizer que a Estatística aparece pela primeira vez como meio indutivo de investigação.” “John Graunt homem muito estudioso, um dos fundadores da Royal Society, viveu em uma época marcada pelo nascimento da ciência moderna. Foi o primeiro estatístico a fazer o tratamento estatístico de dados demográficos e a tentar aplicar a teoria a problemas reais. Não estudou em nenhuma universidade mas viveu em um período de grande atividade intelectual, marcado pelo nascimento da ciência moderna.” “Em 1662, Graunt publicou o famoso “Natural and Political Observations on the London Bills of Mortality” (Observações Naturais e Políticas da taxa de mortalidade londrina). Este foi o seu primeiro tratamento estatístico de dados demográficos. Estudou a mortalidade na cidade de Londres e as incidências das causas naturais, sociais e políticas nesse fenômeno. Por meio das Tábuas de Mortalidade realizadas no auge da peste negra na cidade de Londres, Graunt fez uma análise exaustiva do número de pessoas que morriam de várias doenças e estimou o número de nascimentos de homens e mulheres. Foi o primeiro estatístico a fazer observações entre sexos e mostrou que nasciam mais homens que mulheres e que por cada 100 pessoas nascidas, 36 morriam aos 6 anos e 7 sobreviviam até aos 70 anos.” “Cinquenta cópias da sua obra foram apresentadas à Royal Society e foi nomeado um comitê para examinar o livro, o qual deu um parecer favorável. A sua obra chamou a atenção de Carlos II (Rei de Inglaterra) que propôs a Graunt ser sócio fundador da Royal Society. Em 1664 foi eleito para o conselho da Royal Society, onde foi o primeiro participante regular das reuniões até Abril de 1666. “Com o seu amigo William Petty (1623-1687) fundou a escola dos "Aritméticos Políticos" que se preocupava com o estudo numérico dos fenômenos sociais e políticos. ” Terceira Fase: Historicamente, o propósito dos estudiosos da teoria das probabilidades limitava-se aos estudos dos jogos de azar, cujo interesse estava voltado em planejar estratégias de apostas. A limitação no estudo da teoria das probabilidades retardou por muito tempo o seu desenvolvimento como disciplina no campo da Matemática. Até que Pierre-Simon de Laplace publica, em 1812, o livro “Theorie Analytique des Probabilités”, no qual aborda a definição clássica de probabilidade. A partir daí o progresso desta teoria não parou, novos estudos foram realizados ao longo do tempo, proporcionando aos estudiosos a aplicação da probabilidade na solução de diversos problemas presentes no cotidiano das pessoas. O desenvolvimento do Cálculo das Probabilidades surge também no século XVII. A ligação das probabilidades com os conhecimentos estatísticos gerou uma nova dimensão à Estatística. Considera- se assim uma nova fase, a terceira, em que se começa a fazer inferência estatística. Três nomes importantes ligados a esta fase são: Fermat (1601-1665), Pascal (1623-1662) e Huygens (1629-1695). “Outra área de investigação extremamente importante para o desenvolvimento da Estatística é a Teoria das Probabilidades. Usualmente, costuma-se atribuir a origem do Cálculo de Probabilidades às questões relacionadas aos jogos de azar que o célebre cavaleiro Méré (1607-1684) encaminhou à Blaise Pascal (1623-1662). No entanto, outros autores sustentam que o Cálculo de Probabilidades teve a sua origem na Itália, com especial referência para Luca Pacioli (1445-1517), Girolamo Cardano (1501-1576), Nicolo Fontana Tartaglia (1500-1557) e Galileo Galilei (1564-1642).” “Três anos depois de Pascal ter previsto que a "aliança do rigor geométrico" com a "incerteza do azar" daria lugar a uma nova ciência, Christiaan Huygens (1629-1695) publicou o trabalho denominado "De Raciociciis in Ludo Aleae", que é considerado o primeiro livro sobre o Cálculo de Probabilidades. Além disso, ainda teve a notável particularidade de introduzir o conceito de esperança matemática.” 22 “Gottfried Wilhelm von Leibniz (1646-1716) também dedicou-se ao estudo do Cálculo de Probabilidades, publicando um trabalho sobre a "arte combinatória" e outro sobre aplicações às questões financeiras. Leibniz também estimulou Jacques Bernoulli (1654-1705) ao estudo do Cálculo de Probabilidades, cuja grande obra, denominada "Ars Conjectandi", foi publicada oito anos após a sua morte. Em “Ars Conjectandi” de Jacques Bernoulli, foi publicada e rigorosamente provada a Lei dos Grandes Números de Bernoulli, considerada o primeiro teorema do limite. Pode-se dizer que graças às contribuições de Bernoulli o Cálculo de Probabilidades adquiriu o status de ciência.” “Além da obra póstuma de Bernoulli, o início do século XVII foi marcado pelos livros de Pierre Rémond de Montmort (1678-1719), denominado "Essai d'Analyse sur les Jeux de Hazard", e de Abraham De Moivre (1667-1754), intitulado “The Doctrine of Chances”. “De Moivre era Francês de nascimento, mas desde a sua infância refugiou-se na Inglaterra devido às guerras religiosas, fazendo aplicações ao cálculo de anuidades e estabelecendo uma equação simples para a lei da mortalidade entre 22 anos e o limite da longevidade que fixou em 86 anos. Mais tarde, na "Miscellanea Analytica", apresentou resultados aos quais Laplace deu uma forma mais geral e que constituem o segundo teorema limite. “É extremamente importante falar, também, do reverendo Thomas Bayes (1702-1761) a quem se deve o conceito de probabilidade inversa, relacionado com situações em que se caminha do particular para o geral. No seu livro denominado "Essay towards solving a problem of the doctrine of chances" (Philosophical Transactions of the Royal Society of London, 1764-65, póstumo), Bayes formula através do teorema que leva seu nome e do postulado que tantas vezes se lhe associa, a primeira tentativa de matematização da inferência Estatística. Mesmo sem ter publicado nenhum trabalho com seu nome, em 1742 Thomas Bayes foi eleito membro da Royal Society of London. Para ver uma relação de alguns trabalhos publicados por Bayes”, acesse o site: http://www-groups.dcs.st- and.ac.uk/~history/References/Bayes.html. “Os estudos dos astrônomos Pierre-Simon Laplace (1749-1827), Johann Carl Friedrich Gauss (1777- 1855) e Lambert Adolphe Jacques Quetelet (1796-1874) foram fundamentais para o desenvolvimento do Cálculo de Probabilidades. Devido aos novos métodos e ideias, o trabalho de Laplace de 1812, intitulado "Théorie Analytique des Probabilités", até o presente é considerado um dos mais importantes trabalhos sobre a matéria. “Johann Carl Friedrich Gauss, professor de astronomia e diretor do Observatório de Gottingen, em 1809 apresentou o estudo intitulado "Theoria combinationis Observatorium Erroribus Minimis Obnoxia", explanando uma teoria sobre a análise de observações aplicável a qualquer ramo da ciência, alargando o campo de aplicação do Cálculo de Probabilidades.” “Com Lambert Adolphe Jacques Quetelet, por sua vez, inicia-se a aplicação aos fenômenos sociais. O seu escrito "Sur l'homme et le développement de ses facultés" foi publicado em segunda edição com o título "Physique sociale ou Essai sur le développement des facultés de l'homme", que incluía pormenorizada análise da teoria da probabilidade. Quetelet introduziu também o conceito de "homem médio" e chamou particular atenção para a notável consistência dos fenômenos sociais. Por exemplo, mostrou que fatores como a criminalidade apresentam permanências em relação a diferentes países e classes sociais.” “Antoine Augustin Cournot (1801-1877) percebeu a importância da Teoria das probabilidades na análise estatística, tendo sidoo pioneiro no tratamento matemático dos fenômenos econômicos. Suas ideias foram publicadas em "Exposition de la théorie des chances et des probabilités". “Na segunda metade do século XIX a Teoria das Probabilidades atingiu um dos pontos mais altos com os trabalhos da escola russa fundada por Pafnuty Lvovich Chebyshev (1821-1894), que contou com representantes como Andrei Andreyevich Markov (1856-1922) e Aleksandr Mikhailovich Lyapunov (1857-1918).” 23 “Contudo, o seu maior expoente foi Andrey Nikolayevich Kolmogorov (1903-1987), a quem se deve um estudo indispensável sobre os fundamentos da Teoria das Probabilidades, denominado "Grundbegrife der Warscheinlichkeitrechnung", publicado em 1933. Em 1950 foi traduzido para o Inglês sob o título "Foundations of Probability". Para ver uma relação de alguns trabalhos publicados por Kolmogorov”, acesse o site: http://www-groups.dcs.st-and.ac.uk/~history/References/ Kolmogorov.html. Quarta Fase: No século XIX inicia-se a última fase do desenvolvimento da Estatística, alargando e interligando os conhecimentos adquiridos nas três fases anteriores. Nesta fase, inicia-se uma dependência dos diferentes ramos do saber relativamente à Estatística. Dois dos grandes nomes associados a esse desenvolvimento são: Ronald A. Fisher (1890-1962) e Karl Pearson (1857-1936). Mais detalhadamente, tivemos: “Na última metade do século XIX, os alemães Helmert (1843-1917) e Wilhelm Lexis (1837-1914), o dinamarquês Thorvald Nicolai Thiele (1838-1910) e o inglês Francis Ysidro Edgeworth (1845-1926), obtiveram resultados extremamente valiosos para o desenvolvimento da Inferência Estatística, muitos dos quais só foram completamente compreendidos mais tarde. Contudo, o impulso decisivo deve-se a Karl Pearson (1857-1936), William S. Gosset (1876-1937) e, em especial, a Ronald A. Fisher (1890-1962).” “Karl Pearson (1857-1936) formou-se em 1879 pela Cambridge University e inicialmente dedicou-se ao estudo da evolução de Darwin, aplicando os métodos estatísticos aos problemas biológicos relacionados com a evolução e hereditariedade. Em 1896, Pearson foi eleito membro da Royal Society of London.” “Entre 1893 e 1912 escreveu um conjunto de 18 artigos denominado “Mathematical Contribution to the Theory Evolution”, com contribuições extremamente importantes para o desenvolvimento da teoria da Análise de Regressão e do Coeficiente de Correlação, bem como do teste de hipóteses de qui-quadrado. Em sua maioria, seus trabalhos foram publicados na revista “Biometrika”, que fundou em parceria com Walter Frank Raphael Weldon (1860-1906) e Francis Galton (1822-1911). Além da valiosa contribuição que deu para a teoria da regressão e da correlação, Pearson fez com que a Estatística fosse reconhecida como uma disciplina autônoma. Uma coleção de seus artigos foi publicada em "Karl Pearson Early Statistical Papers" (Ed. por E. S. Pearson, Cambridge University Press, 1948). Para ver uma relação de alguns trabalhos publicados por Karl Pearson”, acesse o site: http://www-groups.dcs.st-and.ac.uk/~history/References/Pearson.html. “William Sealey Gosset (1876-1937) estudou Química e Matemática na New College Oxford. Em 1899 foi contratado como Químico da Cervejaria Guiness em Dublin, desenvolvendo um trabalho extremamente importante na área de Estatística. Devido à necessidade de manipular dados provenientes de pequenas amostras, extraídas para melhorar a qualidade da cerveja, Gosset derivou o teste t de Student baseado na distribuição de probabilidades t.” “Esses resultados foram publicados em 1908 na revista “Biometrika”, sob o pseudônimo de Student, dando origem a uma nova e importante fase dos estudos estatísticos. Gosset usava o pseudônimo de Student, pois a Cervejaria Guiness não desejava revelar aos concorrentes os métodos estatísticos que estava empregando no controle de qualidade da cerveja. Os estudos de Gosset podem ser encontrados em "Student Collected Papers" (Ed. por E.S.Pearson e J. Wishart, University College, Londres, 1942). Para ver uma relação de alguns trabalhos publicados por Gosset”, acesse o site: http://www-groups.dcs.st-and.ac.uk/~history/References/Gosset.html. “A contribuição de Ronald Aylmer Fisher (1890-1962) para a Estatística Moderna é, sem dúvidas, a mais importante e decisiva de todas. Formado em astronomia pela Universidade de Cambridge em 1912, foi o fundador do célebre Statistical Laboratory da prestigiosa Estação Agronômica de Rothamsted, contribuindo enormemente tanto para o desenvolvimento da Estatística quanto da 24 Genética. Ele apresentou os princípios de planejamento de experimentos, introduzindo os conceitos de aleatorização e da Análise da Variância, procedimentos muito usados atualmente.” “No princípio dos anos 20, estabeleceu o que a maioria aceita como a estrutura da moderna Estatística Analítica, através do conceito da verossimilhança (likelihood, em inglês). O seu livro intitulado "Statistical Methods for Research Workers", publicado pela primeira vez em 1925, foi extremamente importante para familiarizar os investigadores com as aplicações práticas dos métodos estatísticos e, também, para criar a mentalidade estatística entre a nova geração de cientistas. Os trabalhos de Fisher encontram-se dispersos em numerosas revistas, mas suas contribuições mais importantes foram reunidas em "Contributions to Mathematical Statistics" (J. Wiley & Sons, Inc., Nova Iorque, 1950).” “Fisher foi eleito membro da Royal Society em 1929 e condecorado com as medalhas Royal Medal of the Society e Darwin Medal of the Society em 1938 e em 1948, respectivamente. Em 1955 foi novamente condecorado, desta vez com a medalha Copley Medal of the Royal Society. Para ver uma relação de alguns trabalhos publicados por Fisher”, acesse o site: http://www-groups.dcs.st- %20and.ac.uk/~history/References/Fisher.html. A Estatística e Deming: Deming nasceu em 14 de outubro de 1900 em Sioux City, Iowa. Em 1921 licenciou-se em Física, na Universidade do Wyoming e, em 1928, doutorou-se em Matemática pela Yale University. O impacto das suas ideias foi de tal forma elevado que Deming é, hoje, considerado “o pai do milagre industrial japonês”. Morreu em 1993, com 93 anos. Em sua homenagem, a JUSE (Japan Union of Scientists and Engineers) instituiu o Deming Prize, que premia anualmente as melhores empresas no campo da qualidade. Deming foi condecorado pelo imperador do Japão com o mais elevado galardão atribuído a um estrangeiro: a Medalha de 2ª Ordem do Sagrado Tesouro. Os Estados Unidos só o descobriram na década de 80. Em 1986, Reagan atribuiu-lhe a National Medal of Technology e nesse ano foi lançado o livro “Out of Crisis”, a obra que consolidou de vez a sua fama como o grande mestre da qualidade. Veja um vídeo ilustrativo no site: http://www.youtube.com/watch?v=tDu47czfwiI#t=11. Como exposto anteriormente, inicialmente a Estatística envolvia: compilações de dados e gráficos representativos dos vários aspectos de um estado ou país, taxa de mortalidade, taxa nascimento, renda, taxas de desemprego, etc. Hoje, a Estatística não se limita apenas ao estudo da Demografia e da Economia. O seu campo de aplicação alargou-se à análise de dados em Biologia, Medicina, Física, Psicologia, Indústria, Comércio, Meteorologia, Educação, Engenharia, etc., e ainda a domínios aparentemente desligados, como Estrutura de Linguagem e estudo de Formas Literárias. Segundo Loesch (2012), “pesquisadores das áreas das Ciências Exatas, Sociais e Aplicadas e da Saúde valem-se da Estatística para tarefas como calcular estimativas, computar índices diversos, apresentar dados de forma sistemática por meio de gráficos e/ou tabelas, fazer previsões e testar hipóteses. Na área de Marketing, esse domínio auxilia a descobrir nichos de mercado, hábitos e preferências de consumidores”. Ainda, segundo esse autor:“existem muitos desenvolvimentos na Estatística cujas aplicações são direcionadas a determinadas áreas, como a análise de sobrevida (para a Medicina) e o Controle Estatístico de Processos (para o Controle de Qualidade)”. Na sua origem, a Estatística estava ligada ao Estado, como já aqui foi referido. Hoje, não só se mantém esta ligação, como todos os Estados e a sociedade em geral dependem cada vez mais dela. Por isso, em todos os Estados existe um Departamento ou Instituto Nacional de Estatística. No Brasil nós temos o IBGE (Instituto Brasileiro de Geografia e Estatística), enquanto no Paraná, temos o IPARDES (Instituto Paranaense de Desenvolvimento). “E assim continua até hoje: estimativas do tamanho da população, taxas de natalidade e de mortalidade, índices de desemprego e de inflação são dados constantemente atualizados e divulgados. Mantendo a continuidade, organizações governamentais costumam criar e manter 25 órgãos oficiais para levantamento de dados dessa natureza, como o IBGE* no Brasil. Essas informações são sumamente importantes, pois substanciam não só tomadas de decisão política como também são empregadas por empresários e pela população de modo geral” (LOESCH, 2000). *O Instituto Brasileiro de Geografia e Estatística, mais conhecido por sua sigla IBGE, é uma fundação pública da administração federal brasileira, com atribuições ligadas às geociências e estatísticas sociais, demográficas e econômicas, o que inclui realizar censos e organizar as informações obtidas nesses censos, para suprir órgãos das esferas governamentais federal, estadual e municipal, e para outras instituições e o público em geral. Hoje, podemos encontrar diversos exemplos que ilustram a utilização e a aplicação das probabilidades. Por exemplo, a previsão de produção de milho para o próximo ano, a constatação de falha mecânica em um sistema de prevenção contra vazamento em uma usina nuclear, a avaliação do impacto de uma redução no número de funcionários de determinado setor de uma empresa, etc. “Atualmente, a Teoria das Probabilidades tem muita importância e várias aplicações em estatística, economia, engenharia, física, química, sociologia, biologia e vários outros campos do conhecimento. Seu estudo se justifica pelo fato de a maioria dos fenômenos de que trata a Estatística ser de natureza probabilística, essencial para o estudo da inferência estatística” (LOESCH, 2012). Hoje em dia, os meios de comunicação de massa ou mídias, entre eles os jornais, as revistas, o rádio, a televisão e, mais recentemente a Internet, popularizaram os conceitos e noções da teoria das probabilidades. Este fato contribuiu para a interação estimulante e flexível entre a teoria e o dia a dia das pessoas, desmistificando a associação inicial de probabilidade com os “jogos de azar”. Perceba, portanto, que a probabilidade está muito mais presente na sua vida do que você, até então, poderia imaginar! Marcos históricos da Teoria de Probabilidade...Mais um pouco de História... Resumidamente... Adaptado de: http://www.lsilva.uac.pt/Ensino/teaching.html#Bio “A História registra censos, para fins de alistamento militar e de coleta de impostos, realizados há mais de 4000 anos, como é o caso do censo do imperador Yao na China, em 2200 a.C. Em todo esse tempo, a Estatística era meramente o trabalho de exibição e síntese dos dados obtidos pelo censo. O astrônomo e matemático belga Adolphe Quételet (1796-1874), em torno de 1850, foi o pioneiro em medir e observar apenas uma pequena amostra do universo envolvido e, a partir de análise probabilista, estender os resultados da amostra para todo o universo. Portanto, não é de se estranhar que a palavra Estatística provenha do latim status, que significa estado, pois sua primitiva utilização envolvia coletas de dados e construções de gráficos que descreviam vários aspectos de um estado ou país” (LOESCH, 2012). “Os primeiros estudos matemáticos sobre probabilidades (“chances”) foram feitos pelos italianos Cardano (1501-1576) e Galileu Galilei (1564-1642), e tratavam de jogos de dados. A correspondência trocada entre Pascal (1612-1668) e Fermat (1601-1665) — em que ambos chegam a uma solução correta de um célebre problema da divisão das apostas em um jogo de azar — representou o impulso inicial à Teoria das Probabilidades” (LOESCH, 2012). “Huyghens (1629-1695) publicou, em 1657, “De Ratiociniis in Ludo Aleae” (“Sobre o raciocínio em jogo de dados”), que é considerado o primeiro livro sobre cálculo das probabilidades, com a particularidade de introduzir o conceito de esperança matemática” (LOESCH, 2012). “Leibniz (1646-1716) publicou duas obras, uma sobre a “arte combinatória” e outra sobre as aplicações do cálculo das probabilidades às questões financeiras. Foi ainda devido ao conselho de Leibniz que Jacques Bernoulli se dedicou ao aperfeiçoamento da teoria” (LOESCH, 2012). “O primeiro trabalho prático na área dos seguros de vida é devido a Halley, em 1693. No seu trabalho “Degrees of Mortality of Mankind”, Halley mostrou como calcular o valor da anuidade do seguro em 26 termos da expectativa de vida da pessoa e da probabilidade de que ela sobrevivesse por um ou mais anos” (LOESCH, 2012). “Por volta do ano 1700 começa um período de rápido desenvolvimento para a Teoria das Probabilidades. Jacob Bernoulli escreveu “Ars Conjectandi” (“Arte da conjectura”), publicado em 1713, alguns anos após a morte do autor. Nessa obra encontramos, entre outras coisas, a importante proposição conhecida como Teorema de Bernoulli, pelo qual, pela primeira vez, a Teoria das Probabilidades ascendeu do nível elementar de soluções de problemas particulares a um resultado de importância geral. Já De Moivre, em sua obra “The Doctrine of Chances”, primeira edição em 1718, formula pela primeira vez um teorema conhecido como regra de multiplicação das probabilidades. Nas obras de Bernoulli e de De Moivre, a teoria dos jogos de azar foi desenvolvida ainda mais à base da definição clássica de probabilidade, e vários métodos combinatórios e outros métodos matemáticos foram aplicados à teoria” (LOESCH, 2012). “Os livros de Bernoulli e De Moivre foram as contribuições mais importantes no período inicial da Teoria das Probabilidades antes de Laplace. Nenhum outro livro de maior importância foi publicado até 1812, quando Pierre Simon de Laplace (1749-1827) escreveu, com base em trabalhos que desenvolveu entre 1771 e 1786, seu grande tratado, “Théorie analytique des Probabilités”. Os fundamentos da teoria de probabilidade foram então colocados por Laplace em uma forma (hoje dita clássica) que se manteve praticamente inalterada até o início do século XX. Nesse tratado, Laplace fez novas contribuições e reuniu, sistematizou e ampliou resultados desenvolvidos por seus predecessores. Estabeleceu os métodos de equações diferenças e de funções geratrizes e deu uma nova formulação e uma prova do teorema central do limite” (LOESCH, 2012). “Thomas Simpson, cujas principais contribuições foram em análise matemática, foi o primeiro a usar distribuições de probabilidade contínuas e a desenvolver uma teoria sistemática de erros de medidas aleatórias, independentemente do conceito de variáveis aleatórias, que mais tarde, em torno de 1770, foi redescoberta por Joseph-Louis Lagrange (1736-1813), o genial autor de “Méchanique analytique”” (LOESCH, 2012). “Thomas Bayes (1702-1761) escreveu o trabalho matemático “Essay Towards Solving a Problem in the Doctrine of Chances”, publicado pela Royal Society em 1763, três anos após sua morte. A originalidade e a importância do conceito de probabilidade inversa introduzido por Bayes nesse trabalho o imortalizaram. Suas conclusões foram aceitas por Laplace em um artigo de 1781, que deduziu, no segundo volume de sua “Théorie analytique”, a fórmula hoje conhecida como regra de Bayes. Os conceitos
Compartilhar