Prévia do material em texto
ESTATÍSTICA 17 Quando os eventos forem mutuamente exclusivos, tendo A ∩ B = Ø, utilizamos a seguinte equação: Probabilidade de um evento complementar É quando a soma das probabilidades de ocorrer o evento E, e de não ocorrer o evento E (seu complementar, Ē) é 1. Probabilidade condicional Quando se impõe uma condição que reduz o espaço amostral, dizemos que se trata de uma probabilidade condicional. Sejam A e B dois eventos de um espaço amostral U, com p(B) ≠ 0. Chama-se probabilidade de A condicionada a B a probabilidade de ocorrência do evento A, sabendo-se que já ocorreu ou que vai ocorrer o evento B, ou seja: Podemos também ler como: a probabilidade de A “dado que” ou “sabendo que” a probabilidade de B. – Caso forem dois eventos simultâneos (ou sucessivos): para se avaliar a probabilidade de ocorrem dois eventos simultâneos (ou sucessivos), que é P (A ∩ B), é preciso multiplicar a probabilidade de ocorrer um deles P(B) pela probabilidade de ocorrer o outro, sabendo que o primeiro já ocorreu P (A | B). Sendo: – Se dois eventos forem independentes: dois eventos A e B de um espaço amostral S são independentes quando P(A|B) = P(A) ou P(B|A) = P(B). Sendo os eventos A e B independentes, temos: P (A ∩ B) = P(A). P(B) Lei Binomial de probabilidade A lei binominal das probabilidades é dada pela fórmula: Sendo: n: número de tentativas independentes; p: probabilidade de ocorrer o evento em cada experimento (sucesso); q: probabilidade de não ocorrer o evento (fracasso); q = 1 - p k: número de sucessos. ATENÇÃO: A lei binomial deve ser aplicada nas seguintes condições: – O experimento deve ser repetido nas mesmas condições as n vezes. – Em cada experimento devem ocorrer os eventos E e . ESTATÍSTICA 18 – A probabilidade do E deve ser constante em todas as n vezes. – Cada experimento é independente dos demais. Exemplo: Lançando-se um dado 5 vezes, qual a probabilidade de ocorre- rem três faces 6? Resolução: n: número de tentativas ⇒ n = 5 k: número de sucessos ⇒ k = 3 p: probabilidade de ocorrer face 6 ⇒ p = 1/6 q: probabilidade de não ocorrer face 6 ⇒ q = 1- p ⇒ q = 5/6 Axiomas Na matemática, um axioma é uma hipótese inicial de qual outros enunciados são logicamente derivados. Pode ser uma sen- tença, uma proposição, um enunciado ou uma regra que permite a construção de um sistema formal. Diferentemente de teoremas, axiomas não podem ser derivados por princípios de dedução e nem são demonstráveis por derivações formais, simplesmente porque eles são hipóteses iniciais. Isto é, não há mais nada a partir do que eles seguem logicamente (em caso contrário eles seriam chamados teoremas). Em muitos contextos, “axioma”, “postulado” e “hipóte- se” são usados como sinônimos. Como foi visto na definição, um axioma não é necessariamente uma verdade auto evidente, mas apenas uma expressão lógica formal usada em uma dedução, vi- sando obter resultados mais facilmente. Axiomatizar um sistema é mostrar que suas inferências podem ser derivadas a partir de um pequeno e bem-definido conjunto de sentenças. Isto não signifi- ca que elas possam ser conhecidas independentemente, e tipica- mente existem múltiplos meios para axiomatizar um dado sistema (como a aritmética). A matemática distingue dois tipos de axiomas: axiomas lógicos e axiomas não-lógicos. Distribuições A distribuição da probabilidade é uma função que determina probabilidades para eventos ou proposições. Para qualquer conjun- to de eventos ou proposições existem muitas maneiras de determi- nar probabilidades, de forma que a escolha de uma ou outra distri- buição é equivalente a criar diferentes hipóteses sobre os eventos ou proposições em questão. Há várias formas equivalentes de se especificar uma distribuição de probabilidade. Talvez a mais comum é especificar uma função densidade da probabilidade. Daí, a proba- bilidade de um evento ou proposição é obtida pela integração da função densidade. A função distribuição pode ser também especificada direta- mente. Em uma dimensão, a função distribuição é chamada de função distribuição cumulativa. As distribuições de probabilidade também podem ser especificadas via momentos ou por funções ca- racterísticas, ou por outras formas. Uma distribuição é chamada de distribuição discreta se for definida em um conjunto contável e dis- creto, tal como o subconjunto dos números inteiros; ou é chamada de distribuição contínua se tiver uma função distribuição contínua, tal como uma função polinomial ou exponencial. A maior parte das distribuições de importância prática são ou discretas ou contínuas, porém há exemplos de distribuições que não são de nenhum desses tipos. Dentre as distribuições discretas importantes, pode-se citar a distribuição uniforme discreta, a distribuição de Poisson, a distri- buição binomial, a distribuição binomial negativa e a distribuição de Maxwell-Boltzmann. Dentre as distribuições contínuas, a distri- buição normal, a distribuição gama, a distribuição t de Student e a distribuição exponencial. Distribuição Binomial Em teoria das probabilidades e estatística, a distribuição bino- mial é a distribuição de probabilidade discreta do número de suces- sos numa sequência de n tentativas tais que as tentativas são inde- pendentes; cada tentativa resulta apenas em duas possibilidades, sucesso ou fracasso (a que se chama de tentativa de Bernoulli); a probabilidade de cada tentativa, p, permanece constante. Função de probabilidade: Se a variável aleatória X que contém o número de tentativas que resultam em sucesso tem uma distri- buição binomial com parâmetros n e p escrevemos X ~ B(n, p). A probabilidade de ter exatamente k sucessos é dado pela função de probabilidade: para e onde é uma combinação. Através do desenvolvimento do binômio e algumas operações com expoentes e fatoriais, é possível demonstrar que: Exemplo: Três dados comuns e honestos serão lançados. A pro- babilidade de que o número 6 seja obtido mais de uma vez é: A probabilidade de que seja obtido 2 vezes mais a probabilidade de que seja obtido 3 vezes. Usando a distribuição binomial de proba- bilidade: Acha-se a probabilidade de que seja obtido 2 vezes: Agora a probabilidade de que seja obtido 3 vezes: ESTATÍSTICA 19 Assim, a resposta é: Valor esperado e variância: Se a X ~ B(n, p) (isto é, X é uma variável aleatória binomialmente distribuida), então o valor esperado de X é e a variância é Exemplo: Seja X uma variável aleatória que contém o número de caras saídas em 12 lançamentos de uma moeda honesta. A probabi- lidade de sair 5 caras em 12 lançamentos, P(X=5), é dada por: Distribuição Normal A distribuição normal é uma das mais importantes distribuições da estatística, conhecida também como Distribuição de Gauss ou Gaussiana. Foi primeiramente introduzida pelo matemático Abraham de Moivre. Além de descrever uma série de fenômenos físicos e financeiros, possui grande uso na estatística inferencial. É inteiramente descrita por seus parâmetros de média e desvio padrão, ou seja, conhecendo-se estes consegue-se determinar qualquer probabilidade em uma distribuição Normal. Um interessante uso da Distribuição Normal é que ela serve de aproximação para o cálculo de outras distribuições quando o núme- ro de observações fica grande. Essa importante propriedade provém do Teorema do Limite Central que diz que “toda soma de variáveis aleatórias independentes de média finita e variância limitada é aproximadamente Normal, desde que o número de termos da soma seja suficientemente grande” (ver o teorema para um enunciado mais preciso). A distribuição normal foi introduzida pela primeira vez por Abraham de Moivre em um artigo no ano 1733, que foi reproduzido na segunda edição de seu The Doctrine of Chances (1738) no contexto da aproximação de distribuições binomiais para grandes valores de n. Seu resultado foi estendido por Laplace, em seu livro Analytical Theory of Probabilities (1812), e agora é chamado o teorema de Moivre- -Laplace. Laplace usou a distribuição normalna análise de erros de experimentos. O importante método dos mínimos quadrados foi introduzido por Legendre, em 1805. Gauss, que alegou ter usado o método desde 1794, justifica-o rigorosamente em 1809 assumindo uma distribuição normal para os erros. O fato de muitas vezes esta distribuição ser chamado de distribuição gaussiana pode ser um exemplo de Stigler’s Law. O nome “curva em forma de sino” ou “curva de sino” remonta a Esprit Jouffret que primeiro utilizou o termo “superfície de sino” em 1872 para um normal bivariada com componentes independentes (atentar que nem toda curva de sino é uma gaussiana). O nome “distri- buição normal”, foi inventado independentemente por Charles S. Peirce, Francis Galton e Wilhelm Lexis, por volta de 1875. Função de densidade de probabilidade: A função densidade de probabilidade da distribuição normal com média e variância (de forma equivalente, desvio padrão ) é assim definida, Se a variável aleatória segue esta distribuição escreve-se: ~ . Se e , a distribuição é chamada de distribuição normal padrão e a função de densidade de probabilidade reduz-se a, ESTATÍSTICA 20 Propriedades: Sejam a e b constantes conhecidas. - Se X segue uma distribuição normal, ~ , então ~ . - Se X e Y são variáveis aleatórias independentes que seguem distribuição normal, então a soma U = X + Y, a diferença V = X - Y ou qualquer combinação linear W = a X + b Y também são variáveis aleatórias com distribuição normal. - É fácil construir exemplos de distribuições normais X e Y dependentes (mesmo com correlação zero) cuja soma X + Y não é normal. Por exemplo, seja X uma distribuição normal padrão (média 0 e variância 1), então fixando-se um número real positivo a, seja Ya definida como X sempre que |X|