Baixe o app para aproveitar ainda mais
Prévia do material em texto
Métodos Estatísticos Aplicados à Produção Material Teórico Responsável pelo Conteúdo: Profa. Ms. Luciana Borin de Oliveira Revisão Técnica: Prof. Me. Carlos Henrique de Jesus Costa Revisão Textual: Profa. Esp. Kelciane da Rocha Campos Probabilidade • Probabilidade • Conceitos • Probabilidade condicional • Teorema do Produto • Independência Estatística • Lei binominal da probabilidade • Teorema de Bayes • Distribuição de probabilidade discreta O objetivo desta unidade é conhecer as definições envolvidas em Estatística aplicada à produção: · Probabilidade; · Incertezas. OBJETIVO DE APRENDIZADO Caro(a) aluno(a), Leia atentamente o conteúdo desta unidade, que lhe possibilitará conhecer as aplicações do estudo de Probabilidade em Engenharia. Você também encontrará nesta unidade uma atividade composta por questões de múltipla escolha, relacionadas com o conteúdo estudado. Além disso, terá a oportunidade de trocar conhecimentos e debater questões no Fórum de discussão. É extremamente importante que você consulte os materiais complementares, pois são ricos em informações, possibilitando-lhe o aprofundamento de seus estudos sobre este assunto. ORIENTAÇÕES Probabilidade UNIDADE Probabilidade Contextualização Como vimos, várias são as aplicações para Probabilidade. Leia este texto, retirado do site do Instituto de Matemática da Universidade Federal do Rio Grande do Sul: Probabilidades na Engenharia Controle de qualidade da produção industrial A primeira pessoa a estudar matematicamente o controle da qualidade foi W. Gosset (mais conhecido por seu pseudônimo, Student) quando, no início do séc. XX, trabalhava numa fábrica de cerveja. Sucederam-se algumas aplicações de âmbito fechado, restrita ao setor militar (França: M. Dumas) e às atividades internas da Western Electric Company. Contudo, é só em torno de 1930 que surgem os primeiros tratados de cunho prático e destinado a engenheiros: o The Economic Control of the Quality of Manufactured Products (de W. A. Shewart, da Bell Telephone Co., USA, 1929 ) e o The Application of Statistical Methods in Industrial Standartization and Quality Control ( de Egon. S. Pearson, Inglaterra, 1935). Por essa mesma época, surgem as primeiras comissões tratando da uniformização das normas do controle estatístico da qualidade: o Joint Committe for the Development of Statistical Applications in Engineering and Manufacturing, americano, e a Section of Industrial and Agriculture Researches, na Royal Statistical Society of London. Apesar desses pioneiros, a real difusão dos métodos estatísticos na engenharia só iniciou durante a Segunda Guerra. Entre 1941 e 1942 os americanos e os ingleses desenvolveram um grande programa, procurando disseminar a prática do controle de qualidade estatístico na produção militar. Vários manuais foram escritos e divulgados amplamente. Especialmente decisiva foi a adoção desses manuais pelas universidades americanas que faziam parte do Engineering and Science War Training Program. Terminada a guerra, rapidamente tornou-se norma a inclusão de cursos de Probabilidades e Estatística em todos os cursos de engenharia americanos, ingleses e, logo, de outros países. Fonte: http://goo.gl/MBuUXz. Acesso em: 11 out. 2015. Escolha a área em que você atua ou próxima a ela e busque dados que possam ser analisados. Você pode usar também dados do dia a dia, como, por exemplo: qual a probabilidade de falhas numa produção de 1000 peças/dia? Aplique o conceito estudado, faça tabelas e gráficos, use planilhas eletrônicas. Avalie seu processo, calcule as probabilidades desses dados. Compare os dados! 6 7 Probabilidade Defi nição Probabilidade é uma palavra que vem do latim probare (testar ou provar). Podemos definir provável como algo que é incerto ou do qual não se tem certeza absoluta. O termo provável ainda pode ser utilizado para descrever o que é duvidoso e também ser associado com sorte, azar, risco. Portanto, estuda-se a teoria das probabilidades para que se possam avaliar as possibilidades de determinados fenômenos ocorrerem. Provavelmente, as teorias da probabilidade surgiram para que o homem pudesse obter alguma forma de predizer resultados em jogos de azar, muito frequentes na Idade Média; para que alguns pudessem obter vantagem em apostas sobre os outros, pois aquele que conseguisse estimar ou prever com maior chance um evento futuro obteria vantagem. Hoje em dia, uma aplicação da probabilidade muito importante relaciona- se fortemente com a questão de confiabilidade. Nos segmentos industriais de fabricação de bens de consumo, como automóveis, por exemplo, a questão da confiabilidade está intimamente relacionada com a qualidade e garantia do produto. Essa teoria é utilizada, então, com a intenção de que se diminua a probabilidade de falha no produto produzido. Conceitos • Experimento aleatório: é todo evento estatístico que gera resultados imprevisíveis. • Espaço Amostral → S: são todos os resultados possíveis da observação experimental aleatória. • Evento → A: é qualquer conjunto formado com dados do espaço amostral. Por exemplo, no caso hipotético de lançamento de um dado, podemos considerar como A o evento de ocorrer um número par no lançamento do dado. • Evento → A = {2,4,6} • Espaço Amostral → S = {1,2,3,4,5,6} 7 UNIDADE Probabilidade Conceito de probabilidade P(A) = n(A) n(S) , onde n(A): número de possibilidade desejada. n(S): número de possibilidade de ocorrência. Do nosso exemplo: n(A) = 3: há 3 possibilidades de ocorrência de número par (2,4 e 6) em um lançamento de dado. n(S) = 6: há 6 possibilidades de ocorrência de 1 número aleatório (1,2,3,4,5 e 6) em um lançamento de dado. P(A) = 3 6 = 1 2 • Evento Certo: resultado ≤ 6 → Evento que sempre ocorre. • Evento Impossível: resultado > 6 → Evento que nunca ocorre. • Evento Complementar (A) : corresponde a todo resultado possível do espaço amostral que não faz parte do Evento → (A) = S - A • Evento União: seja o evento A com a possibilidade de ocorrência de número par menor ou igual a 4 → A = {2 e 4} e B a possibilidade de ocorrência de número par maior ou igual a 4 → B = {4 e 6}. O evento C = {2, 4 e 6} representa o conjunto das possibilidades de ocorrência de número par que é a união dos eventos A e B. C = A B C → contém todos os dados de A e B. P(A B) = P(A) + P(B)- P(A B)∪ ∩ • Evento Intersecção: seja o evento A com a possibilidade de ocorrência de número par menor ou igual a 4 → A = {2 e 4} e B a possibilidade de ocorrência de número par maior ou igual a 4 → B = {4 e 6}. O evento C = {4} representa o conjunto das possibilidades de ocorrência de número par que é a interseção dos eventos A e B. C B C= →A contém todos os dados comuns aos conjuntos A e B. 8 9 • Eventos Mutuamente Exclusivos: seja o evento A com a possibilidade de ocorrência de número múltiplo de 2 → A = {2, 4 e 6} e B a possibilidade de ocorrência de número múltiplo de 5 → B = {5}. Consideramos nesse caso, então, os eventos como mutuamente exclusivos, porque A B = ∅ → não há nenhum dado em comum entre os elementos A e B. Propriedades 1. → P(S) = 1 2. → P(0) = 0 3. → ≤ ≤0 P(A) 1 4. → P(A) + P(A) = 1 Probabilidade condicional Considerando dois eventos A e B de um espaço amostral (S), representamos a probabilidade de A condicionada a B → P(A|B), isto é, representamos a probabilidade de A tendo ocorrido B, que é representada pela equação: P(A B) = n(A B) n(B) | Exemplificando, vamos calcular qual seria a probabilidade de, num lançamento de um dado não viciado, obtermos um número ímpar (evento A), sabendo-se que esse número ocorrido foi um número menor que 5 (evento B). • Evento A: a ocorrência de um número impar→ A = {1,3 e 5} • Evento B: a ocorrência de o número ser também menor que 5 → B = {1,2,3 e 4} A B = {1 e 3} n(A B) = 2 → quantidades de elementos do evento (A B) n(B) = 4 → quantidades de elementos do evento B. P(A|B) = n n = 2 4 = 1 2 ( ) ( ) A B B 9 UNIDADE Probabilidade Teorema do produto Considerando dois eventos A e B contidos em um espaço amostral (S), não vazio, teremos AB a probabilidade de ocorrência simultânea entre A e B. Partindo de P(A|B) = n A B n B ( ) ( ) e dividindo por n(S) tanto numerador quanto denominador, temos: P(A|B) = n A B n B n(B) n(S) P(A B) P(B) ( ) ( ) = logo P A B P(B)( ) xP(A|B) = e de mesmo modo P B A P(A) B( ) xP( | ) = A Exemplificando: qual seria a probabilidade de, em um lançamento de um dado não viciado, obtermos um número menor que 5 e ímpar? • Evento A: possibilidade de ocorrer um número impar → A = {1,3 e 5} • Evento B: possibilidade de esse número ser menor que 5 → B = {1,2,3 e 4} P A B) = 1 2 ( | P(B) = n(B) n(S)’ , sendo n(B) = 4 e n(S) = 6 P(B) = 4 6 = 2 3 P(A B)=P(B) x P(A|B ) = x∩ 2 3 1 2 1 3 = 10 11 Independência estatística Consideramos que dois eventos A e B de um espaço amostral (S) são independentes quando a ocorrência ou não do evento B não tem interferência na probabilidade na ocorrência do evento A. P(A|B) = P(A) e P(B|A) = P(B) Quando há n eventos independentes, A1, A2, ... An, temos: P A A A P A x P A x... x P An( ... ) ( ) ( ) ( )1 2 1 2 n = Exemplificando: consideremos o lançamento de 3 moedas seguidas. Qual é a probabilidade de sair coroa 3 vezes seguidas? A A A A A P A x P A x P A x x 1 2 3 1 2 3 1 2 2 1 2 1 2 1 2 1 2 1 2 = = = = = = P(A ) ( ) ( ) ( ) = 3 1 8 Outro exemplo: podemos considerar uma caixa com 9 bolas, sendo 4 bolas brancas e 5 bolas pretas. Qual é a probabilidade de retirarmos 2 bolas de forma aleatória da caixa, sem reposição, sendo brancas? A bola branca P A A bola branca P A 1 1 2 2 1 2 1 4 9 2 3 8 = → ( ) = = → ( ) = ( ) = ª ª P A A P AA xP A x1 2 4 9 3 8 1 6 ( ) ( ) = = 11 UNIDADE Probabilidade Lei binomial da probabilidade P(x = k) = Cn,k*p *(1 - p) k n - k P = probabilidade da ocorrência do evento. (1-P) = probabilidade de não ocorrência do evento. n = quantidade de eventos. k = quantidade da ocorrência desejada. Cn,k = n! k!* (n-k)! Exemplificando: consideremos o lançamento de um dado por 3 vezes. Qual é a probabilidade da ocorrência do número 3 uma vez? k = 1 n = 3 P C(x ) * * ! !* ( )! *,= = = − 1 1 6 5 6 3 1 3 2 1 3 1 1 2 66 25 36 1 3 2 1 1 2 1 25 6 36 6 25 2 6 36 25 72 34 72 * ( ) * , %P x * * * * * * * * = = = = ≅ Teorema de Bayes Utilizamos quando um problema apresentado permite termos 2 alternativas possíveis, porém a chance de ocorrência delas nem sempre é a mesma, é como se num evento de lançamento de uma moeda, em que sempre temos o resultado de cara ou coroa e a probabilidade de 50% para cada um desses dois eventos, houvesse um peso relacionado a 1 dos resultados possíveis. O teorema de Bayes é representado pela fórmula: P(A )|B) P A P B A P A P B Ai i i i i = ∑ ( ) * ( | ) ( ) * ( | ) ’ Onde i = 1,2,3,...,n e A1, A2, A3, ..., An são eventos mutuamente exclusivos. 12 13 Exemplificando: considerando a tabela a seguir, qual é a probabilidade de escolha ao acaso de uma bola vermelha, sendo que essa bola veio da urna 1? Urna 1 Urna 2 Urna 3 Vermelho 3 2 4 Azul 2 3 2 Branco 4 1 2 • Probabilidade de escolha de 1 bola de cada uma das urnas P(urna ) = P(urna ) = P(urna ) = 1 31 2 3 • Probabilidade de se extrair uma bola vermelha de cada 1 das urnas: P(vermelho/urna ) P(vermelho/urna ) P(vermelho/u 1 2 = = = = 3 9 1 3 2 6 1 3 rrna )3 = = 4 8 1 2 Vamos calcular, então, a probabilidade de a bola ser vermelha e vir da urna 1. P Vermelha urna P u P verm u P u P verm u p u p | * | * | *1 1 1 1 1 2 ( ) = ( ) ( )( ) ( ) + ( ) vverm u P u P verm u P Vermelha urna | * | | * 2 3 3 1 1 3 1 3 ( ) + ( ) ( ) = ( ) = + + 1 3 1 3 1 3 1 3 1 3 1 2 * * * = = = ( ) ≅ 1 9 7 18 18 9 7 18 63 28 571 * | , %P Vermelha urna Distribuição de probabilidade discreta Variável aleatória discreta Como já estudamos anteriormente, a variável aleatória discreta é aquela que assume um valor associado a um intervalo de medição, como, por exemplo, a quantidade de gols ocorrida numa partida de futebol, o número de aluno em uma sala de aula, etc. Para um experimento A com o espaço amostral S = {a1, a2,...., an}, temos que qualquer função que promove a transformação dos valores de cada elemento de S em um número real é chamada de variável aleatória, constituindo um único valor associado a cada elemento de tal experimento. A variável aleatória é aquela cujo valor está associado a alguma probabilidade de ser observado. 13 UNIDADE Probabilidade Definimos a distribuição de probabilidades como sendo a probabilidade associada a cada um dos valores da variável aleatória. Exemplo: No lançamento de 3 moedas, qual é a probabilidade de ocorrência de coroa nessas 3 moedas? x = número de coroas çamento das 3 moedas C = cara e K = coroa S = {(CCC)}; (CCK); (CKC); (CKK); (KKK); (KKC); (KCK); (KKC)} X = 0 só ocorre coroa (KKK), e tem → pprobabilidade X = 1 ocorre 1coroa e 2caras (CCK); (CKC) 1 8 → ;; (KCC), e tem probabilidade de 3 8 X = 2 ocorre 2 coroas→ e 1 cara (KKC); (KCK) e (KKC),e tem probabilidade de 3 8 X = 3 só ocorre cara (CCC), e tem probabilidadede 1 8 → Podemos representar a distribuição de probabilidades em uma tabela e utilizando o nosso exemplo: X=número de coroas obtidos P(X) 0 1/8=0,125 1 3/8=0,375 2 3/8=0,375 3 1/8=0,125 Podemos representar a distribuição de probabilidades em um gráfico e utilizando o nosso exemplo: Gráfico 1 14 15 Valor esperado de uma variável O valor esperado de uma variável, ou expectância, é a representação da média de uma distribuição de probabilidade de variáveis aleatórias discretas. O valor esperado é a soma de todos os produtos da variável aleatória discreta pela sua respectiva probabilidade. É representada por e é calculada através da fórmula: µ(x) = E (x) = x *P (x )i i∑ Exemplificando: consideremos a tabela que representa a distribuição de probabilidades associada à quantidade de carros que as famílias de uma cidade do interior de SP possuem: X=número de carros P(X) 0 7% 1 32% 2 35% 3 18% 4 8% Média xi P xi= = ( ) = + + + + = ∑µ µ * * , * , * , * , * , ,0 0 07 1 0 32 2 0 35 3 0 18 4 0 08 1 88 Propriedades da média: 1º supondo que µ( )x k= é verdade, quando x assume um único valor para k. 2º supondo que µ µ(k* ) * ( )x k= x é verdade quando k é um número real. 3º supondo que µ µ( ) * ( ) by a x= + é verdade quando y sendo uma variável aleatória dada por y= ax + b, sendo a e b números reais e x uma outra variável aleatória. Variância da variável aleatória A variância da variável aleatória discreta é calculada pela fórmula: σ µ σ 2 2 2 2 2 − = − = − ∑ ( ) * ( ) ( ) [ ( )] x P x Ou i i E x E x 15 UNIDADE Probabilidade Propriedades da variância 1º supondo que σ2 0()x = é verdade, quando x assume um único valor k. 2º σ σ2 2 2( * ) * ( )k x k x= 3º σ σ2 2 2(y) * ( )= a x quando y é dado por uma variável aleatória dada por y= ax + b Desvio padrão É obtido através da extração da raiz quadrada da variância σ σ2 2 Como já estudamos, os valores da variância e desvio padrão nos auxiliam a determinar quanto há de variação em relação à média dos resultados. Estão dispostos os dados e exemplificando isso vamos considerar as duas tabelas a seguir, que nos trazem as distribuições de probabilidade das taxas de retorno de dois investimentos: Investimento 1 Investimento 2 X(retorno) P(x) Y(retorno) P(x) -2,0% 12% -3,0% 16% -1,5% 20% -1,0% 23% 0,5% 40% 1,0% 30% 4,0% 18% 3,5% 16% 6,0% 10% 5,5% 15% Vamos completar as tabelas com as colunas de x*P(x), que a somatória nos dará a média e ( )x − µ 2 , onde a somatória nos dará a variância. Investimento 1 X(retorno) P(x) x*P(x) ( )x − µ 2 *P(x) -2,0% 12% -0,24% 0,00011 -1,5% 20% -0,30% 0,00012 0,5% 40% 0,20% 0,00001 4,0% 18% 0,72% 0,00016 6,0% 10% 0,60% 0,00025 µ = 0,98% 0,00065 Desvio padrão: σ σ= = =2 0 00065 0 0256, , 16 17 Investimento 2 X(retorno) P(x) x*P(x) ( )x − µ 2 *P(x) -3,0% 16% -0,48% 0,00025 -1,0% 23% -0,23% 0,00009 1,0% 30% 0,30% 0,00000 3,5% 16% 0,56% 0,00010 5,5% 15% 0,83% 0,00031 µ = 0,98% 0,00075 σ σ= = =2 0 00075 0 0274, , Como o desvio padrão relacionado à distribuição do investimento 1 é menor que de 2, podemos concluir que o investimento 1 é mais “seguro” que o 2. Distribuição binomial A distribuição de probabilidades binomial é utilizada em experimentos que atendam determinadas condições, das quais podemos descrever: • Para cada tentativa do experimento, só temos 2 tipos de resultado, ou “sucesso” ou “fracasso”; • Para cada tentativa do experimento, a probabilidade associada é sempre constante; • Toda tentativa do experimento é independente de outra tentativa, ou seja, não há influência de uma tentativa sobre outra; • No experimento, a variável de interesse estudada corresponde ao número de sucessos obtidos em “n” tentativas. Podemos calcular a probabilidade segundo a distribuição binomial, quando temos respeitado todos os quesitos acima através da fórmula: P(x=k) = n k *p *qk n-k Sendo: n = quantidade de eventos totais. k = quantidade de eventos bem sucedidos. p = probabilidade de sucesso. q = probabiliddade de fracasso, que é dado por 1-p n k = Cn,k = n! k !!(n-k)! 17 UNIDADE Probabilidade Exemplificando: qual seria a probabilidade de conseguirmos em 5 lançamentos de um dado, não viciado, o número 6 por duas vezes? çamentos. k = 2, a quantidade de lanç mentos bem suucedidos. p = 1/6 que é a probabilidade de sucesso. q = 1-p(( ) − = = que é a probabilidade de fracasso. n k 1 1 6 5 6 = C = 5! 2!(5-2) = 5*4*3! 2*1*3! = 10 P(2) = 5 2 n,k ≅* 1 6 * 5 6 = 5*1*125 2*36*216 = 625 15552 0,04 = 2 3 44% Distribuição de Poisson Quando uma variável aleatória se comporta através de uma distribuição binomial e há uma quantidade de eventos totais maior que 30, n>30 e com uma probabilidade de sucesso bem pequena, p<0,05, ela se comporta sob uma distribuição de Poisson. Na distribuição de Poisson, diferentemente da distribuição binomial, temos a probabilidade calculada de uma determinada. Pode ser usada para determinar a probabilidade de um dado número de sucessos quando os eventos são fixos, como em tentativas de lançamentos de moedas ou dados, em que a probabilidade calculada é relacionada com a ideia de um fluxo de tempo ou espaço, como, por exemplo, em: • Defeitos ocorridos por unidade de área. • Quantidade de acidentes ocorridos por unidade de tempo Considerando a probabilidade de ocorrência de X sucessos ocorridos em um intervalo de t (correspondente a área, tempo), temos que: P X t t e X , * ! ( ) = ( ) −λ λ x t Exemplificando: consideremos que o número de pessoas que passam por hora em um caixa de supermercado é de 3 clientes/h e se comporta através de uma distribuição de Poisson. Qual é a probabilidade de que cheguem ao caixa, nas próximas 2 horas, 4 clientes? P X e e e =( ) = ⋅( ) ⋅ = ⋅ ⋅ ⋅ ⋅ = ⋅ = − − 4 5 2 4 10 4 3 2 1 10000 24 10000 528 4 5 2 4 10 10 . ! 6635 179 0 019 1 9 , , , %≅ ≅ 18 19 Covariância e coefi ciente de correlação A covariância analisa a relação entre duas variáveis aleatórias, verificando o grau de dependência entre elas. É semelhante à variância, porém o seu valor verifica a relação entre duas variáveis. Por exemplo, num estudo hipotético de números de acidentes em uma linha de produção x quantidade de horas extras trabalhadas. Se a covariância for zero, implica dizer que as variáveis estudadas então são independentes. Já se o resultado for diferente de zero, dizemos então que poderá ocorrer dependência entre elas. Ela é expressa pela fórmula: Cov(x,y) x x y y) n-1 Cov(x,y) = E(x*y) - E(x) - E(y i i= − −∑ ( ) * ( Ou )) O coefi ciente de correlação Da mesma forma que a covariância, o coeficiente de correlação nos dá também o grau de relação entre duas variáveis. Ele é calculado a partir da covariância entre duas variáveis, e do seu cálculo temos o grau de correlação das duas variáveis de forma padronizada, indicando padrões lineares de relação entre as variáveis. Propriedades: • Quando r = 1, temos as duas variáveis perfeitamente correlacionadas. • Quando r = 1, as duas variáveis movem-se na mesma direção, e quando r = -1, as duas variáveis movem-se em direções opostas. • r é sempre maior que -1 e sempre menor que +1. • Quando r é próximo de zero, as duas variáveis não possuem relação entre elas. • Quando r>0,9, dizemos que a relação é forte. • Quando r<0,5, dizemos que a relação é fraca. • Quando r ≅ 0,7, dizemos que a relação é moderada. r = Cov(x,y) Sx*Sy Exemplificando: consideremos a distribuição conjunta de probabilidades das variáveis x e y, representada em uma distribuição binomial. Calcularemos, então, o coeficiente de correlação entre essas variáveis: x y -2 1 3 2 0,2 0,4 0,4 4 0,2 0,1 0,2 19 UNIDADE Probabilidade 1º Vamos calcular as probabilidades de x e y. x y -2 1 P(x) 1 0,2 0,3 0,6 3 0,1 0,1 0,4 P(y) 0,3 0,4 2º Vamos calcular E(y), E(x), E(xy), E(y) e E(x2). E(y) = E(x) = 1*(0,6) + 3*(0,4) − + + =2 0 3 1 0 4 3 0 3 0 7* ( , ) * ( , ) * ( , ) , = 1,8 E(xy)=1*(-2)*0,2+1*(0,3)*1+1*(0,1)*3+3*(-2)*0,1+3*(00,1)*1+3*(0,2)*3=1,7 E y( ) ( ) * ( , ) * ( , ) ( , ) ,2 2 2 22 0 3 1 0 4 3 0 3 4= − + + = 33 1 0 6 3 0 4 4 22 2 2E(x ) * ( , ) * ( , ) ,= + = 3º Vamos calcular a covariância: Cov(x,y) = E(x y) E(x) E(y)* * , ( , ) * ( , ) ,− = − =1 7 1 8 0 7 0 44 4º Vamos calcular os desvios padrões das variáveis X e Y. S E x E x S S E y E x 2 x y 2 = − = − = → = ≅ = − ( ) [ ( )] , ( , ) , , , ( ) [ 2 2 2 2 4 2 1 8 0 96 0 96 0 98 (( )] , ( , ) , , ,y Sx 2 24 3 0 7 3 81 3 81 1 95= − = → = ≅ 5º Calculamos, então, o coeficiente de correlação. r = Cov(x,y) S *S = 0,44 0,98*1,95 0,23 a correlaçãoo é frac x y ≅ → aa pois r < 0,5 Distribuição de probabilidade contínua Como sabemos, variável aleatória contínua é aquela em que seus valores assumem qualquer valor dentro de um intervalo de medição. Uma variável aleatória contínua é definida com os números reais inseridos em um intervalo entre 0 e 1. As variáveis aleatórias contínuas são representadaspor uma função onde f(x), que chamamos de função densidade de probabilidade, sendo uma função que apresenta as seguintes características: • f(x) ≥ 0, para todo x correspondente ao intervalo onde se encontra a variável aleatória. • A área abaixo da curva onde se encontra o intervalo da variável aleatória é 1. • A probabilidade associada a valores inseridos no intervalo [x1, x2] é a correspondente à área abaixo da curva onde estão inseridos os valores inseridos no intervalo [x1, x2]. 20 21 Exemplificando: consideremos uma variável aleatória x onde seus valores encontram-se em um intervalo {0 a 4} através da função densidade de probabilidade f(x) = 0,125x. A partir dos dados, qual é a probabilidade situada no intervalo entre 2 e 3? Tal função é descrita graficamente de tal forma: Gráfi co 2 A probabilidade associada ao intervalo entre 2 e 3 é a área abaixo da curva e nosso exemplo é a área hachurada e representamos como a probabilidade P(2≤x≥3). Como a área do triângulo é dado por (base x altura)/2, e a função f(x)= 0,5x, então: P P x P x2 3 3 2 3 3 0 125 2 2 2 0 125 2 0 5625 0≤ ≤( ) = ≤( ) − ≤( ) = ( ) − ( ) = −x * * , * * , , , 225 0 3125 31 25= =, , % Distribuição uniforme Uma distribuição é uniforme quando a função densidade de probabilidade da variável aleatória contínua é constante. A função que representa a distribuição uniforme é: f(x) 1 b-a , sendo a x b e b a≤ ≤ ≥ Gráfi co 3 21 UNIDADE Probabilidade Temos a média ( ) ( )x E x b+a = = 2 e variância x (b-a)22 12 = Exemplificando, vamos calcular a média e desvio padrão de uma variável aleatória contínua inserida numa distribuição uniforme dentro do intervalo [40, 120]. Qual é a probabilidade dessa mesma variável x encontrar-se entre 80 e 100? ( ) ( ) ( ) , e x , x x = + = + = = − = − = = b a b a 2 40 120 2 80 12 120 40 12 533 33 533 32 2 2 33 23 09 80 100 100 80 1 120 40 20 80 0 25 25 ≅ ≤ ≤ = − − = = = , ( ) ( ) * ( ) , %P x Distribuição normal É uma distribuição de variável contínua representada pela função: f x e ( ) *= ∏ − 1 2 1 2σ µ σ x Graficamente, temos: Gráfico 4 Propriedades: 1º A variável x pode assumir qualquer valor real. 2º O gráfico que representa a distribuição normal é uma curva no formato de sino, com a média µ. A curva é chamada de Curva Gauss ou Curva Normal. 3º área total ocupada pela área abaixo da curva é igual a 1, pois corresponde à área em que temos a probabilidade da variável x assumir qualquer valor real. 4º A curva de Gauss nunca alcança o eixo das abcissas, mas aproxima-se indefinidamente ao mesmo. 5º Devido ao fato de que a curva é simétrica em relação à média µ, tanto a probabilidade de ocorrência de um valor maior do que a média quanto a probabilidade de ocorrência de uma valor menor que a média são iguais a 0,5, e temos, então, P(x>µ) = P(x<µ) = 0,5. 22 23 Para facilidade de cálculo, podemos ter a distribuição normal reduzida, que é descrita com média igual a zero (µ = 0) e desvio padrão igual a 1 (σ = 1) e, assim, temos: z x = − µ σ Gráfi co 5 Utilizando a distribuição normal padronizada, achamos as probabilidades associadas a ela através de tabelas, facilitando nossos estudos, pois não temos que calculá-las. Exemplificando: consideremos que em uma determinada faculdade, as alturas dos estudantes seguem uma distribuição normal com a média de altura em 1,65 m e desvio padrão de 0,22 m. a) Qual é a probabilidade de um aluno medir entre a altura de 1,60 m e 1,75 m? P x P z x z( , , ) ( )1 60 1 75 1 2< ≤ = < ≤ z x 1 1 1 60 1 65 0 22 0 23= − = − ≅ − → µ σ , , , , da tabela, temos 0,0910, pois na tabela é o número associado a z=0,20 z x 2 12 1 75 1 65 0 22 0 45= − = − ≅ → µ σ , , , , da tabela, temos 0,1736 P P z z( , , ) ( ) , , , , %1 60 1 75 0 0910 0 1736 0 2646 26 461 2< ≤ = < ≤ = + = =X x que corresponde à área abaixo da curva normal entre 1,60m e 1,75, sendo µ= 1,65m Gráfi co 6 23 UNIDADE Probabilidade b) Qual é a probabilidade de um aluno medir mais de 1,80 m? P P z z Z x da tabela te (x , ) ( ) , , , , ≥ = ≥ = − = − ≅ → 1 80 1 80 1 65 0 22 0 68 3 3 3 µ σ mmos 0,2517 P(x ≥ = − = =1 80 0 5 0 2517 0 2483 24 83, ) , , , , % Gráfico 7 c) A partir de qual altura teremos 15 % dos alunos mais altos? Gráfico 8 , , 4 4 * − + da tabela temos que é o valor de z z x x z µ σ σ µµ x m4 1 04 0 22 1 65 1 88, * 35 0 35 1 04 4 4 4 % , , ,= → = → = = + ≅ , 24 25 Material Complementar Indicações para saber mais sobre os assuntos abordados nesta Unidade: Para complementar os conhecimentos adquiridos e enriquecer sua compreensão sobre o assunto tratado nesta unidade, consulte os livros a seguir, disponíveis na Minha Biblioteca: Livros Estatística aplicada e probabilidade para engenheiros MONTGOMERY, Douglas C.; RUNGER, George C. 5. ed. Rio de Janeiro: LTC, 2012. Probabilidade e estatística LOESCH, Cláudio. Rio de Janeiro: LTC, 2012. Probabilidade para engenharias MENDES, Flávia Cesar Teixeira. Rio de Janeiro: LTC, 2010. 25 UNIDADE Referências BUSSAB, W. O.; MORENTIN, P. A. Estatística básica. São Paulo: Saraiva, 2009. LOPES, Paulo Afonso. Probabilidade e estatística. Rio de Janeiro: Reichmann & Afonso Editores, 1999. MEYER, Paul. Probabilidade e aplicações à estatística. Rio de Janeiro: Ed. Ao Livro Técnico SA, 1974. PINHEIRO, J. I. D.; RAMIREZ, S. S.; CUNHA, S. B.; GOMES, G. C. Probabilidade e estatística: quantificando a incerteza. Curitiba: Editora Campus, 2012. PINHEIRO, J. I. D.; RAMIREZ, S. S.; CUNHA, S. B.; GOMES, G. C. Estatística básica: a arte de trabalhar com dados. Curitiba: Editora Campus, 2008. 26
Compartilhar