Buscar

Probabilidade e Estatística - Itaú

Prévia do material em texto

Instituto Tecnológico de Aeronáutica
Divisão de Engenharia Mecânica
MOQ-13/PO-210:
Probabilidade e Estatística
Profa. Denise Beatriz Ferrari
www.mec.ita.br/∼denise
denise@ita.br
2o. semestre/2017
SEMANA 08: Roteiro
I Distribuições Notáveis - parte II
– Poisson
– Exponencial
– Gama
Distribuições Notáveis - Parte II
recapitulando...
Processo de Bernoulli
Na aula passada, analisamos um tipo de processo aleatório que descreve
probabilisticamente a ocorrência de “sucessos” em uma série de repetições de
experimentos discretos independentes:
1. Existem apenas dois resultados possíveis
(que chamamos de “sucesso” ou “fracasso”)
2. Cada repetição do experimento ocorre independentemente da outra
3. A chance de obter “sucesso” (e, consequentemente, de obter fracasso) se mantém
constante para todos os experimentos.
4 / 1
recapitulando...
Vimos também algumas distribuições associadas a um Processo de Bernoulli:
1. X = número total de sucessos em n repetições do experimento de Bernoulli
X ∼ Bin(n, p)
2. X = número de experimentos necessários até observar o primeiro sucesso
X ∼ Geo(p)
3. X = número de experimentos necessários até observar k sucessos
X ∼ BinNeg(p, k)
5 / 1
recapitulando...
Vimos também algumas distribuições associadas a um Processo de Bernoulli:
1. X = número total de sucessos em n repetições do experimento de Bernoulli
X ∼ Bin(n, p)
2. X = número de experimentos necessários até observar o primeiro sucesso
X ∼ Geo(p)
3. X = número de experimentos necessários até observar k sucessos
X ∼ BinNeg(p, k)
5 / 1
recapitulando...
Vimos também algumas distribuições associadas a um Processo de Bernoulli:
1. X = número total de sucessos em n repetições do experimento de Bernoulli
X ∼ Bin(n, p)
2. X = número de experimentos necessários até observar o primeiro sucesso
X ∼ Geo(p)
3. X = número de experimentos necessários até observar k sucessos
X ∼ BinNeg(p, k)
5 / 1
recapitulando...
Vimos também algumas distribuições associadas a um Processo de Bernoulli:
1. X = número total de sucessos em n repetições do experimento de Bernoulli
X ∼ Bin(n, p)
2. X = número de experimentos necessários até observar o primeiro sucesso
X ∼ Geo(p)
3. X = número de experimentos necessários até observar k sucessos
X ∼ BinNeg(p, k)
5 / 1
recapitulando...
... e variações:
1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis
resultados de um experimento de De Moivre (multinomial)
X ∼ Multin(p1, p2, . . . , pm, n)
2. X = número total de sucessos em n repetições de um experimento de Bernoulli
quando a amostragem é realizada sem reposição
X ∼ HiperGeo(N, n, k)
3. X = número de repetições de um experimento de Bernoulli com amostragem sem
reposição até obter k sucessos
X ∼ HiperGeoNeg(N,K , k)
6 / 1
recapitulando...
... e variações:
1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis
resultados de um experimento de De Moivre (multinomial)
X ∼ Multin(p1, p2, . . . , pm, n)
2. X = número total de sucessos em n repetições de um experimento de Bernoulli
quando a amostragem é realizada sem reposição
X ∼ HiperGeo(N, n, k)
3. X = número de repetições de um experimento de Bernoulli com amostragem sem
reposição até obter k sucessos
X ∼ HiperGeoNeg(N,K , k)
6 / 1
recapitulando...
... e variações:
1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis
resultados de um experimento de De Moivre (multinomial)
X ∼ Multin(p1, p2, . . . , pm, n)
2. X = número total de sucessos em n repetições de um experimento de Bernoulli
quando a amostragem é realizada sem reposição
X ∼ HiperGeo(N, n, k)
3. X = número de repetições de um experimento de Bernoulli com amostragem sem
reposição até obter k sucessos
X ∼ HiperGeoNeg(N,K , k)
6 / 1
recapitulando...
... e variações:
1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis
resultados de um experimento de De Moivre (multinomial)
X ∼ Multin(p1, p2, . . . , pm, n)
2. X = número total de sucessos em n repetições de um experimento de Bernoulli
quando a amostragem é realizada sem reposição
X ∼ HiperGeo(N, n, k)
3. X = número de repetições de um experimento de Bernoulli com amostragem sem
reposição até obter k sucessos
X ∼ HiperGeoNeg(N,K , k)
6 / 1
Vamos analisar agora outro tipo de processo aleatório, que trata da descrição
probabilística da contagem de “sucessos” ocorrendo em domínio contínuo
(linear: tempo, comprimento, área, volume).
Por conveniência (e sem perda de generalidade), vamos analisar o caso em que
observamos certas ocorrências de um fenômeno de interesse no tempo.
7 / 1
Processo de Poisson
Processo de Poisson
Motivação
Suponha que observamos a chegada de
pessoas a um posto, onde está localizado um
caminhão pipa que fornece água no sertão e
que registramos o número de pessoas que
visitam o posto num certo período de tempo.
Em média, 10 famílias chegam ao caminhão
diariamente. O caminhão pipa tem
capacidade para abastecer no máximo 15
famílias.
Qual a probabilidade de que, em um
determinado dia, algumas famílias tenham
que ser desviadas para outro posto? “Os Retirantes” (1944). Cândido Portinari.
9 / 1
Processo de Poisson
O processo de chegada das pessoas não é completamente previsível.
As pessoas chegam ao posto em instantes aleatórios T1,T2, . . . durante o intervalo de
tempo (0, t].
As ocorrências no tempo podem ser representadas da seguinte maneira:
10 / 1
Processo de Poisson
Se iniciamos a contagem no instante de tempo igual a 0, então o número de pessoas
registradas N(t) no instante t > 0 é o resultado de um processo aleatório
{N(t) : t ≥ 0}, tal que:
. N(0) = 0
. N(t) ∈ {0, 1, 2, . . .}
. s < t ⇒ N(s) ≤ N(t)
Sejam t, s > 0 instantes quaisquer após o instante inicial t0 = 0:
. O intervalo (0, t] tem comprimento t
. O intervalo (t, t + s] tem comprimento s
11 / 1
Processo de Poisson
Seja:
P[N(t) = k]: probabilidade de exatamente k ocorrências em um intervalo de tempo
qualquer de comprimento t ≥ 0.
Então:
∞∑
k=0
P[N(t) = k] = 1,
ou seja, em cada intervalo de comprimento t, devemos ter exatamente ou zero, ou 1 ou
2, ou ..., e assim por diante, ocorrências.
Note que P[N(t) = k] é f.d.p. com respeito a k mas não é f.d.p. com respeito a t.
Podemos apenas garantir que:
0 ≤
∫ ∞
t=0
P[N(t) = k]dt ≤ ∞
12 / 1
Processo de Poisson
Vamos assumir que:
1. (Homogeneidade, estacionariedade fraca)
A probabilidade de exatamente uma ocorrência em um pequeno intervalo de
comprimento h é aproximadamente proporcional ao comprimento do intervalo:
P[N(h) = 1] = λh + o(h); lim
h→0
o(h)
h
= 0
2. A probabilidade de mais de uma ocorrência em um pequeno intervalo de
comprimento h é desprezível:
P[N(h) > 1] = o(h)
3. (Independência, ausência de memória)
O número de ocorrências em qualquer intervalo de comprimento h é independente
do histórico de ocorrências em outros instantes fora deste intervalo.
13 / 1
Processo de Poisson
Precisamos determinar, para qualquer valor de n:
Pn(s) = P[N(s) = n]
= P[exatamente n ocorrências em um intervalo de comprimento s]
Façamos, então, para n = 0, n = 1 e, assim, sucessivamente.
14 / 1
Processo de Poisson
Precisamos determinar, para qualquer valor de n:
Pn(s) = P[N(s) = n]
= P[exatamente n ocorrências em um intervalo de comprimento s]
Façamos, então, para n = 0, n = 1 e, assim, sucessivamente.
14 / 1
Processo de Poisson
(1). Para n = 0:
P0(t + h) = P[nenhuma ocorrência no intervalo (0, t + h]]
= P[nenhuma ocorrência em (0, t] E nenhuma ocorrência em (t, t + h]]
(indep.) = P[nenhuma ocorrência em (0, t]] · P[nenhuma ocorrência em (t, t + h]]
= P0(t) · P0(h)
Mas, blabla
P0(h) = P[nenhuma ocorrência no intervalo (t, t + h]]
= 1− P[pelo menos uma ocorrência em (t, t + h]]
= 1− P[exatamente uma ocorrência em (t, t + h]]
= 1− P[pelo menos duas ocorrências em (t, t + h]]
= 1− λh − o(h)− o(h)
15 / 1
Processo de Poisson
Portanto,
P0(t + h) = P0(t) · P0(h)
= P0(t) · (1− λh − o(h)− o(h))
= P0(t)− λhP0(t)− P0(t)(o(h) + o(h))
Dividindotoda a expressão por h:
P0(t + h)− P0(t)
h
= −λP0(t)− P0(t)
o(h) + o(h)
h
Tomando o limite quando h ↓ 0 :
lim
h→0
P0(t + h)− P0(t)
h
= −λP0(t)
16 / 1
Processo de Poisson
Obtemos:
P ′0(t) = −λP0(t)
Sob a condição inicial P0(0) = 1, esta é uma equação diferencial cuja solução é:
P0(t) = e
−λt
17 / 1
Processo de Poisson
Analogamente,
(2). Para n = 1:
P1(t + h) = P1(t) · P0(h) + P0(t) · P1(h)
= P1(t)(1− λh − o(h)) + P0(t)(λh + o(h))
Que leva à equação diferencial:
P ′1(t) = −λP1(t) + λP0(t)
Cuja solução, sob a condição inicial P1(0) = 0, é:
P1(t) = (λt)e
−λt
18 / 1
Processo de Poisson
É possível mostrar que:
P ′n(t) = −λPn(t) + λPn−1(t), para n = 2, 3, . . .
Este sistema de equações diferenciais tem solução:
Pn(t) =
(λt)n
n!
e−λt
Portanto, para o exemplo de motivação, definindo a v.a.
X = no. de famílias que chegam diariamente a uma taxa λ = 10/dia; t = 1 dia.
P[X > 15] = 1− P[X ≤ 15] = 1−
15∑
x=0
e−λ
x!
λx = 1− 0, 9513 = 0, 0487 ≈ 5%
19 / 1
Distribuição de Poisson
Distribuição de Poisson
Definição
X ∼ Poi(λ), λ > 0:
X = número de ocorrências (“sucessos”) em um intervalo contínuo unitário (real)
fX (x) =
{
λx
x! e
−λ, x = 0, 1, . . .
0, c .c .
λ > 0
E [X ] = λ Var [X ] = λ
(Simulação)
21 / 1
Distribuição de Poisson
Outros exemplos de aplicações
Contagem do número de ocorrências (“sucessos”) em um meio contínuo:
- mensagens de emails que chegam em um servidor (tempo)
- asteróides que atingem o planeta Terra (tempo ou localização)
- pessoas que chegam a um banco (tempo)
- ocorrência de imperfeições em um material (volume)
- veículos que chegam a um cruzamento (tempo)
- estrelas visíveis em uma área do céu (área)
- fósseis em um sítio arqueológico (volume)
- organismos em uma certa quantidade de fluido (volume)
- etc...
22 / 1
Distribuição de Poisson
Distribuição de Poisson como aproximação para a Distribuição Binomial
X ∼ Bin(n, p)
I prop. 1: n→∞, p → 0, np n→∞−−−→ λ = constante
I prop. 3: Independência dos experimentos de Bernoulli
X ∼ Bin(n, p) n→∞−−−→ Pois(λ)
I Se p → 0: λ ≈ np
I Se p → 1: fazer p = P[F ] t.q. p → 0 (inverter rótulos de “sucesso” e “fracasso”)
I Regra de bolso: n ≥ 20 e p ≤ 0.05, ou n ≥ 100 e p ≤ 0.10.
(Simulação)
23 / 1
Distribuição de Poisson
Exemplo 2
Em uma certa fábrica, a ocorrência de acidentes é bastante infreqüente. Sabe-se que a
probabilidade de ocorrer um acidente em um dia qualquer é 0,005 e que os acidentes
são independentes.
I Qual a probabilidade de que em um período de 400 dias ocorrerá um acidente em
um dia?
I Qual a probabilidade de que haja no máximo três dias com acidente?
24 / 1
Distribuição de Poisson
Exemplo 2 – Solução
Temos n = 400 e p = 0, 005. Portanto, µ = np = 2. Utilizando a aproximação de
Poisson:
1. P[X = 1] = Pois(1; 2) = e−221 = 0, 271
2. P[X ≤ 3] =
∑3
x=0 Pois(x ; 2) =
∑3
x=0 e
−22x/x! = 0, 857
Utilizando o software R...
25 / 1
Distribuição Exponencial
Distribuição Exponencial (Negativa)
Motivação
Um processo de Poisson consiste em um experimento que consiste em contar o número
de ocorrências de um determinado fenômeno aleatório com certas características
especiais.
Suponha que uma dessas ocorrências tenha apenas acontecido. Por exemplo, uma
família acabou de chegar ao posto onde está o caminhão pipa.
Como se distribui o tempo de espera X até que a próxima família chegue?
27 / 1
Distribuição Exponencial
Motivação
Qual a distribuição do tempo de espera X até observar a próxima ocorrência?
P[X > t] = P[nenhuma ocorrência no intervalo(0, t]] = P0(t) = e−λt
Portanto,
P[X ≤ t] = FX (t) = 1− P[X > t] = 1− e−λt , t > 0
E, então:
fX (x) =
dF (x)
dx = λe
−λx , x > 0
28 / 1
Distribuição Exponencial
Motivação
Qual a distribuição do tempo de espera X até observar a próxima ocorrência?
P[X > t] = P[nenhuma ocorrência no intervalo(0, t]] = P0(t) = e−λt
Portanto,
P[X ≤ t] = FX (t) = 1− P[X > t] = 1− e−λt , t > 0
E, então:
fX (x) =
dF (x)
dx = λe
−λx , x > 0
28 / 1
Distribuição Exponencial
Definição
X ∼ Exp(λ), λ > 0:
X = tempo de espera entre ocorrências sucessivas em um processo de Poisson
fX (x) =
{
λe−λx , x > 0
0, c .c .
λ > 0
E [X ] =
1
λ
Var [X ] =
1
λ2
(Simulação)
I Análoga à v.a. geométrica (no caso de um Processo de Bernoulli)
Distr. geométrica: v.a. de tempo de espera discreto
Distr. exponencial: v.a. de tempo de espera contínuo
29 / 1
Distribuição Exponencial
Propriedade de Ausência de Memória
Importante para aplicações de confiabilidade e tempo de vida de
componentes/sistemas. Por exemplo,
Seja um componente eletrônico, cuja vida útil tenha distribuição exponencial. A
probabilidade de que o componente dure t horas, dado que já durou t0 é dada
por:
P[X ≥ t0 + t|X ≥ t0] = P[X ≥ t]; t > 0, t0 > 0
I Hipótese forte: não existe desgaste
I Se esta hipótese não for razoável:
Distribuição Exponencial FX (x) = P[X ≤ x ] = 1− eλ; x > 0, λ > 0
:função taxa de falha constante = λ
Distribuição de Weibull FX (x) = P[X ≤ x ] = (1− ex/η)β; x > 0, β > 0, η > 0
:função taxa de falha crescente, constante ou decrescente
(conforme β >, = ou < 1, respectivamente)
30 / 1
Distribuição Gama
Distribuição Gama
Definição
Função Gama: Γ(α) =
∫∞
0 x
α−1e−xdx , α > 0
Propriedade: n ∈ Z+ : Γ(n) = (n − 1)! Γ(1/2) =
√
π
X ∼ Gama(α, β):
X = tempo de espera até observar a α-ésima ocorrência em um processo de Poisson
fX (x) =

1
βαΓ(α)x
α−1e−x/β, x ≥ 0
0, c .c .
α > 0; β > 0
E [X ] = αβ Var [X ] = αβ2
I Análoga à v.a. Binomial Negativa
I importante para teoria de filas e confiabilidade
I modela o tempo de espera até a ocorrência de eventos, até a falha de componentes
e sistemas etc.
32 / 1
Distribuição Gama
Casos Especiais
Distribuição Chi-Quadrado:
X ∼ χ2 (ν) = Gama (α = ν/2, β = 2)
fX (x) =
{ 1
2ν/2Γ(ν/2)x
(ν/2)−1e−x/2, x ≥ 0
0, c .c .
E [X ] = ν Var [X ] = 2ν
ν é o número de graus de liberdade da distribuição.
33 / 1
Distribuição Gama
Observações
Relação ao Processo de Poisson
Nas condições de um processo de Poisson:
I A distr. Exponencial modela o intervalo (tempo, espaço, etc) entre duas
ocorrências consecutivas.
β = 1/λ é o tempo médio entre ocorrências
I A distr. Gama modela o intervalo de espera até que α eventos de Poisson tenham
ocorrido.
Aplicações da Distr. Chi-Quadrado:
I Papel fundamental em inferência estatística (estimação, testes de hipóteses)
I Uso intenso em procedimentos envolvendo distribuições amostrais, ANOVA, e
estatística não-paramétrica
34 / 1
Distribuição Gama
Exemplo 1 – Confiabilidade
Um sistema contém componentes cujo tempo (em anos) até falhar é dado por T . A
v.a. T é bem representada pela distr. exponencial com tempo médio até falha igual a
5. Se 5 destes componentes são instalados em diferentes sistemas, qual a probabilidade
de que pelo menos 2 continuem funcionando no final de 8 anos?
Solução
Temos: T ∼ exp(λ = 1/5).
Para um componente:
P[falha após 8 anos] = P[T ≥ 8] = 15
∫∞
8 e
t/5dt = e8/5 ≈ 0, 2
Está resolvido o problema?...
Seja X = no. de componentes funcionando após 8 anos
X ∼ Binom(x ; n = 5, p = 0, 2)
P[X ≥ 2] =
5∑
x=2
Binom(x ; n = 5, p = 0, 2) = 1−
1∑
x=0
Binom(x ; n = 5, p = 0, 2)
= 1− 0, 7373 = 0, 2627
35 / 1
Distribuição Gama
Exemplo 1 – Confiabilidade
Um sistema contém componentes cujo tempo (em anos) até falhar é dado por T . A
v.a. T é bem representada pela distr. exponencial com tempo médio até falha igual a
5. Se 5 destes componentes são instalados em diferentes sistemas, qual a probabilidade
de que pelo menos 2 continuem funcionando no final de 8 anos?
Solução
Temos: T ∼ exp(λ = 1/5).
Para um componente:
P[falha após 8 anos] = P[T ≥ 8] = 15
∫∞
8 e
t/5dt = e8/5 ≈ 0, 2
Está resolvido o problema?...
Seja X = no. de componentes funcionando após 8 anos
X ∼ Binom(x ; n = 5, p = 0, 2)
P[X ≥ 2] =
5∑
x=2
Binom(x ; n = 5, p = 0, 2) = 1−
1∑
x=0
Binom(x ; n = 5, p = 0, 2)
= 1− 0, 7373 = 0, 2627
35 / 1
Distribuição Gama
Exemplo 1 – Confiabilidade
Um sistema contém componentes cujo tempo (em anos) até falhar é dado por T . A
v.a. T é bemrepresentada pela distr. exponencial com tempo médio até falha igual a
5. Se 5 destes componentes são instalados em diferentes sistemas, qual a probabilidade
de que pelo menos 2 continuem funcionando no final de 8 anos?
Solução
Temos: T ∼ exp(λ = 1/5).
Para um componente:
P[falha após 8 anos] = P[T ≥ 8] = 15
∫∞
8 e
t/5dt = e8/5 ≈ 0, 2
Está resolvido o problema?...
Seja X = no. de componentes funcionando após 8 anos
X ∼ Binom(x ; n = 5, p = 0, 2)
P[X ≥ 2] =
5∑
x=2
Binom(x ; n = 5, p = 0, 2) = 1−
1∑
x=0
Binom(x ; n = 5, p = 0, 2)
= 1− 0, 7373 = 0, 2627
35 / 1
Distribuição Gama
Exemplo 2 – Tempo de Espera
Suponha que telefonemas chegando em uma central telefônica sigam um processo de
Poisson com média de 5 telefonemas por minuto. Qual a probabilidade de que não mais
que um minuto passe até que 2 telefonemas sejam recebidos?
Solução
Seja X = tempo até que 2 chamadas sejam recebidas
X ∼ Gama(α = 2, β = 1/λ = 1/5)
P[X ≤ 1] =
∫ 1
0
1
β2
xe−x/βdx = 25
∫ 1
0
xe−5xdx = 1− e−5(1 + 5) = 0, 96.
36 / 1
Distribuição Gama
Exemplo 2 – Tempo de Espera
Suponha que telefonemas chegando em uma central telefônica sigam um processo de
Poisson com média de 5 telefonemas por minuto. Qual a probabilidade de que não mais
que um minuto passe até que 2 telefonemas sejam recebidos?
Solução
Seja X = tempo até que 2 chamadas sejam recebidas
X ∼ Gama(α = 2, β = 1/λ = 1/5)
P[X ≤ 1] =
∫ 1
0
1
β2
xe−x/βdx = 25
∫ 1
0
xe−5xdx = 1− e−5(1 + 5) = 0, 96.
36 / 1
Distribuição Gama
Exemplo 3
Sabe-se, historicamente, que o período (em meses) entre reclamações de clientes sobre
um certo produto tem distribuição Gama, com α = 2 e β = 4. Foram realizadas
modificações no processo de produção, de forma a melhorar o controle de qualidade.
Após tais modificações, houve uma espera de 20 meses até que ocorresse a primeira
reclamação. Pergunta-se: o novo processo de controle de qualidade foi efetivo?
Solução
X = tempo de espera até a primeira reclamação.
Queremos saber se é plausível (ou seja, frequente) observar X ≥ 20, para α = 2, β = 4.
Utilizando o R, obtemos P[X ≥ 20] = 0, 0404.
Conclusão: Se o novo controle de qualidade não for efetivo, significa que as condições
permanecem inalteradas: X ∼ Gama(α = 2, β = 4). Nestas condições, a probabilidade
de ter de esperar 20 meses para observar uma reclamação é de aproximadamente 4%.
Portanto, é razoável concluir que a mudança no controle de qualidade foi efetiva.
37 / 1
Distribuição Gama
Exemplo 3
Sabe-se, historicamente, que o período (em meses) entre reclamações de clientes sobre
um certo produto tem distribuição Gama, com α = 2 e β = 4. Foram realizadas
modificações no processo de produção, de forma a melhorar o controle de qualidade.
Após tais modificações, houve uma espera de 20 meses até que ocorresse a primeira
reclamação. Pergunta-se: o novo processo de controle de qualidade foi efetivo?
Solução
X = tempo de espera até a primeira reclamação.
Queremos saber se é plausível (ou seja, frequente) observar X ≥ 20, para α = 2, β = 4.
Utilizando o R, obtemos P[X ≥ 20] = 0, 0404.
Conclusão:
Se o novo controle de qualidade não for efetivo, significa que as condições
permanecem inalteradas: X ∼ Gama(α = 2, β = 4). Nestas condições, a probabilidade
de ter de esperar 20 meses para observar uma reclamação é de aproximadamente 4%.
Portanto, é razoável concluir que a mudança no controle de qualidade foi efetiva.
37 / 1
Distribuição Gama
Exemplo 3
Sabe-se, historicamente, que o período (em meses) entre reclamações de clientes sobre
um certo produto tem distribuição Gama, com α = 2 e β = 4. Foram realizadas
modificações no processo de produção, de forma a melhorar o controle de qualidade.
Após tais modificações, houve uma espera de 20 meses até que ocorresse a primeira
reclamação. Pergunta-se: o novo processo de controle de qualidade foi efetivo?
Solução
X = tempo de espera até a primeira reclamação.
Queremos saber se é plausível (ou seja, frequente) observar X ≥ 20, para α = 2, β = 4.
Utilizando o R, obtemos P[X ≥ 20] = 0, 0404.
Conclusão: Se o novo controle de qualidade não for efetivo, significa que as condições
permanecem inalteradas: X ∼ Gama(α = 2, β = 4). Nestas condições, a probabilidade
de ter de esperar 20 meses para observar uma reclamação é de aproximadamente 4%.
Portanto, é razoável concluir que a mudança no controle de qualidade foi efetiva.
37 / 1
OBRIGADA
Denise B. Ferrari
denise@ita.br
— 2017 —

Continue navegando