Buscar

DISTRIBUIÇÃO DE PROBABILIDADE MARGINAL - INDICIE

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 32 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 32 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 32 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Índice
1	INTRODUÇÃO:	4
2	Objectivos:	5
2.1	Objectivos Gerais	5
2.2	Objectivos Específicos	5
3	VARIÁVEL ALEATÓRIA	6
4	DISTRIBUIÇÃO DE PROBABILIDADE	6
4.1	DISTRIBUIÇÃO DE PROBABILIDADE MARGINAL	6
5	Covariância	8
5.1	Definição:	8
5.2	Propriedades da covariância	8
5.3	Interpretação da covariância	10
5.4	Independência e covariância de variáveis aleatórias	10
5.4.1	Demonstração	10
6	COEFICIENTE DE CORRELAÇÃO	11
6.1	Definição:	11
6.2	Correlação linear	11
6.3	Correlação populacional	11
6.4	Correlação amostral	12
6.5	Coeficiente de correlação de Pearson	12
6.6	Coeficiente de Correlação de duas variáveis	14
6.6.1	TEOREMA	14
6.6.2	Demonstração	15
7	Modelos de distribuição discreta de probabilidade	15
7.1	Modelo de Bernoulli	16
7.2	Esperança e variância	16
7.3	Modelo Binomial	17
7.4	Esperança e variância	18
7.5	Esperança e variância	18
7.6	Modelo de Poisson	18
7.7	Esperança e variância:	21
8	Variáveis aleatórias contínuas	21
8.1	Definição:	21
8.2	ESPERANÇA	23
8.2.1	Definição	23
9	Distribuição Uniforme	23
9.1	Distribuição Uniforme	24
9.2	Esperança Matemática	24
9.3	Variância	24
9.4	Função de distribuição acumulada	24
9.4.1	Definição	24
9.5	Distribuição Uniforme	24
10	Distribuição Triangular	25
11	Distribuição Exponencial	25
11.1	Área total	26
11.2	Probabilidade de eventos	26
12	Variáveis aleatórias contínuas	27
12.1	Esperança matemática	28
13	Modelo de distribuições contínuas de probabilidade	29
13.1	Modelo Normal	29
13.2	Esperança e variância:	29
14	Conclusão:	31
15	Referencias bibliograficas:	32
INTRODUÇÃO:
Variável aleatória é uma variável quantitativa, cujo resultado (valor) depende de factores aleatórios, ou Uma variável aleatória pode ser uma medição de um parâmetro que pode gerar valores diferentes. Em que distribuição de probabilidade é um modelo matemático que relaciona um certo valor da variável em estudo com a sua probabilidade de ocorrência. Em que na probabilidade marginal termo variável marginal é usado para referir às variáveis no subconjunto de variáveis sendo retidas. Estes termos são denominados de "marginal" porque eles costumam ser encontrados através da soma de valores em uma tabela ao longo de linhas ou colunas, e a escrita dessa soma é dada nas margens da tabela. A distribuição de variáveis marginais (a distribuição marginal) é obtida marginalizando através da distribuição de variáveis sendo descartadas, e as variáveis descartadas são ditas marginalizadas. A covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatórias. E onde que O coeficiente de correlação é uma estatística que mede o grau de associação linear entre duas variáveis. O sinal dele corresponde à inclinação da linha de tendência ajustada à nuvem de pontos de um diagrama de dispersão.
 
Objectivos:
Objectivos Gerais 
Abordar sobre Variáveis Alertarias.
Objectivos Específicos 
· variável aleatória 
· Distribuição de Probabilidade 
· Distribuição de Probabilidade Marginal 
· Covariância
· Propriedades da covariância
· Interpretação da covariância
· Independência e covariância de variáveis aleatórias
· Coeficiente de correlação
· Interpretação geométrica 
· Coeficiente de Correlação de duas variáveis 
· Modelos de distribuição discreta de probabilidade
· Esperança e variância 
· Modelo de Poisson
· Variáveis aleatórias contínuas 
· Probabilidade de eventos
· Variáveis aleatórias contínuas 
· Modelo de distribuições contínuas de probabilidade
VARIÁVEL ALEATÓRIA 
E uma variável quantitativa, cujo resultado (valor) depende de factores aleatórios, ou Uma variável aleatória pode ser uma medição de um parâmetro que pode gerar valores diferentes.  Como por exemplo de: uma variável aleatória é o resultado do lançamento de um dado que pode dar qualquer número entre 1 e 6. Embora possamos conhecer os seus possíveis resultados, o resultado em si depende de factores de sorte (álea).
DISTRIBUIÇÃO DE PROBABILIDADE
Distribuição de probabilidade é um modelo matemático que relaciona um certo valor da variável em estudo com a sua probabilidade de ocorrência.
DISTRIBUIÇÃO DE PROBABILIDADE MARGINAL
O termo variável marginal é usado para referir às variáveis no subconjunto de variáveis sendo retidas. Estes termos são denominados de "marginal" porque eles costumam ser encontrados através da soma de valores em uma tabela ao longo de linhas ou colunas, e a escrita dessa soma é dada nas margens da tabela. A distribuição de variáveis marginais (a distribuição marginal) é obtida marginalizando através da distribuição de variáveis sendo descartadas, e as variáveis descartadas são ditas marginalizadas.
Aqui o contexto é que a análise de dados que se pretende realizar envolve um conjunto maior de variáveis aleatórias, mas o foco é limitado para um número reduzido dessas variáveis. Em várias aplicações, uma análise pode começar com uma dada colecção de variáveis aleatórias, para então estender o conjunto definindo novas variáveis (como a soma das variáveis originais) e, finalmente, ao se concentrar na análise da distribuição marginal de um subconjunto (como a soma), reduzindo o número de variáveis a serem analisadas. Várias análises distintas podem ser feitas, cada uma tratando de um subconjunto de variáveis diferente como variáveis marginais.
Distribuição marginal de um subconjunto de uma colecção de variáveis aleatórias é a distribuição de probabilidade das variáveis contidas no subconjunto. Ela oferece as probabilidades de vários valores das variáveis no subconjunto sem referenciar aos valores das outras variáveis. Isso contrasta com a distribuição condicional, que nos dá as probabilidades contingentes sobre os valores de outras variáveis.
Dada uma função de probabilidade conjunta f (x, y) das variáveis aleatórias discretas X e Y, a distribuição de probabilidade de X isolado g(x) é obtida pela soma dos valores de f (x, y) ao longo de Y. Do mesmo modo, a distribuição de probabilidade de Y isolado h(y) é dada pela soma dos valores de f (x, y) ao longo de x.
Definimos g(x) e h(y) como sendo as distribuições de probabilidades marginais de
x e y, respectivamente.
Assim,
A distribuição de probabilidade de X isolado e Y isolados são:
 Variável discreta
 Variável contínua
Exemplo:
Dada a f.m.p. conjunta de X e Y dada no exercício
Mostre que o somatório de cada coluna dá a distribuição de probabilidade
Marginal de x.
Covariância
Definição:
A covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatórias. Assim, variáveis independentes têm covariância zero. A covariância é por vezes chamada de medida de dependência linear entre as duas variáveis aleatórias. A covariância é uma maneira de calcular o quanto um activo tende a mostrar comportamento semelhante em relação ao outro ;
A covariância entre duas variáveis aleatórias X e Y é definida por:
Cov (X; Y) = E [X − E(X)] [Y − E (Y)]
Substituindo essa definição na expressão da variância da soma de duas variáveis
aleatórias obtém-se o
RESULTADO: A variância da soma de duas v.a. é dada por
Var (X + Y) = Var(X) + Var (Y) + 2 Cov (X; Y)
Uma forma alternativa de cálculo da covariância resulta de
E [X − E(X)] [Y − E (Y)] = E [XY − X E (Y) − Y E(X) + E(X) E (Y)]
= E (XY) − E [X E (Y)] − E [Y E(X)] + E(X) E (Y)
= E (XY) − E (Y) E(X) − E(X) E (Y) + E(X) E (Y)
Aqui usamos que E(kX) = k E(X) e também que E(k) = k. Lembre-se que a esperança
é um número! Logo,
Cov(X; Y ) = E(XY ) − E(X) E(Y )
que pode ser lido como a covariância é a esperança do produto menos o produto das
esperanças.
Propriedades da covariância
Vamos usar as seguintes propriedades já vistas para a esperança para demonstrar
propriedades análogas da covariância:
Se X e Y são variáveis aleatórias de valor real e a, b, c e d constantes ("constante", neste contexto, significa não aleatória), então os seguintes factos são uma consequência da definição da covariância:
Para variáveis aleatórias em vectores coluna X e Y com respectivos valores esperados μX e μY, e n e m de componentes escalaresrespectivamente, a covariância é definida como matriz n×m
E(X + b) = E(X) + b
E(aX) = a E(X)
E(aX + b) = a E(X) + b
1. Cov(aX + b; cY + d) = ac Cov(X; Y )
De fato:
Cov(aX + b; cY + d) = E [(aX + b) − E (aX + b) [(cY + d) − E (cY + d)]
= E[aX + b − a E(X) − b][cY + d − c E(Y ) − d]
= E[aX − a E(X)][cY − c E(Y )]
= E{a[X − E(X)]c[Y − E(XY )]}
= ac E[X − E(X)](Y − E(Y )]
= ac Cov(X; Y )
2. Cov(X + Y ; Z +W) = Cov(X; Z) + Cov(X;W) + Cov(Y ; Z) + Cov(Y ;W)
De fato:
Cov(X + Y ; Z +W) = E(X + Y )(Z +W) − E(X + Y ) E(Z +W)
= E(XZ + XW + Y Z + YW) − [E(X) + E(Y )] [E(Z) + E(W)]
= E(XZ) + E(XW) + E(Y Z) + E(YW) − E(X) E(Z)
−E(X) E(W) − E(Y ) E(Z) − E(Y ) E(W)
= [E(XZ) − E(X) E(Z)] + [E(XW) − E(X) E(W)] +
+[E(Y Z) − E(Y ) E(Z)] + [E(YW) − E(Y ) E(W)]
= Cov(X; Z) + Cov(X;W) + Cov(Y ; Z) + Cov(Y ;W)
3. Dos resultados anteriores, segue que
Var(X − Y ) = Var(X) + Var(Y ) − 2 Cov(X; Y )
De fato:
Var(X − Y ) = V ar[X + (−Y )] = Var(X) + Var(Y ) + 2 Cov[X; (−1 · Y )]
= Var(X) + Var(Y ) + 2 · (−1) Cov(X; Y )
= V ar(X) + Var(Y ) − 2 Cov(X; Y )
Interpretação da covariância
No estudo da estatística descritiva, dados dois conjuntos de dados x1;… ; xn e y1;…; yn
referentes a duas variáveis de interesse X e Y , definimos a covariância entre X e Y como
Cov(X; Y ) = 
No contexto de variáveis aleatórias, a média é calculada como uma média ponderada pelas probabilidades; assim, temos uma total analogia entre as definições de covariância nos dois contextos. Foi visto também que a covariância é uma medida de associação linear entre as variáveis. Construindo um diagrama de dispersão para as variáveis, se existir uma associação linear crescente, os pontos (x; y) tenderão a se concentrar nos primeiro e terceiro quadrantes, onde o produto das coordenadas é positivo. Se existir uma associação linear decrescente, os pontos se concentrarão no segundo e quarto quadrantes, onde o produto é negativo. O fato de se tomar E[X − E(X)][Y − E(Y )], e não E(XY ), garante que estamos sempre trabalhando com variáveis “centradas” em (0; 0) e não em (E(X); E(Y )).
Independência e covariância de variáveis aleatórias
Da definição de independência de variáveis aleatórias, resulta o seguinte fato: se X e Y
são variáveis aleatórias independentes, qualquer conhecimento sobre Y não nos dá informação sobre X. Usando essa interpretação, mais a interpretação do conceito de covariância, é de se esperar que a covariância entre variáveis independentes seja nula (se elas são independentes, não deverá existir qualquer associação entre elas, muito menos uma associação linear). Vamos ver um resultado geral que trata dessa relação.
RESULTADO Se X e Y são variáveis aleatórias independentes, então Cov(X; Y ) = 0:
Demonstração
Se X e Y são independentes, então P(X = x; Y = y) = P(X = x)P(Y = y): Mas nesse caso,
COEFICIENTE DE CORRELAÇÃO
Definição:
O coeficiente de correlação é uma estatística que mede o grau de associação linear entre duas variáveis. O sinal dele corresponde à inclinação da linha de tendência ajustada à nuvem de pontos de um diagrama de dispersão.
Correlação linear 
Os diferentes setores da sociedade utilizam amostras θ{\displaystyle \theta }θθθθθθ de populações α{\displaystyle \alpha }, em vez de populações de dados {\displaystyle \alpha }para auxiliar nas análises dos objetivos das suas áreas de conhecimento. Isto ocorre porque um conjunto reduzido de dados (θ < α {\displaystyle \theta <\alpha }) torna o processo mais econômico e mais rápido do ponto de vista matemático. Isto deve–se aos erros de arredondamentos dos cálculos que são feitos em estatística, considerando que uma grande quantidade de dados envolve mais cálculos que uma pequena quantidade de dados.
Correlação populacional
A correlação populacional trata da medida da direção e do grau com que as variáveis X e Y{\displaystyle X} e {\displaystyle Y} se associam linearmente em uma população. O coeficiente de correlação populacional  {\displaystyle \rho _{X,Y}} entre duas variáveis X{\displaystyle X} e Y {\displaystyle Y} com valores esperados {\displaystyle \mu _{Y}}e os desvios padrão é definido como:
em que {\displaystyle E}E é o operador do valor esperado, {\displaystyle \mathrm {cov} }COV é a covariância e {\displaystyle \mathrm {corr} }corr é uma notação alternativa para coeficiente de correlação. O coeficiente de correlação é simétrico: {\displaystyle \operatorname {corr} (X,Y)=\operatorname {corr} (Y,X)}
O coeficiente de correlação de Pearson é +1 no caso de uma relação linear (correlação) direta perfeita (crescente), -1 no caso de uma relação linear (anticorrelação) decrescente perfeita (inversa) e qualquer valor no intervalo aberto (-1, 1) nos outros casos indicando o grau de dependência linear entre as variáveis. É um corolário da desigualdade de Cauchy–Schwarz, em que a correlação não pode exceder 1 em valor absoluto. Quanto mais próximo de 0, mais fraca a correlação entre as variáveis (mais próximas de não correlacionados). Quando mais próximo de -1 ou +1, mais forte a correlação entre as variáveis. Se as variáveis forem independentes, o coeficiente de correlação de Pearson é 0. Entretanto, o contrário não é verdadeiro porque o coeficiente de correlação deteta apenas dependências lineares entre duas variáveis. Por exemplo, suponha–se que a variável aleatória {\displaystyle X} . Então  {\displaystyle Y} é completamente determinada por{\displaystyle X} de modo que {\displaystyle X} e {\displaystyle Y}Y = X² são perfeitamente dependentes, mas a correlação entre elas é 0. Em outras palavras, as variáveis não são correlacionadas. Entretanto, no caso especial em que {\displaystyle X}X e {\displaystyle Y}Y são conjuntamente normais, não correlação é equivalente à independência. 
Correlação amostral
A correlação amostral trata da medida da direção e do grau com que as variáveis {\displaystyle X}X e {\displaystyle Y}Y se associam linearmente em uma amostra. Karl Pearson desenvolveu o coeficiente amostral a partir de uma ideia semelhante, porém ligeiramente diferente da de Francis Galton. Então, o coeficiente amostral pode ser chamado de coeficiente produto–momento de Pearson, coeficiente de correlação de Pearson ou simplesmente coeficiente de correlação, que é a medida mais conhecida de dependência entre duas variáveis quantitativa. Para uma série de {\displaystyle n} medições de {\displaystyle X}X e {\displaystyle Y}Y, xi{\displaystyle x_{i}} e {\displaystyle y_{i}}yi para  {\displaystyle i=1,2,...,n}, o coeficiente de correlação da amostra pode ser usado para estimar o coeficiente de correlação de Pearson da população {\displaystyle r} entre {\displaystyle X}X e {\displaystyle Y}Y. Então, o coeficiente de correlação da amostra é escrito como:
Em que x‾ e y ‾são as médias amostrais de X e Y 
Coeficiente de correlação de Pearson 
Em estatística descritiva, o coeficiente de correlação de Pearson, também chamado de "coeficiente de correlação produto-momento" ou simplesmente de "ρ de Pearson" mede o grau da correlação (e a direção dessa correlação - se positiva ou negativa) entre duas variáveis de escala métrica (intervalar ou de rácio/razão).
Este coeficiente, normalmente representado por ρ assume apenas valores entre -1 e 1.
· ρ = 1 Significa uma correlação perfeita positiva entre as duas variáveis.
· {\displaystyle \rho =-1} ρ = -1 Significa uma correlação negativa perfeita entre as duas variáveis - Isto é, se uma aumenta, a outra sempre diminui.
· {\displaystyle \rho =0} ρ= 0 Significa que as duas variáveis não dependem linearmente uma da outra. No entanto, pode existir uma dependência não linear. Assim, o resultado ρ = 0 {\displaystyle \rho =0} deve ser investigado por outros meios.
Calcula-se o coeficiente de correlação de Pearson segundo a seguinte fórmula:
Onde são os valores medidos de ambas as variáveis. Para além disso :
 são as médias aritméticas de ambas as variáveis. 
Interpretação geométrica 
As duas séries de valores  {\displaystyle X(x_{1},\ldots ,x_{n})} e Podem ser consideradas como vetores em um espaço de n dimensões. 
O cosseno do ângulo α entre estesvetores é dado pela fórmula (produto escalar normado): 
{\displaystyle \cos(\alpha )=\rho }
Por tanto cos (α) = ρ  
O coeficiente de correlação não é outro senão o cosseno do ângulo α entre os dois vetores! 
Se ρ ={\displaystyle \rho } 1, o ângulo α = 0, os dois vetores são colineares (paralelos).
Se ρ ={\displaystyle \rho } 0, o ângulo α = 90°, os dois vetores são ortogonais. 
Se ρ ={\displaystyle \rho } -1, o ângulo α = 180°, os dois vetores são colineares com sentidos opostos. 
Mais geralmente: 
{\displaystyle \alpha =\arccos(\rho )} α = arccos (ρ), (arccos é a inversa da função cosseno).  
 Como visto, a covariância é uma medida de associação linear entre duas variáveis,
com valores “grandes” positivos indicando uma “forte” associação linear crescente e valores negativos, uma associação linear decrescente. Mas como saber o que é grande? Por exemplo,
suponha que X e Y sejam variáveis aleatórias que representem grandezas, ambas medidas em milhares de reais e suponha, também, que haja uma forte associação linear crescente entre ambas. Pois bem, se transformarmos essas variáveis de modo que elas representem os mesmos fenômenos, mas agora em reais, a covariância ficará multiplicada por 10˄6 já que cada uma das variáveis originais fica multiplicada por 1000 = 10 ˄3. Esse fato ocorre porque a covariância depende da unidade de medida de cada uma das variáveis envolvidas. Para contornar esse fato, em vez de trabalharmos com as variáveis originais, podemos trabalhar com as variáveis padronizadas, o que dá origem aos coeficientes de correlação.
Coeficiente de Correlação de duas variáveis 
O coeficiente de correlação entre duas variáveis aleatórias X e Y é a
covariância entre as variáveis padronizadas, ou seja,
onde X e Y são os desvios-padrão de X e Y respetivamente.
A propriedade fundamental do coeficiente de correlação é dada no seguinte teorema:
TEOREMA
Dadas duas variáveis aleatórias X e Y com esperança, variância e covariância finitas,
Demonstração
Sejam
as variáveis padronizadas. Das propriedades de esperança e variância, sabemos que E (X) =E (Y) = 0 e Var (X) = Var (Y) = 1 = 0 Sabemos também que a variância de qualquer variável aleatória é não-negativa. Em particular,
Analogamente,
Temos, então, que
Mas Cov (X; Y ) = Corr(X; Y ), o que completa a demonstração.
Modelos de distribuição discreta de probabilidade
Distribuição discreta de probabilidade é cada valor possível da variável aleatória, bem como sua probabilidade. Em um levantamento, perguntou-se a uma amostra de famílias quantos veículos elas possuíam. Cada probabilidade precisa estar entre 0 e 1, inclusive. A soma de todas as probabilidades é 1. Uma distribuição discreta descreve a probabilidade de ocorrência de cada valor de uma variável aleatória discreta. Uma variável aleatória discreta é uma variável aleatória que tem valores contáveis, como uma lista de inteiros não negativos. 
A distribuição de probabilidade é uma descrição das probabilidades associadas com os valores possíveis de X. Para uma variável discreta, a distribuição é apenas uma lista de valores possíveis com suas probabilidades associadas. Em alguns casos pode ser conveniente expressar a probabilidade como uma fórmula. Os modelos de probabilidade são utilizados para descrever vários fenômenos ou situações que encontramos na natureza, ou experimentos por nós construídos.
Esses modelos são expressos por uma família de distribuições de probabilidade que dependem de um ou mais parâmetros. O modelo deve representar, na medida do possível, a complexidade que envolve o mundo real da população em estudo. Lembrando que uma V.A. fica completamente caracterizada pela sua função de probabilidade e seus parâmetros. 
Modelo de Bernoulli 
Definição: Uma variável aleatória X segue o modelo Bernoulli se assume apenas os valores 0 (“fracasso”) ou 1 (“sucesso”). Sua função de probabilidade é dada por:
onde o parâmetro 0 p 1 é a probabilidade de sucesso.
Notação: X Ber(p)
Esperança e variância
A cada distribuição podemos associar certos parâmetros, gerando informações valiosas sobre a distribuição. Esses parâmetros terão a princípio dois nomes: Esperança e Variância, que são o primeiro e segundo momento de uma distribuição. O primeiro fornece uma medida de posição e o segundo uma medida de variabilidade. 
Exemplo: No lançamento de uma moeda, considere cara como o evento de sucesso. Qual a probabilidade de sair cara, sendo que 
Modelo Binomial 
A distribuição binomial é a distribuição de probabilidade e estatística discreta do número de sucessos decorrentes de uma determinada sequência de tentativas, que seguem à seguintes características:
· Espaço amostral finito;
· Apenas dois resultados possíveis (sucesso ou fracasso) para cada tentativa;
· Todos os elementos devem possuir possibilidades iguais de ocorrência;
· Eventos devem ser independentes uns dos outros.
Seja um experimento realizado dentro das seguintes condições:
i) São realizados n “ensaios” de Bernoulli independentes
ii) Cada ensaio só pode ter dois resultados possíveis: “sucesso” ou “fracasso”
iii) A probabilidade p de sucesso em cada ensaio é constante
Vamos associar a V.A. X o número de sucessos em n ensaios de Bernoulli. Portanto X poderá assumir os valores 0; 1; …, n.
Vamos determinar a distribuição de probabilidade de X, através da probabilidade de um número genérico x de sucessos. Suponha que ocorram sucessos (1) apenas nas (x) primeiras provas, e fracassos (0) nas n - x provas restantes
Como as provas são independentes, a probabilidade de ocorrência de (x) sucessos em n tentativas é uma extensão do modelo de Bernoulli para n ensaios, ou seja,
Porém, o evento: “x sucessos em n prova” pode ocorrer de diferentes maneiras (ordens) distintas, todas com a mesma probabilidade. Como o número de ordens é o número de combinações de n elementos tomados x a x, então a probabilidade de ocorrerem x sucessos em n provas de Bernoulli será então a distribuição binomial, dada por :
Onde: 
E o coeficiente binomial, que dá o número total de combinações possíveis de n elementos, com x sucessos.
Notação: X bin(n; p)
Esperança e variância 
Esperança e variância
Como vimos, a esperança e a variância de uma V.A. X que possui distribuição binomial, são dadas por: 
Portanto, conhecendo os parâmetros n e p, podemos agora utilizar estas definições para calcular a esperança e a variância de uma V.A. X binomial, sem a necessidade de realizar os cálculos pelas equações gerais de esperança e variância.
Modelo de Poisson
Definição: Seja um experimento realizado nas seguintes condições:
· As ocorrências são independentes
· As ocorrências são aleatórias
· A variável aleatória X é o número de ocorrências de um evento ao longo de algum intervalo (de tempo ou espaço) Vamos associar a V.A. X o número de ocorrências em um intervalo. Portanto X poderá assumir os valores 0; 1; …; (sem limite superior). 
Considere então agora que o fenômeno de interesse é observado em
um intervalo contínuo (tempo, espaço, . . .), de tamanho t. O número de eventos que ocorrem no intervalo fixo [0; t) é uma variável aleatória X (“número de sucessos”). Podemos então inicialmente tentar aproximar esses eventos à um ensaio de Bernoulli, criando n subintervalos muito pequenos, de forma que este processo satisfaça as seguintes condições:
· Em um período de tempo muito curto, somente 1 ou 0 eventos podem ocorrer (dois ou mais eventos são impossíveis)
· O valor esperado de sucessos, np, é constante para qualquer tamanho de intervalo. Chamaremos essa constante de _ = np. Dessa forma, a probabilidade de sucesso de um evento será p = 
· Cada subintervalo é um ensaio de Bernoulli independente. Um experimento que satisfaça estas condições é chamado de processo de Poisson.
Um experimento que satisfaça estas condições é chamado de processo de Poisson.
Note que se estas condições forem satisfeitas, se continuarmos aumentando o número de subintervalos (n), então a probabilidade p deverá diminuir para que = np permaneça constante.
Dessa forma, estamos interessadosem determinar a distribuição da VA X bin (n; p = ) no limite quando n 1 e p 0, ou seja, 
Dessa forma, pode-se mostrar que 
Que é chamado modelo de Poisson com parâmetro e 
Nesse caso, _ é o número esperado de sucessos em uma unidade de tempo específica. Frequentemente estamos interessados no valor esperado ou na probabilidade em um intervalo contínuo t qualquer. Nesse caso, a esperança e a variância serão
Portanto, o modelo Poisson mais geral pode ser definido como a seguir:
Uma V.A. X segue o modelo de Poisson se surge a partir de um processo de Poisson, e sua função de probabilidade for dada por
Onde 
O parâmetro μ indica a taxa de ocorrência (λ) por unidade de medida (t), ou seja,
λ = taxa de ocorrência e t = intervalo de tempo ou espaço.
A distribuição de Poisson é utilizada para descrever a probabilidade do número de ocorrências em um intervalo contínuo (de tempo ou espaço). No caso da distribuição binomial, a variável de interesse era o número de sucessos em um intervalo discreto (n ensaios de Bernoulli). A unidade de medida (tempo ou espaço) é uma variável contínua, mas a variável aleatória, o número de ocorrências, é discreta.
A distribuição de Poisson difere da distribuição binomial em dois aspetos fundamentais:1
· A distribuição binomial é afetada pelo tamanho n da amostra, e pela probabilidade p de sucesso. A distribuição de Poisson é afetada apenas pela média μ. 
· Na distribuição binomial, os valores possíveis da V.A. X são 0; 1; …; n. Na distribuição de Poisson, a V.A. X tem valores possíveis 0; 1; …, sem nenhum limite superior
Notação: X Pois(μ)
Esperança e variância: 
Exemplo: suponha que em um determinado processo de fabricação de tecidos ocorra, em média, uma falha a cada 400 metros. Portanto
Suponha que queremos estudar o número de falhas que aparecerão em 1000 metros de tecido (t). Esse número será uma V.A. X com distribuição de Poisson, e o número médio de falhas será então:
Variáveis aleatórias contínuas 
Definição:
Uma função X definida sobre o espaço amostral e assumindo
valores num intervalo de números reais, é denominada variável
aleatória contínua.
Exemplos: 
· altura de um adulto
· custo do sinistro de um carro
· temperatura mínima diária
· saldo em aplicações financeiras
· ganho de peso após dieta
· distância percorrida
Função densidade de probabilidade
A função densidade de probabilidade (f.d.p.) de uma variável aleatória
X é uma função f (x) _ 0 cuja área total sob a curva seja igual à
unidade. Em termos matemáticos
Distribuição Uniforme
Se X é uma variável aleatória uniforme no intervalo [1, 5], notação
X U[1, 5], então a função densidade de probabilidade de X é
definida por:
Descrição de f (x)
Probabilidade de eventos
A probabilidade corresponde à área sob a curva no
intervalo [a, b]. Em termos matemáticos
Exemplo: 
A probabilidade pode ser calculada diretamente pela
solução da integral
ESPERANÇA
Definição
A esperança matemática de uma variável aleatória contínua X fica
dada por
Variância
Definição
A variância de uma variável aleatória X contínua é definida por
Em que 
Distribuição Uniforme
Vamos supor que X é uma variável aleatória com distribuição uniforme
no intervalo [a,b], notação X ~U[a, b], então para e em que caso contrario . 
Distribuição Uniforme
Vamos supor que X é uma variável aleatória tal que X ~ U[a, b].
Esperança Matemática 
A esperança de X fica dada por :
Variância
A variância de X fica dada por: 
Função de distribuição acumulada
Definição
A função de distribuição acumulada de uma variável aleatória T
contínua é definida por:
Distribuição Uniforme
A função de distribuição acumulada de uma variável aleatória
T ~ U[a, b] é dada por: 
Distribuição Triangular
Se X é uma variável aleatória triangular no intervalo [0, 1/2, 1],
Notação X ~ T[0, 1/2, 1]), então a função densidade de probabilidade
de X é definida por :
Distribuição Exponencial
Se X é uma variável aleatória com distribuição exponencial de
parâmetro λ 0 (X~ Exp(λ)), a função densidade de probabilidade
de X é definida por :
 λ 
em que x > 0.
Área total
A área total sob a curva é calculada através da integral
Probabilidade de eventos
A probabilidade P(1 X 2) corresponde à área na figura abaixo e
pode ser calculada pela integral: 
Vamos supor que X é uma variável aleatória com distribuição
exponencial de parâmetro λ > 0.
Esperança
A esperança de X fica dada por: 
E(X) =
Variância
A variância de X fica dada por: 
Variáveis aleatórias contínuas 
Uma V.A. é classificada como contínua se assume valores em qualquer intervalo dos números reais, ou seja, um conjunto de valores não enumerável. Dessa forma, não é possível atribuir probabilidades para um ponto específico, apenas para intervalos da reta.
Exemplos:
· Peso de animais
· Tempo de falha de um equipamento eletrônico
· Altura da maré em uma hora específica
· Salinidade da água do mar
· Retorno financeiro de um investimento 
Não podemos atribuir probabilidades à valores específicos, pois há uma quantidade não enumerável (infinita) de valores em um ponto. Atribuímos probabilidades à intervalos de valores, por meio de uma função. Portanto, as probabilidades são representadas por áreas. 
A função densidade de probabilidade (fdp) atribui probabilidades à intervalos de valores do tipo [a; b], e é definida por 
com as seguintes propriedades
i) É uma função não negativa
ii) A área total sob a curva deve ser igual a 1
Observações:
· P [ X =x] = 0 por tanto 
P [ a 
· Qualquer função f (.) que seja não negativa e cuja área total sob a curva seja igual à unidade caracterizará uma VA contínua.
· 3 f (x) não representa a probabilidade de ocorrência de algum evento, A área sob curva entre dois pontos é que fornecerá a probabilidade.
Esperança matemática 
A esperança de uma V.A. contínua tem o mesmo sentido e interpretação da esperança de uma V.A. discreta: é a média ou valor esperado da V.A. A esperança de uma V.A. contínua é obtida através da integral do produto de x com a função (x), no intervalo definido pelo suporte da V.A. De maneira geral,
Variância 
A variância, como já vimos, dá o grau de dispersão dos valores de uma variável aleatória em relação à sua média ou esperança E(X). A forma geral para o cálculo em V.A.s contínuas é
No entanto, assim como para V.A.s discretas, uma forma mais fácil operacionalmente pode ser deduzida a partir da primeira, e temos 
 Onde 
Modelo de distribuições contínuas de probabilidade
Existem diversos modelos contínuos de probabilidade. Alguns deles:
· Uniforme
· Exponencial
· Gama
Um dos modelos mais importantes, tanto do ponto de vista teórico
quanto prático, é o modelo normal. Este modelo, também chamado de modelo de Gauss, foi estabelecido por volta de 1733 pelo matemático francês Abraham De Moivre, e serve para explicar inúmeros fenômenos naturais, físicos, psicológicos, sociológicos, . . . A distribuição normal é extremamente importante em Estatística pois serve de fundamento para muitas técnicas de inferência e aproximações.
Modelo Normal 
Dizemos que uma V.A. X segue o modelo normal se sua fdp é a seguinte:
onde μ é a média da população, 2 R+ é o desvio-padrão populacional.
Notação: X ~ N (μ, σ²)
Esperança e variância: 
Para obter uma probabilidade do modelo normal, devemos calcular a área entre os pontos a e b, ou seja,
No entanto, a função da distribuição normal não possui forma fechada, portanto o cálculo de probabilidades não pode ser feito diretamente pela integral, apenas por aproximações numéricas. Para contornar esse problema, os valores de probabilidade são obtidos para uma distribuição normal padrão (Z) com μ= 0 e σ² = 1,
que é o escore Z (número de desvios-padrões da média μ). A vantagem é que podemos fazer uma única tabela com as integrais;
Se Z ~ N (0; 1), então sua fdp é
Para se obter a probabilidade de Z estar entre a e b,
As integrais (áreas) para valores de Z entre 0,00 e 3,99 estão na tabela. Portanto, para qualquer valor de X entre a e b, podemos calcular a probabilidade correspondente através da transformação,Conclusão:
Em virtude das variáveis aleatória  uma variável quantitativa, cujo resultado (valor) depende de fatores aleatórios, ou Uma variável aleatória pode ser uma medição de um parâmetro que pode gerar valores diferentes. Em que distribuição de probabilidade é um modelo matemático que relaciona um certo valor da variável em estudo com a sua probabilidade de ocorrência. Em que na probabilidade marginal termo variável marginal é usado para referir às variáveis no subconjunto de variáveis sendo retidas. Estes termos são denominados de "marginal" porque eles costumam ser encontrados através da soma de valores em uma tabela ao longo de linhas ou colunas, e a escrita dessa soma é dada nas margens da tabela. A distribuição de variáveis marginais (a distribuição marginal) é obtida marginalizando através da distribuição de variáveis sendo descartadas, e as variáveis descartadas são ditas marginalizadas. A covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatórias. E onde que O coeficiente de correlação é uma estatística que mede o grau de associação linear entre duas variáveis. O sinal dele corresponde à inclinação da linha de tendência ajustada à nuvem de pontos de um diagrama de dispersão.
Referencias bibliograficas: 
1. GRAÇA MARTINS, M. E. (2005) –  Introdução à Probabilidade e à Estatística.- Com complementos de Excel. Edição da SPE, ISBN: 972-8890-03-6. Depósito Legal 228501/05.
2. PESTANA, D., VELOSA, S. (2010) – Introdução à Probabilidade e à Estatística, Volume I, 4ª edição, Fundação Calouste Gulbenkian. ISBN: 978-972-31-1150-7. Depósito Legal 311132/10.
3. https://pt.wikipedia.org/wiki/Distribui%C3%A7%C3%A3o_de_probabilidade
4. Bussab, WO; Morettin, PA. Estatística básica. São Paulo: Saraiva, 2006. [Cap. 6] Magalhães, MN; Lima, ACP. Noções de Probabilidade e Estatística. São Paulo: EDUSP, 2008. [Cap. 3]
5. Montgomery, DC; Runger, GC. Estatística aplicada e probabilidade para engenheiros. Rio de Janeiro: LTC Editora,2012. [Cap. 3 e 4]

Continue navegando