Baixe o app para aproveitar ainda mais
Prévia do material em texto
Tipos de Dependência entre Variáveis Aleatórias e Teoria de Cópulas Autor: Márcio Luis Lanfredi Viola Supervisora: Profa. Dra. Verónica Andrea González-López Instituto de Matemática, Estatística e Computação Científica (IMECC-UNICAMP) Dezembro/2009 Sumário 1 Tipos de Dependência entre Variáveis Aleatórias 1 1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Funções Totalmente Positivas e Totalmente Negativas . . . . . . . . . . . . . 2 1.3 Dependência do Quadrante Positivo (e Negativo) e do Octante . . . . . . . 9 1.3.1 Variáveis Aleatórias Estocasticamente Crescentes e Decrescentes, Dependência Crescente na Cauda à Direita e Dependência Decres- cente na Cauda à Esquerda . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.4 Variáveis Aleatórias Negativamente Associadas . . . . . . . . . . . . . . . . . 17 1.5 Implicações e Contra-exemplos envolvendo os Conceitos de Dependência . 19 1.6 Tabelas referentes ao Capítulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2 Teoria de Cópulas 27 2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Cópula e Teorema de Sklar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3 Cópulas Arquimedianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.4 Cópulas Multivariadas e a Transformada de Laplace . . . . . . . . . . . . . . 45 3 Variável BIPIT 55 3.1 Variáveis PIT e BIPIT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.2 Propriedades da função K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4 Tau de Kendall 67 4.1 Concordância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 i 5 Kendall Plot 79 5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.2 Construção do Kendall Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.2.1 QQplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.2.2 Kendall Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.3 Resultados e Fundamentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Referências Bibliográficas 94 ii Lista de Figuras 2.1 Scatterplots: Dados exponenciais independentes (primeira figura); dados exponenciais independentes transformados pelas acumuladas (segunda figura). . . . . . . . . . . . 30 2.2 Gerador φ não estrito e pseudo-inversa φ[−1] para a cópula Arquimediana W . . . . . 44 2.3 Gerador φ estrito e pseudo-inversa φ[−1] para a cópula Arquimediana Π. . . . . . . . 45 3.1 QQplot entre a amostra Hi = H(xi, yi) da BIPIT H associada distribuição normal bivariada do Exemplo 3.1 e uma amostra {U1, . . . , U100} com distribuição U(0, 1). . . 56 3.2 QQplot das amostras das BIPITS H e H1: {H1, . . . ,Hn} e {H11, . . . ,H1n} respec- tivamente, n = 100, onde Hi = H(ui, vi) = uivi sendo ui, vi amostras de U(0, 1) e H1i = H(x1i, y1i) = F1(x1i)G1(y1i) sendo x1i com distribuição exp(2) e y1i com distribuição exp(10). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.3 Funções distribuição de Kendall das cópulas M (linha cheia preta), W (linha cheia cinza) e família de Gumbel para θ = {1, 3, 7} (primeira figura); família de Clayton para θ = {1, 3, 4} (segunda figura). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.4 Funções λ(v), v ∈ I, das cópulas M (linha cheia preta), W (linha cheia cinza) e família de Gumbel para θ = {1, 3, 7} (primeira figura); família de Clayton para θ = {1, 3, 4}. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.1 QQplots referentes Exemplo 4.5: H0i = Π(ui, vi),H1i = C−0.5(ui, vi),H2i = C2(ui, vi) com Cθ cópula de Clayton com parâmetro θ (A linha com ponto e tracejado é a di- agonal principal do gráfico). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 iii 5.1 Gráficos da inversa da função distribuição K−1(p) vs. Ĥ(dnpe) ≡ K−1n (p) proveniente de n = 100 pseudo-observações da cópula 4.2.12 (primeira figura); e Wdnpe:n,K = E(H(dnpe)), n = 100, sob hipótese da mesma cópula (segunda figura). . . . . . . . . . 88 5.2 Kendall Plot sob hipótese nula de independência para a amostra {(x1, y1), . . . , (x100, y100)} sendo xi com distribuição exp(2) e yi com distribuição exp(10) com {xi} gerados de forma independente de {yi}. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 5.3 Kendall Plot sob hipótese nula de independência de n = 100 pares de observações do vetor aleatório (X,Y ) com Y = 1−X. . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.4 Kendall Plot sob hipótese nula de independência, de n = 100 pares de observações do vetor aleatório (X,Y ) com Y = X. . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.5 Kendall Plot sob hipótese nula de cópula de Clayton θ = 2 (Wi:n,K0 referente a Clayton com θ = 2) de amostras aleatórias de tamanho n = 100 associadas a cópula de Clayton com os respectivos parâmetros θ = {0.5, 2, 5}. . . . . . . . . . . . . . . . . 92 iv Lista de Tabelas 6.1 Função de probabilidade conjunta de (X1, X2, X3, X4) . . . . . . . . . . . . . . . . . 24 6.2 Função de probabilidade conjunta de X e Y . . . . . . . . . . . . . . . . . . . . . . . 24 6.3 Função de probabilidade conjunta de X e Y . . . . . . . . . . . . . . . . . . . . . . . 24 6.4 Função de probabilidade conjunta de X e Y . . . . . . . . . . . . . . . . . . . . . . . 24 6.5 Função de probabilidade conjunta de (Y1, Y2) . . . . . . . . . . . . . . . . . . . . . . 25 3.1 Algumas famílias paramétricas de cópulas Arquimedianas com seus geradores e es- paços paramétricos (*na cópula de Clayton o gerador é estrito se θ ≥ 0, caso contrário é não estrito). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 1.1 Cópulas Arquimedianas da Tabela 3.1 com os respectivos geradores φ e funções dis- triuição K. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 1.1 Medida de associação τ de Kendall expressa em função do parâmetro θ para algumas famílias de cópulas Arquimedianas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 1 2 Capítulo 1 Tipos de Dependência entre Variáveis Aleatórias 1.1 Introdução Os conceitos e análise de dependência são necessários para o entendimento do modelo a ser considerado e quando este pode ser aplicado. Isto inclui a análise da estrutura de dependência conveniente ao modelo e se a dependência do modelo aumenta quando os parâmetros multivariados aumentam, isto é, um modelo multivariado pode ser analisado a partir das estruturas de dependência que ele consiga cobrir em relação ao universo das estruturas de dependência possíveis. Assim, as propriedades de dependência são importantes para a avaliação da adequação de um modelo particular perante uma dada aplicação ou um conjunto de dados. No entanto, na prática, pode ser difícil a comprovação das propriedades teóricas assumidas pelos modelos. O estudo dos vários tipos de dependência é importante pois um dado modelo de cópula pode ser mais adequado para um tipo de dependência pretendido do que para outro. Por exemplo, há modelos de cópula que modelam dependências positivas (limitante superior de Fréchet [25]) enquanto que há modelos de cópula que modelam dependências negativas (limitante inferior de Fréchet [25]). Há várias formas para definir dependências sendo que há conceitos que podem ser considerados mais fortes como, por exemplo, dependência MTP2 ou MRR2, e outros que podem ser considerados 1 2 mais fracos como, por exemplo, dependência PQD ou NQD. 1.2 Funções Totalmente Positivas e Totalmente Negativas As definições dadas a seguir referem-se à funções gerais sendo que a função densidade ou a função de probabilidade são casos particulares. Nesta seção, por simplicidade, serão dadasas definições e propriedades utilizando-se funções contínuas. O caso discreto é análogo. Definição 1.1. Seja uma função f(x) uma função não-negativa definida em χ = χ1×χ2× ...×χn onde cada χi é totalmente ordenado, satisfazendo f(x ∨ y)f(x ∧ y) ≥ f(x)f(y) (2.1) onde ∨ e ∧ são operações definidas como sendo x ∨ y = (max(x1, y1), ....,max(xn, yn)) e x ∧ y = (min(x1, y1), ....,min(xn, yn)); ∀x,y onde x = (x1, ..., xn) e y = (y1, ..., yn). A função densidade que satisfizer (2.1) será denomi- nada função multivariada totalmente positiva de ordem 2 (“multivariate totally positive of order 2”) denotada por MTP2. Um vetor aleatório X = (X1, ..., Xn) de n componentes será chamado MTP2 se sua função densidade for MTP2 [27]. A função f(x) que satisfizer a desigualdade (2.1) considerando-se ≤ no lugar de ≥ será chamada função multivariada totalmente negativa de ordem 2 (“multivariate reverse rule of order 2”) denotada por MRR2 [28]. Para a análise das definições acima será considerado o caso n = 2. Para este caso, será dada uma interpretação para cada um dos conceitos citados. Definição 1.2. Seja uma função f(x, y) não-negativa de duas variáveis definidas em χ = χ1 × χ2 sendo χ1 e χ2 totalmente ordenados. A função será totalmente positiva de ordem r, denotada por TPr, se para todo x1 < ... < xm, y1 < .... < ym, xi ∈ χ1, yi ∈ χ2, 1 ≤ m ≤ r, o determinante da matriz quadrada de ordem r, |f(xi, yi)|i,j=1,...,m, 1 ≤ m ≤ r, é definido como sendo [26] 3 |f(xi, yi)|i,j=1,2,...,m = ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ f(x1, y1) f(x1, y2) ... f(x1, ym) f(x2, y1) f(x2, y2) ... f(x2, ym) . . . . . . . . . f(xm, y1) f(xm, y2) ... f(xm, ym) ∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣ (2.2) for não-negativo. Quando r = 2, a partir da condição de que o determinante (2.2) seja não-negativo, obtém-se f(x1, x2)f(y1, y2) − f(x1, y2)f(y1, x2) ≥ 0 para toda escolha x1 < x2, y1 < y2, xi ∈ χ1, yi ∈ χ2, i = 1, 2. Neste caso, a função f(x, y) será totalmente positiva de ordem 2 (“totally positive of order 2”) [27]. Este conceito foi generalizado por meio da Definição 1.1. Uma função f(x, y), não-negativa, de duas variáveis reais, definidas em χ1 × χ2 sendo χ1 e χ2 totalmente ordenados será totalmente negativa de ordem 2 (“reverse rule of order 2”), denotado por RR2 se f(x1, x2)f(y1, y2) − f(x1, y2)f(y1, x2) ≤ 0 para toda escolha x1 < x2 e y1 < y2, xi ∈ χ1, yi ∈ χ2, i = 1, 2 [28]. Quando a função f for uma função densidade, o seu domínio será real, ou seja, χi = R, i = 1, ...., n. A condição de dependência positiva f(x1, x2)f(y1, y2) ≥ f(x1, y2)f(y1, x2) significa que é mais provável que ocorram dois pares com componentes assumindo valores grande-grande ou pequeno- pequeno do que dois pares com componentes assumindo valores grande-pequeno ou pequeno-grande. Os conceitos TP2 e RR2 podem ser estendidos. Considere µ uma medida de probabilidade nos conjuntos de Borel em Rn. Se I1, ..., In forem intervalos em R, define-se µ̃(I1, ..., In) = µ(I1×...×In). Se I e J forem intervalos em R, I < J se x ∈ I, y ∈ J implicar em x < y . Define-se [2, 23]: Definição 1.3. Seja µ̃ uma medida de probabilidade em R2. Esta medida será RR2 se µ̃(I1, I2)µ̃(I ′ 1, I ′ 2) ≤ µ̃(I1, I ′ 2)µ̃(I ′ 1, I2) para todos os intervalos I1 < I ′ 1, I2 < I ′ 2 em R. Definição 1.4. Seja µ̃ uma medida de probabilidade em Rn, n ≥ 2. Esta medida será RR2 aos pares se µ̃(I1, ..., In) for RR2 nos pares Ii, Ij para todo 1 ≤ i < j ≤ n sendo que as demais variáveis (intervalos) são mantidas fixas. As v.a. X1, ..., Xn (ou o vetor aleatório X ou sua f.d.a F) serão RR2 aos pares se sua correspondente medida de probabilidade em Rn for RR2 aos pares. 4 A seguir, serão apresentadas algumas propriedades referentes ao conceito MTP2. A demons- tração das propriedades podem ser encontradas em [27]. As propriedades 1 à 4 são úteis para a obtenção de funções densidade MTP2 a partir de outras funções densidade MTP2 e as propriedades 5 à 7 são úteis para a obtenção de funções densidade MTP2 a partir de funções densidade PF2 e/ou TP2. 1. Seja f uma função densidade MTP2 em χ. Então a função densidade marginal, ϕ, em ∏k i=1 χi dada por ϕ(x1, ..., xk) = ∫ χn .... ∫ χk+1 f(x1, ..., xk, xk+1, ..., xn)dxk+1...dxn é MTP2; 2. Se f e g forem funções densidade MTP2. Então, a função fg será MTP2; 3. Sejam χ = ∏n i=1 χi, ξ = ∏n i=1 ξi, ζ = ∏n i=1 ζi onde χi, ξi e ζi são espaços totalmente ordenados. Sejam f e g funções densidade MTP2, respectivamente, em ξ × χ e χ× ζ. Define-se, h(y, z) = ∫ χ f(y,x)g(x, z)dσ(x), σ = σ1 × ...× σn. Então, h é uma função MTP2 em ξ × ζ; 4. Se f(x) for MTP2, x ∈ χ, ϕ1, ..., ϕn forem todas funções crescentes (ou todas funções de- crescentes), respectivamente, em χ1, ..., χn e {φk(xk)}nk=1 forem funções positivas. Então, a função ψ(x) = ψ(x1, ..., xn) = ( ∏n i=1 φi(xk))f(ϕ1(x1), ..., ϕn(xn)) será MTP2 em χ; 5. Seja X = (X1, ..., Xn) um vetor aleatório composto por variáveis aleatóriasX1, ..., Xn indepen- dentes onde cada Xi, i = 1, ..., n, possui função densidade, fXi , PF21. Seja Y = (Y1, ..., Yn) um vetor aleatório com função densidade conjunta, fY, MTP2 em Rn e suponha que X e Y são independentes. Então, Z = X + Y possui uma função densidade MTP2; 6. Seja X = (X1, ..., Xn) um vetor aleatório composto por variáveis aleatórias X1, ..., Xn inde- pendentes onde cada Xi, i = 1, ..., n, possui função densidade, fXi , PF2 e seja Xo uma v.a. independente de X possuindo função densidade fXo . Define-se Zi = Xi + Xo, i = 1, ..., n. Então, a função densidade conjunta de Z = (Z1, ..., Zn) é MTP2; 1Uma função f(x) definida em (−∞,∞) é PFr (“Pólya frequency function of order r) se f(x − y) for TPr, −∞ < x, y < ∞ [26]. 5 7. Seja X = (X1, ..., Xn) um vetor aleatório composto por variáveis aleatóriasX1, ..., Xn indepen- dentes onde cada Xi, i = 1, ..., n possui função densidade, fXi . Seja Xo uma variável aleatória positiva. Se, para i = 1, ..., n, fXi(u/v) for TP2 em −∞ < u < ∞ e v > 0, ou fXi(uv) for TP2 em −∞ < u < ∞ e v > 0, então ambos os vetores aleatórios Z = (X1Xo, ..., XnXo) e W = (X1/Xo, ..., Xn/Xo) terão funções densidade MTP2; 8. Seja X = (X1, ..., Xn) um vetor aleatório possuindo densidade conjunta MTP2. Sejam ψ e ϕ, ambas funções crescentes (ou ambas funções decrescentes), em Rn. Então, E[ϕ(X)ψ(X)] ≥ (E[ϕ(X)])(E[ψ(X)]). Vale observar que, utilizando-se as propriedades 1 e 2, obtém-se a propriedade 3 e que da propriedade 2, obtém-se: Variáveis aleatórias independentes possuem função densidade conjunta MTP2. Da propriedade 1 obtém-se: Se X = (X1, ..., Xn) for MTP2 então qualquer subconjunto formado pelas componentes de X, por exemplo, (Xi, ..., Xk) será MTP2 onde 2 ≤ i, k < n E, da propriedade 8, obtém-se que Cov(ϕ(X), ψ(X)) ≥ 0 (2.3) a qual sugere a seguinte definição [11, 27]: Definição 1.5. Seja X = (X1, ..., Xn) um vetor aleatório satisfazendo a expressão (2.3) para qual- quer par de funções crescentes (ou decrescentes) ψ e ϕ. As componentes de X, X1, ..., Xn, são denominadas variáveis aleatórias associadas. Utilizando-se a definição anterior, obtém-se o seguinte resultado: Teorema 1.1. Seja X = (X1, ..., Xn) um vetor aleatório formado por v.a. associadas e sejam ϕ1, ..., ϕk funções não-negativas em Rn sendo todas crescentes (ou todas decrescentes). Então, E [ k∏ i=1 ϕi(X) ] ≥ k∏ i=1 E [ϕi(X)] (2.4) 6 Demonstração: Para a demonstração consulte [27]. Em particular, se ϕi(X) = ϕi(Xi), i = 1, ..., n, a expressão (2.4) do teorema anterior fornece E[ϕ1(X1)...ϕn(Xn)] ≥ n∏ i=1 E[ϕi(Xi)] (2.5) Especialmente, a expressão (2.5) permite demonstrar P (X1 ≥ c1, ..., Xn ≥ cn) ≥ ∏n i=1 P (Xi ≥ ci) e P (X1 ≤ c1, ..., Xn ≤ cn) ≥ ∏n i=1 P (Xi ≤ ci). Na próxima seção, tais desigualdades designarão outros tipos de dependência. Vale observar que a partir do conceito de dependência MTP2 obteve-se o conceito de variáveis aleatórias associadas. Com isso, o conceito de dependência MTP2 é mais forte do que o conceito de variáveis aleatórias associadas no sentido de que o primeiro implica no segundo. A seguir, serão apresentadasalgumas propriedades referentes à v.a. associadas [11]. 1. Um subconjunto de v.a. associadas é associado; 2. Se dois conjuntos de v.a. associadas forem independentes, então a união será um conjunto de v.a. associadas; 3. Funções não-decrescentes de v.a. associadas são associadas; 4. Um conjunto formado por uma única v.a. é associado; 5. Variáveis aleatórias independentes são associadas; 6. Se T(k) = (T (k)1 , ..., T (k) n ) for um vetor aleatório com T (k) i , i = 1, ..., n, associadas para cada k e T(k) → T, em distribuição, então as componentes do vetor aleatório T = (T1, ..., Tn) serão associadas. Serão apresentados, a seguir, alguns exemplos de funções densidade MTP2 [27]. • Exemplo 1: Seja X = (X1, ..., Xn) uma amostra aletória formada por variáveis aleatórias i.i.d. Xi, possuindo função densidade f . Então, a densidade conjunta das estatísticas de ordem X1,n, ..., Xn,n é MTP2; 7 • Exemplo 2: Considere que X = (X1, ..., Xn) ∼ N(0, ∑ ). Esta distribuição será MTP2 se e somente se − ∑−1 possuir elementos fora da diagonal não-negativos; • Exemplo 3: A função densidade da Distribuição Logística Multivariada é definida como sendo f(x1, ..., xn) = n!exp { − n∑ i=1 xi }{ 1 + n∑ i=1 e−xi }−(m+1) O Núcleo Generalizado de Cauchy é dado por k(y) = 1 (1 + ∑n i=1 yi) α onde yi > 0, i = 1, ..., n. Este núcleo é TP2 em cada par de variáveis. Com isso, a Distribuição Logística Multivariada é MTP2 pelas propriedades 2 e 4 referentes à função densidade MTP2; • Exemplo 4: Seja X1, ..., Xn v.a. independentes com Xi ∼ Gama(αi, βi), αi ≥ 1, βi > 0, i = 1, ..., n. A função densidade fXi(x) = cixαi−1e−βix , x > 0 é PF2. Se Xo for indepen- dente de X1, ..., Xn, Xo ∼ Gama(αo, βo), então o vetor Z = (X1 + Xo, ...., Xn + Xo) possui Distribuição Gamma Multivariada e, pela propriedade 6 referente à função densidade MTP2, tem-se que a sua densidade conjunta será MTP2; • Exemplo 5: Seja X1, ..., Xn v.a. independentes com Xi ∼ Gama(αi, βi), αi > 0, βi > 0, i = 1, ..., n. A função densidade fXi(u/v) = ci(u/v)αi−1e−βi(u/v), é TP2 para u e v positivos. Se Xo for independente de X1, ..., Xn e Xi ∼ χ2νi , então o vetor Z = ((X1/ν1)(Xo/νo)−1, ...., (Xn/νn)(Xo/νo)−1) possuirá Distribuição F Multivariada e, pela propriedade 7 referente à função densidade MTP2, tem-se que a sua densidade conjunta será MTP2; • Exemplo 6: Seja X = (X1, ..., Xn) ∼ N(0, I) e S ∼ χ2, X e S independentes. Seja Z = (Z1, ..., Zn) = (X1/S, ...,Xn/S). O vetor aleatório Z possui Distribuição de Cauchy multivariada. Então, (|Z1|, ..., |Zn|) possui densidade conjunta MTP2 considerando o mesmo argumento do exemplo prévio desde que e−u2/v2 é TP2 com u > 0, v > 0. A seguir, serão apresentadas algumas propriedades referentes às funções MRR2 [28]. 8 1. Se f e g forem funções MRR2. Então, a função fg será MRR2; 2. Se f(x) for MRR2 com x ∈ χ e ϕ1, ..., ϕn forem todas funções crescentes (ou todas funções de- crescentes), respectivamente, em χ1, ..., χn. Então, a função ψ(x) = ψ(x1, ..., xn)=f(ϕ1(x1), ...ϕn(xn)) será MRR2 em χ; A seguir, serão apresentados alguns exemplos de distribuições MRR2 [28]. • Exemplo 1: Seja X = (X1, ..., Xn) um vetor aleatório composto por v.a. independentes tais que Xi ∼ Binomial(ni, pi), ∑n i=1 pi = 1, ∑n i=1Xi = N . A distribuição de X é dada por PX(x) = N !∏n i=1 xi! (N − ∑n i=1 xi)! n∏ i=1 pxii ( 1− n∑ i=1 pi )N−Pni=1 xi (2.6) onde x = (x1, ..., xn) representa um dado valor que o vetor aleatório X assume e pi ≥ 0, i = 1, ..., n. Esta distribuição é denominada Distribuição Multinomial e, pode-se mostrar, que esta é MRR2; • Exemplo 2: Seja X = (X1, ..., Xn) um vetor aleatório. A função de probabilidade da Dis- tribuição Hipergeométrica Multivariada é dada por PX(x) = [∏n i=1 ( Mi xi )]( M − ∑n i=1Mi m− ∑n i=1 xi )( M m )−1 (2.7) com ∑n i=1 xi = m, 0 ≤ xi ≤ Mi, i = 1, ..., n e ∑n i=1Mi = M onde x = (x1, ..., xn) representa um dado valor que o vetor aleatório X assume. Esta distribuição é MRR2; • Exemplo 3: Seja X = (X1, ..., Xn) um vetor aleatório. A função densidade da Distribuição de Dirichlet é dada por f(x) = Γ( ∑n j=0 θj)∏n j=0 Γ(θj) 1− n∑ j=1 xj θ0−1 n∏ j=1 x θj−1 j (2.8) onde ∑n j=1 xj ≤ 1, 0 ≤ xj e θj ≥ 1, j = 0, .., n sendo Γ(.) a Função Gama. A Distribuição de Dirichlet é MRR2. 9 1.3 Dependência do Quadrante Positivo (e Negativo) e do Octante Considere X um vetor aleatório de dimensão n (n ≥ 2) com f.d.a. F . Define-se a dependência do octante superior positivo (“positive upper orthant dependent”) e a dependência do octante inferior positivo (“positive lower orthant dependent”) [25] como sendo: Definição 1.6. X = (X1, ..., Xn) ou F possuem dependência do octante superior positivo (PUOD) se P (Xi > ai, i = 1, ..., n) ≥ ∏n i=1 P (Xi > ai), ∀a = (a1, ..., an) ∈ Rn. Definição 1.7. X = (X1, ..., Xn) ou F possuem dependência do octante inferior positivo (PLOD) se P (Xi ≤ ai, i = 1, ..., n) ≥ ∏n i=1 P (Xi ≤ ai), ∀a = (a1, ..., an) ∈ Rn. Se X verifica as Definições 1.6 e 1.7 então X ou F possuem dependência do octante posi- tivo(“positive orthant dependent”) denotada por POD. Intuitivamente, a expressão da Definição 1.6 significa que é mais provável que X1, ..., Xn as- sumam, simultaneamente, valores grandes comparado com o vetor de v.a. independentes com as mesmas correspondentes distribuições marginais univariadas. Similarmente, serão enunciados os conceitos de dependência do octante inferior negativo (“nega- tive lower orthant dependent”), dependência do octante superior negativo (“negative upper orthant dependent”) e dependência do octante negativo (“negative orthant dependent”) [25]. Definição 1.8. X = (X1, ..., Xn) ou F possuem dependência do octante superior negativo (NUOD) se P (Xi > ai, i = 1, ..., n) ≤ ∏n i=1 P (Xi > ai), ∀a = (a1, ..., an) ∈ Rn. Definição 1.9. X = (X1, ..., Xn) ou F possuem dependência do octante inferior negativo (NLOD) se P (Xi ≤ ai, i = 1, ..., n) ≤ ∏n i=1 P (Xi ≤ ai), ∀a = (a1, ..., an) ∈ Rn. Se X verifica as Definições 1.8 e 1.9 então X ou F possuem dependência do octante negativo (NOD). As expressões que compõem as definições 1.6 e 1.7, em geral, para n ≥ 3, não se equivalem (veja um contra-exemplo na seção 3.2.5). Porém, para n = 2, elas se equivalem. Isto, também, vale para as definições 1.8 e 1.9. Com isso, definições acima se reduzem, para n = 2, às seguintes: Seja X = (X1, X2) um vetor aleatório bivariado com f.d.a. F . Então, define-se a dependência do quadrante positivo (“positive quadrant dependent”) [30, 25] como sendo: 10 Definição 1.10. X ou F possuem dependência do quadrante positivo (PQD) se P (X1 > a1, X2 > a2) ≥ P (X1 > a1)P (X2 > a2), ∀a1, a2 ∈ R, ou equivalentemente, P (X1 ≤ a1, X2 ≤ a2) ≥ P(X1 ≤ a1) P(X2 ≤ a2), ∀a1, a2 ∈ R. A expressão da definição 1.10 representa uma condição de dependência positiva e significa que é mais provável que X1 e X2 assumam, conjuntamente, valores grandes ou pequenos comparado com X ′ 1 e X ′ 2 onde X1 d= X ′ 1 e X2 d= X ′ 2 sendo X ′ 1 e X ′ 2) v.a. independentes. Similarmente, será apresentada a dependência do quadrante negativo(“negative quadrant dependent”) [30, 25] definido a seguir. Definição 1.11. X ou F possuem dependência do quadrante negativo (NQD) se P (X1 > a1, X2 > a2) ≤ P (X1 > a1)P (X2 > a2), ∀a1, a2 ∈ R, ou equivalentemente, P (X1 ≤ a1, X2 ≤ a2) ≤ P(X1 ≤ a1) P(X2 ≤ a2), ∀a1, a2 ∈ R. A seguir, serão apresentadas algumas propriedades referentes ao conceito de dependência PQD e NQD [30]. 1. O vetor de v.a. (X,X) será PQD para todo X; 2. Se o vetor de v.a. (X,Y ) for PQD, então o vetor (X,−Y ) será NQD; 3. Se o vetor de v.a. (X,Y ) for PQD então o vetor (r(X), s(Y )) será PQD se r e s forem funções não-decrescentes; 4. Sejam (X1, Y1), ..., (Xn, Yn) pares independentes de v.a. com funções de distribuição F1, ...., Fn. Sejam r e s funções de n variáveis e sejam X = r(X1, ..., Xn) e Y = s(Y1, ..., Yn). Então: (a) (X,Y ) será PQD se, para cada i, as seguintes condições forem válidas: i. Fi é PQD e r, s são concordantes2 para a i-ésima coordenada ou; ii. Fi é NQD e r, s são discordantes 3 para a i-ésima coordenada. 2Duas funções reais r e s de n variáveis independentes serão concordantes para a i-ésima coordenada se, considerando-as funções da i-ésima coordenada, deixando as demais fixas, ambas são funções não-decrescentes ou ambas são funções não-crescentes. 3Duas funções reais r e s de n variáveis independentes serão concordantes para a i-ésima coordenada se, considerando-as funções da i-ésima coordenada, deixando as demais fixas, uma das funções é não-decrescente e a outra é não-crescente. 11 (b) (X,Y ) será NQD se, para cada i, as seguintes condições forem válidas: i. Fi é PQD e r, s são discordantes para a i-ésima coordenada ou; ii. Fi é NQD e r, s são concordantes para a i-ésima coordenada. 5. Sejam (X1, Y1), ..., (Xn, Yn) pares independentes de v.a. com funções de distribuição F1, ...., Fn. Sejam U e V v.a. independentes e independentes de (X1, Y1), ..., (Xn, Yn) e sejam X = r(U,X1, ..., Xn) e Y = s(V,X1, ..., Xn). Então, as conclusões dos ítens (a) e (b) na propriedade 4. continuam válidas. 6. Se (X,Y ) for PQD e se existirem E(XY ), E(X) e E(Y ), então E(XY ) ≥ E(X)E(Y ). A seguir, serão apresentados alguns exemplos de v.a. PQD [30]. As justificativas dos exemplos baseiam-se nas propriedades anteriores. • Exemplo 1: Para qualquer v.a. X e para qualquer função não-decrescente s, o vetor (X, s(X)) será PQD; • Exemplo 2: (X = U + aZ, Y = V + bZ) será PQD se as constantes a e b tiverem o mesmo sinal para quaisquer v.a. independentes U , V e Z; • Exemplo 3: Para quaisquer v.a. independentes X e V , (X,Y = X + V ) será PQD; • Exemplo 4: (X = r(U,Z), Y = s(V,Z)) será PQD se U , V e Z forem v.a. independentes e r e s forem funções não-decrescentes em Z (arbitrárias para as demais v.a.). Agora, serão apresentadas algumas propriedades relativas ao conceito NOD [8]: 1. Qualquer conjunto de v.a. independentes será NOD; 2. Qualquer subconjunto de tamanho ≥ 2 formado por v.a. NOD será NOD; 3. Se X1, ..., Xn forem v.a. NOD e ϕ1, ..., ϕn forem funções Borel-mensuráveis crescentes com valores reais. Então, ϕ1(X1), ..., ϕn(Xn) serão v.a. NOD; 4. A união de conjuntos independentes de v.a. NOD será NOD. 12 Também, serão apresentados alguns exemplos de distribuições NOD [23]. • Exemplo 1: A Distribuição Multinomial dada por (2.6) é NOD; • Exemplo 2: A Distribuição Hipergeométrica Multivariada dada por (2.7) é NOD; • Exemplo 3: A Distribuição de Dirichlet dada por (2.8) é NOD. 1.3.1 Variáveis Aleatórias Estocasticamente Crescentes e Decrescentes, Dependência Crescente na Cauda à Direita e Dependência Decrescente na Cauda à Esquerda Denotando-se =(F1, ..., Fn) como a classe das distribuições multivariadas que possuem funções de distribuição marginais F1, ..., Fn, considere X = (X1, X2) um vetor aleatório bivariado possuindo f.d.a F ∈ =(F1, F2). Define-se: Definição 1.12. A variável aleatória X2 será estocasticamente crescente (“stochastically increasing”), denotada por SI, em X1 ou a distribuição condicional F2|1 será estocasticamente crescente (↑) se P (X2 > x2|X1 = x1) = 1− F2|1(x2|x1) ↑ x1,∀x2 [25]. Se, na Definição 1.12, trocarmos os índices 1 por 2 e 2 por 1, ter-se-á que X1 será SI em X2 ou F1|2 será SI. A expressão da definição 1.12 representa uma condição de dependência positiva e significa que a probabilidade de que X2 ultrapasse um limiar x2 é crescente quando X1 aumentar. Se, na Definição 1.12, trocarmos ↑ por ↓, a variável aleatória X2 será estocasticamente decres- centes (“stochastically decreasing”), denotada por SD, em X1 [25]. Há dois conceitos de dependência que podem ser considerados como uma extensão multivariada do conceito SI (Definição 1.12): dependência positiva através da ordenação estocástica (“positive de- pendence through the stochastic ordering”) e dependência condicionalmente crescente em sequência (“conditional increasing in sequence”)[8]. Definição 1.13. O vetor aleatório (X1, ..., Xn) possuirá dependência positiva através da ordenação estocástica, denotada por PDS, se [X1, ..., Xi−1|Xi = xi] for estocasticamente crescente quando xi aumentar, para todo i = 1, ..., n. 13 Definição 1.14. O vetor aleatório (X1, ..., Xn) possuirá dependência condicionalmente crescente em sequência, denotada por CIS, se Xi for estocasticamente crescente em X1, ..., Xi−1 , isto é, se P (Xi > xi|X1 = x1, ..., Xi−1 = xi−1) ↑ (for crescente em) x1, ..., xi−1, ∀xi, i = 1, ..., n. Note que, para n = 2, PDS equivale à X2 SI em X1 e X1 SI em X2. Da mesma forma, CIS equivale à SI. Os conceitos de v.a. PDS e CIS possuem as seguintes versões para dependência negativa: dependência negativa através da ordenação estocástica (“negative dependence through the stochastic ordering”) e dependência condicionalmente decrescente em sequência (“conditional decreasing in sequence”). Definição 1.15. O vetor aleatório (X1, ..., Xn) possuirá dependência negativa através da ordenação estocástica, denotada por NDS, se [X1, ..., Xi−1|Xi = xi] for estocasticamente decrescente em xi, para todo i = 1, ..., n [23]. Definição 1.16. O vetor aleatório (X1, ..., Xn) possuirá dependência condicionalmente decrescente em sequência, denotada por CDS, se P (Xi > xi|X1 = x1, ..., Xi−1 = xi−1) ↓ (for decrescente em) x1, ..., xi−1, ∀xi, i = 1, ..., n [8]. Para v.a. CDS (veja a Definição 1.16) e NOD (veja as Definições 1.8 e 1.9), tem-se a seguinte propriedade [23]: Sejam Xo, X1, ..., Xn v.a. independentes sendo que cada v.a. possui função den- sidade ou função de probabilidade PF2. Então, para x fixo, as v.a. condicionais (X1, ..., Xn|Xo +X1 + ...+Xn = x) são RR2 aos pares e, consequentemente, serão CDS e NOD. Nas Definições 1.14 e 1.16, ao invés, das v.a. X1, ..., Xi−1 serem condicionadas, respectivamente, aos valores fixo x1, ..., xi−1, pode-se considerar X1, ..., Xi−1 condicionadas, respectivamente, em X1 > x1, ..., Xi−1 > xi−1 ou X1 ≤ x1, ..., Xi−1 ≤ xi−1. Dessa forma, tem-se as seguintes definições [8]. Definição 1.17. As v.a. X1, ..., Xn serão crescentes na cauda à direita em sequência (“right-tail increasing in sequence”), denotada por RTIS, se P (Xi > xi|X1 > x1, ..., Xi−1 > xi−1) ↑ (for crescente em) x1, ..., xi−1, ∀xi, i = 1, ..., n. 14 Definição 1.18. As v.a. X1, ..., Xn serão crescentes na cauda à esquerda em sequência (“left-tail decreasing in sequence”), denotada por LTIS, se P (Xi ≤ xi|X1 ≤ x1, ..., Xi−1 ≤ xi−1) ↑ x1, ..., xi−1, ∀xi, i = 1, ..., n. Se n = 2, a Definição 1.17 torna-se: A v.a. X2 será crescente na cauda à direita (“right-tail increasing”), denotada por RTI, em X1 se P (X2 > x2|X1 > x1) = 1−F (x1,x2)1−F1(x1) ↑ x1,∀x2 [25]. Se n = 2, a Definição 1.18 torna-se: A v.a. X2 será crescente na cauda à esquerda (“left-tail incresing”), denotada por LTI, em X1 se P (X2 ≤ x2|X1 ≤ x1) = F (x1,x2)F1(x1) ↑ x1,∀x2 [8]. As expressões nas Definições 1.17 e 1.18 são condições de dependência positiva. Pela Definição 1.17, para o caso em que n = 2, tem-se que é mais provável que X2 assuma valores grandes quando X1 aumentar. E, pela Definição 1.18, para o caso em que n = 2, tem-se que é mais provável que X2 assuma valores pequenos quando X1 diminuir. Se, nas Definições 1.17 e 1.18, a monocidade ↑ for trocada por ↓, ter-se-á os conceitos referentes à dependência negativa. Se, na Definição 1.17, a monocidade ↑ for trocada por ↓ tem-se que as v.a. X1, ..., Xn serão decrescentes na cauda à direita em sequência (“right-tail decreasing in sequence”), denotada por RTDS, ou seja, P (Xi > xi|X1 > x1, ..., Xi−1 > xi−1) ↓ x1, ..., xi−1, ∀xi, i = 1, ..., n [8] sendo que, para n = 2, a v.a. X2 será decrescente na cauda à direita (“right-tail decresing”), denotada por RTD, em X1, ou seja, P (X2 > x2|X1 > x1) = F (x1,x2)F1(x1) ↓ x1,∀x2 [8, 25]. Se, na Definição 1.18, a monocidade ↑ for trocada por ↓ tem-se que as v.a. X1, ..., Xn serão decrescentes na cauda à esquerda em sequência (“left-tail decreasing in sequence”), denotada por LTDS, se P (Xi ≤ xi|X1 ≤ x1, ..., Xi−1 ≤ xi−1)↓ x1, ..., xi−1, ∀xi, i = 1, ..., n [8] sendo que, para n = 2, a v.a. X2 será decrescente na cauda à esquerda (“left-tail decreasing ”), denotada por LTD, em X1, ou seja, P (X2 ≤ x2|X1 ≤ x1) = F (x1,x2)F1(x1) ↓ x1,∀x2 [8, 25]. A seguir, algumas propriedades referentes às dependências SI, SD, CDS, RTDS, RTD serão dadas [8]: 1. X2 será SD em X1 se e somente se X2 for SI em −X1. Além disso, X2 será SD em X1 se e somente se −X2 for SI em X1; 2. Seja o vetor aleatório (X,Y ) possuindo função densidade f(x, y) satisfazendo 15 ∣∣∣∣∣ f(x1, y1) f(x1, y2)f(x2, y1) f(x2, y2) ∣∣∣∣∣ ≤ 0 para cada escolha x1 < x2, y1 < y2. Então, Y será SD em X; 3. Sejam: (a) (X1, ..., Xn) um vetor aleatório possuindo função densidade f(x1, ..., xn) que satisfaz ∣∣∣∣∣ f(x1, ..., xi, ..., xj , ..., xn) f(x1, ..., xi, ..., x ′ j , ..., xn) f(x1, ..., x ′ i, ..., xj , ..., xn) f(x1, ..., x ′ i, ..., x ′ j , ..., xn) ∣∣∣∣∣ ≤ 0 (3.9) para cada par de variáveis permanecendo as demais fixas onde xi < x ′ i e xj < x ′ j ; (b) Todas as funções de densidade marginais fk(x1, ..., xk), 1 ≤ k < n satisfazendo (3.9) para cada par de variáveis permanecendo as demais fixas. Então, (X1, ..., Xn) será CDS e cada permutação de (X1, ..., Xn) será CDS; 4. Seja o vetor aleatório (X1, ..., Xn) CDS. Então, E(ϕ(Xi)|X1 = x1, ..., Xi−1 = xi−1) será de- crescente em x1, ..., xi−1 para cada função integrável crescente ϕ; 5. Seja a sequência {Xn, n ≥ 1} de vetores aleatórios CDS p-dimensionais com f.d.a. {Hn, n ≥ 1} tais queHn → H fracamente quando n→∞ ondeH é a f.d.a. do vetor aleatório p-dimensional X. Então, X será CDS; 6. Qualquer conjunto de v.a. independentes é RTDS; 7. Qualquer subconjunto de v.a. RTDS é RTDS; 8. Se X1, ..., Xn forem v.a. RTDS e ϕ1, ..., ϕn forem funções Borel-mensuráveis crescentes, então ϕ1(X1), ..., ϕn(Xn) será RTDS; 9. Seja X = (X1, X2). Então, X2 é RTD em X1 ⇔ P (X2 ≥ x2|X1 > x1) ↓ x1 para todo x2 ⇔ E(ϕ(X2)|X1 > x1) ↓ x1 para toda função real ϕ crescente; 16 10. Seja X2 v.a. RTD na v.a. X1 e seja Z uma v.a. independente de (X1, X2). Definindo X = X1 + aZ e Y = X2 + bZ, a e b constantes, tem-se que Y é RTD em X; 11. Seja a sequência {Xn, n ≥ 1} de vetores aleatórios RTDS p-dimensionais com f.d.a. {Hn, n ≥ 1} tais que Hn → H fracamente quando n→∞ onde H é a f.d.a. do vetor aleatório p-dimensional X. Então, X será RTDS; 12. Seja (U, V ) RTD e seja Z uma v.a. independente de (U, V ). Definindo ϕ1 e ϕ2, funções Borel-mensuráveis que mapeiam R2 em R com ϕ1(u, .) crescente em u e ϕ2(., v) crescente em v. Então, (X,Y ) é RTD onde X = ϕ1(U,Z) e Y = ϕ2(Z, V ); 13. Sejam X = (X1, ..., Xn) um vetor aleatório formado por v.a. RTDS, ϕl : R → R uma função Borel-mensurável crescente para cada l = 1, ..., n. Sejam Z = (Z1, ...Zn) um vetor aleatório formado por v.a. RTDS sendo X e Z independentes. Definindo Yl = ϕl(Xl) + Zl, l = 1, ..., n, tem-se que Y1, ..., Yn são RTDS; 14. Sejam (a) Seja (X1, ..., Xn) um vetor aleatório tal que Fn(x1, ..., xn) = P (X1 > x1, ..., Xn > xn) satisfaça: i. ∣∣∣∣∣ Fn(x1, ..., xi, ..., xj , ..., xn) Fn((x1, ..., xi, ..., x ′ j , ..., xn) Fn(x1, ..., x ′ i, ..., xj , ..., xn) Fn((x1, ..., x ′ i, ..., x ′ j , ..., xn) ∣∣∣∣∣ ≤ 0 (3.10) para cada par de variáveis permanecendo as demais fixas xi < x ′ i e xj < x ′ j ; ii. Se F k(x1, ..., xk) = P (X1 > x1, ..., Xk > xk), 1 ≤ k < n, verificar (3.10) para cada par de variáveis permanecendo as demais fixas; Então, (X1, ..., Xn) será RTDS e qualquer permutação de (X1, ..., Xn) será RTDS; A seguir, serão apresentados alguns exemplos relativos à alguns conceitos de dependência apre- sentados nesta seção [8, 23]: • Exemplo 1: A Distribuição Multinormal com vetor de médias µ = (µ1, ..., µn) e matriz de variância-covariância ∑ definida positiva é CDS; 17 • Exemplo 2: A Distribuição Multinomial dada por (2.6) é CDS e NDS; • Exemplo 3: A Distribuição de Dirichlet dada por (2.8) é CDS. 1.4 Variáveis Aleatórias Negativamente Associadas Definição 1.19. As variáveis aleatórias X1, ..., Xn possuem associação negativa (“negative association”), denotada por NA, se para cada par de subconjuntos disjuntos A1, A2 de {1, ..., n} tem-se Cov(ϕ(Xi, i ∈ A1), ψ(Xj , j ∈ A2)) ≤ 0 (4.11) sempre que ϕ e ψ forem funções crescentes [23]. Vale observar que (4.11) continua válida se ϕ e ψ forem funções decrescentes. A seguir, serão apresentadas algumas propriedades referentes ao conceito de v.a. NA [23]. 1. Sejam A1, ..., Am subconjuntos disjuntos de índices {1, ..., n} e φ, ..., φm funções crescentes e positivas. Se as variáveis aleatórias, X1, ..., Xn, forem NA, então: E [ m∏ i=1 φi(Xj , j ∈ Ai) ] ≤ m∏ i=1 E[φi(Xj , j ∈ Ai)] 2. Um subconjunto de duas ou mais v.a. NA é NA; 3. Um conjunto de v.a. independentes é NA; 4. Funções crescentes definidas em subconjuntos disjuntos de um conjunto de v.a. NA são NA; 5. A união de conjuntos independentes de v.a. NA é NA; 6. Sejam X1, ..., Xn v.a. independentes e suponha que a esperança condicional E(φ(Xi, i ∈ A)| ∑ i∈AXi) seja crescente em ∑ i∈AXi, para cada função crescente φ e para cada subconjunto apropriado A de índices {1, ..., n}. Então, a distribuição condicional de X1, ..., Xn dado ∑ Xi é NA, quase certamente; 18 7. Sejam X1, ..., Xn v.a. independentes possuindo funções densidade PF2. Então, a distribuição condicional conjunta de X1, ..., Xn dado ∑ Xi é NA, quase certamente. Uma consequência da propriedade 1 é a dada a seguir: Se A1, A2 forem subconjuntos disjuntos de índices {1, ..., n} e x1, ..., xn ∈ R. Então, P (Xi ≤ xi, i = 1, ..., n) ≤ P (Xi ≤ xi, i ∈ Ai)P (Xj ≤ xj , j ∈ A2) e P (Xi > xi, i = 1, ..., n) ≤ P (Xi > xi, i ∈ Ai)P (Xj > xj , j ∈ A2); Então, em particular, X1, ..., Xn são NOD. A seguir serão apresentados alguns exemplos de distribuições NA [23]. • Exemplo 1: Seja x = (x1, ..., xn) um conjunto de n números reais. Uma distribuição de permutação é a distribuição conjunta do vetor X = (X1, ..., Xn) que assume os valores de todas a n! permutações de x com igual probabilidade, sendo cada probabilidade igual à 1n! , n > 1. Temos que uma distribuição de permutação é NA; • Exemplo 2: A Distribuição Multinomial dada por (2.6) é NA; • Exemplo 3: A Distribuição Hipergeométrica Multivariada dada por (2.7) é NA; • Exemplo 4: Seja X = (X1, .., Xn) uma amostra aleatória de uma população. Seja Ri o posto de Xi, i = 1, ..., n. Como R = (R1, ..., Rn) possui distribuição de permutação, tem-se que R será NA; • Exemplo 5: Variáveis aleatórias que possuem distribuições normais negativamente correla- cionadas são NA; • Exemplo 6: A Distribuição de Dirichlet dada por (2.8) é NA. 19 1.5 Implicações e Contra-exemplos envolvendo os Conceitos de De- pendência Teorema 1.2. Todos os tipos de dependências, definidos nas seções anteriores, são invariantes com respeito às transformações estritamente crescentes sobre as componentes do vetor aleatório. Demonstração: Para a demonstração consulte [25]. Teorema 1.3. Relações para o caso bivariado: (a) densidade TP2 ⇒ SI ⇒ LTD, RTI; (b) LTD ou RTI ⇒ associação ⇒ PQD; (c) densidade TP2 ⇒ f.d.a. TP2 e função de sobrevivência TP2; (d) f.d.a TP2 ⇒ LTD e função de sobrevivência TP2 ⇒ RTI. Demonstração: Para a demonstração consulte [25]. Pelo teorema anterior, observa-se que a dependência TP2 é uma dependência forte pois esta implica nas dependências SI, LTD, RTI, associação e PQD entre v.a. . A dependência mais fraca é a PQD. Teorema 1.4. Relações para o caso multivariado: (a) um subvetor aleatório de um vetor aleatório associado é associado; (b) associação ⇒ PUOD e PLOD; 20 (c) PDS ⇒ PUOD e PLOD; (d) CIS ⇒ associação. Demonstração: Para a demonstração consulte [25]. A seguir, serão dadas outras implicações entre os conceitos de dependência: 1. Um par de v.a. NQD é NA [23]; 2. Um par de v.a. NA é NOD [23]; 3. RTDS equivale à NUOD [8]; 4. LTI equivale à NQD. Porém, para n ≥ 3, LTIS não implica em NUOD [8]; 5. RTIS implica em PUOD [8]; 6. Se (X1, X2) for SD, ele será também RTD. Na sequência, serão dadosexemplos de implicações que não são válidas. Na seção 1.6 são mostradas as tabelas utilizadas em alguns contra-exemplos. • Contra-Exemplo 1: Para n ≥ 3, NUOD e NLOD não se equivalem [23] Sejam as v.a. X1, X2 e X3 assumindo valores (0, 1, 1), (1, 0, 1), (1, 1, 0) e (0, 0, 0) sendo que cada valor assume a probabilidade 1/4. Então, P (X1 > 0, X2 > 0, X3 > 0) = 0 < 1 8 = P (X1 > 0)P (X2 > 0)P (X3 > 0) mas P (X1 ≤ 0, X2 ≤ 0, X3 ≤ 0) = 1 4 > 1 8 = P (X1 ≤ 0)P (X2 ≤ 0)P (X3 ≤ 0); • Contra-Exemplo 2: Nem v.a. NUOD e nem v.a. NLOD implica em v.a. NA [23] No contra-exemplo seguinte, X = (X1, X2, X3, X4) será NOD mas não será NA. 21 Seja o vetor aleatório X = (X1, X2, X3, X4) onde cada v.a. Xi possui Distribuição de Bernoulli com P (Xi = 1) = 0, 5, i = 1, ..., 4. Considere os pares (X1, X2) e (X3, X4) possuindo a mesma distribuição bivariada. A função de probabilidade conjunta de (X1, X2, X3, X4) é dada pela Tabela 6.1. Pode-se verificar que todas as condições NLOD e NUOD são válidas. Porém, P (Xi = 1, i = 1, ..., 4) > P (X1 = X2 = 1)P (X3 = X4 = 1) viola o conceito NA; • Contra-Exemplo 3: RTD não implica em LTI [8] Sejam (X,Y ) duas v.a. tendo função de probabilidade conjunta dada pela Tabela 6.2. Como P (Y > 0|X ≥ 0) = 310 , P (Y > 0|X ≥ 1) = 44 165 , P (Y > 0|X ≥ 2) = 30 165 e P (Y > 0|X ≥ 3) = 0 tem-se que Y é RTD em X. Porém, P (Y = 0|X ≤ 0) = 35 > 5 9 = P (Y = 0|X ≤ 1) e, assim, Y não é LTI em X; • Contra-Exemplo 4: LTI não equivale à RTD [8] Para mostrar que LTI não implica em RTD, considere (X,Y ) duas v.a. tendo distribuição conjunta de probabilidade dada pela Tabela 6.3. Como P (Y = 0|X ≤ 0) = 25 , P (Y = 0|X ≤ 1) = 1 2 , P (Y = 0|X ≤ 2) = 3 5 e P (Y = 0|X ≤ 3) = 35 tem-se que Y é LTI em X. Porém, P (Y = 1|X > 1) = 0, 30 < 0, 40 = P (Y = 1|X > 2) e, assim, Y não é RTD em X; • Contra-Exemplo 5: Para n ≥ 3, LTIS não equivale à NUOD [8] Considere as v.a. X, Y e Z tais que Z condicionado em X ≤ x e Y ≤ y, possui função densidade P (Z ≤ z|X ≤ x, Y ≤ y) = 1− exp{−z(x+ y)} (5.12) com z > 0. As v.a. X e Y possuem função de distribuição conjunta dada pela Tabela 6.3. Desde que lado direito de (5.12) é crescente em x e y e, a partir do exemplo supra-citado, (X,Y ) é LTI e a sequência (X,Y, Z) é LTIS. 22 Porém, desde que P (Z ≤ z|X ≤ x) = 1− exp{−z(x+ 1)} e P (Z ≤ z|Y ≤ y) = 1− exp{−z(y + 3)} segue que P (X > 2, Y > 0, Z > 2) = e−8−1, 35e−6+0, 45e−4 > 0, 1e−8 = P (X > 2)P (Y > 0)P (Z > 2); • Contra-Exemplo 6: CDS não implica em RTDS [8] Para mostrar que CDS não implica em RTDS, considere X1, X2 e X3 v.a. tais que fX3|X1,X2(x3|x1, x2) = x2e −x2x3 com x3 > 0. As v.a. X1 e X2 possuem função de probabilidade conjunta dada pela Tabela 6.4. Como P (X2 > 1|X1 = 0) = 1, P (X2 > 1|X1 = 1) = 13 , P (X2 > 1|X1 = 2) = 1 4 , P (X2 > 2|X1 = 0) = 13 , P (X2 > 2|X1 = 1) = 1 3 e P (X2 > 2|X1 = 2) = 0 tem-se que X2 é SD em X1. Além disso, como P (X3 > x|X1 = x1, X2 = x2) = exp{−x2x} ↓ x2 tem-se que (X1, X2, X3) é CDS. Por outro lado, utilizando-se a identidade P (C|A ∪B) = P (C|A) P (A) P (A) + P (B) + P (C|B) P (B) P (A) + P (B) quando P (A ∩B) = 0, P (A) > 0 e P (B) > 0, obtém-se P (X3 > x|X1 > 0, X2 > 1) = 1 2 P (X3 > x|X1 = 1, X2 = 3) + P (X3 > x|X1 = 2, X2 = 2) = = 1 2 ( e−3x + e−2x ) enquanto que P (X3 > x|X1 > 1, X2 > 1) = P (X3 > x|X1 = 2, X2 = 2) = e−2x. 23 Como P (X3 > x|X1 > 1, X2 > 1) > P (X3 > x|X1 > 0, X2 > 1), ∀x > 0 tem-se que (X1, X2, X3) não é RTDS; • Contra-Exemplo 7: NA não implica em RR2 aos pares, CDS ou NDS [23] No contra-exemplo seguinte, será mostrado que Y é NA mas não é RR2 aos pares, CDS ou NDS. Seja X = (X1, X2, X3) um vetor aleatório possuindo uma função de probabilidade multinomial trivariada f com probabilidades p1, p2 e p3 estritamente positivas e X1 + X2 + X3 = 3. Considere o vetor aleatório induzido Y = (Y1, Y2) onde Y1 = X1X2 e Y2 = X3. A função de probabilidade conjunta de (Y1, Y2) será denotada por g e é dada pela Tabela 6.5. A Distribuição Multinomial é RR2 aos pares, CDS e NDS [2, 28]. Será mostrado que a função de probabilidade conjunta g não é nem RR2, nem CDS e nem NDS. Pela função de probabilidade conjunta g de (Y1, Y2) obtém-se que P (x) = ∣∣∣∣∣ g(0, 0) g(0, 1)g(1, 0) g(1, 1) ∣∣∣∣∣ > 0 Então, conclui-se que g não é RR2. Notando que P (Y2 > 0|Y1 = 0) = 1− P (Y2 = 0|Y1 = 0) < 1 enquanto que P (Y2 > 0|Y1 = 1) = 1− P (Y2 = 0|Y1 = 1) = 1, conclui-se que Y não é CDS. Como, para um vetor bivariado, CDS equivale à NDS, segue que Y não é NDS. Pelas propriedades 7 e 4 da seção 1.4, conclui-se, respectivamente, que X é NA e Y é NA. Portanto, NA não implica em RR2 aos pares, CDS ou NDS já que Y é NA mas não é RR2, CDS ou NDS. Além das implicações, citadas anteriormente, que não são válidas, tem-se, também, que CIS não implica RTIS [8], RTIS não implica CIS [8]. 1.6 Tabelas referentes ao Capítulo 24 Tabela 6.1: Função de probabilidade conjunta de (X1, X2, X3, X4) Y/X (0,0) (0,1) (1,0) (1,1) (0,0) 0,0577 0,0623 0,0623 0,0577 (0,1) 0,0623 0,0677 0,0677 0,0623 (1,0) 0,0623 0,0677 0,0677 0,0623 (1,1) 0,0577 0,0623 0,0623 0,0577 Tabela 6.2: Função de probabilidade conjunta de X e Y Y/X 0 1 2 3 0 0,15 0,10 0,20 0,25 1 0,10 0,10 0,10 0 Tabela 6.3: Função de probabilidade conjunta de X e Y Y/X 0 1 2 3 0 0,10 0,15 0,20 0,15 1 0,15 0,10 0,05 0,10 Tabela 6.4: Função de probabilidade conjunta de X e Y Y/X 0 1 2 1 0 0,20 0,30 2 0,20 0 0,10 3 0,10 0,10 0 25 Tabela 6.5: Função de probabilidade conjunta de (Y1, Y2) Y/X 0 1 2 0 f(0, 3, 0) + f(3, 0, 0) 0 f(1, 2, 0) + f(2, 1, 0) 1 f(0, 2, 1) + f(2, 0, 1) f(1, 1, 1) 0 2 f(0, 1, 2) + f(1, 0, 2) 0 0 3 f(0, 0, 3) 0 0 26 Capítulo 2 Teoria de Cópulas 2.1 Introdução Desde que Joe (1997) [25] e Nelsen (1999) [31] pela primeira vez introduziram o conceito de cópu- las para uso em modelagem padrão, tem havido um interesse crescente nesta abordagem. Cópulas tornaram-se uma ferramenta popular de modelagem multivariada em muitos domínios onde a de- pendência multivariada é de interesse e o uso da habitual normalidade multivariada está em questão. Em ciências autuárias cópulas são usadas na modelagem de mortalidade e perdas [13, 14, 15]. Em finanças, cópulas são usadas na classificação de crédito e modelagem de risco [3, 9, 7]. Em estudos biomédicos, cópulas são utilizadas na modelagem de eventos correlacionados e riscos competitivos [37]. Em engenharia, cópulas são utilizadas no controle de processo multivariado e modelagem hidrológica [16]. Quando se fala em modelagem de dependência, hoje em dia um dos primeiros temas a ser levado em consideração é a recente teoria de cópulas discutida por Joe [25] e Nelsen [31]. Esta teoria se torna atrativa devido às cópulas abrangerem um grande leque de estruturas de dependência e conseguirem modelar completamente a estrutura de dependência dos dados. A modelagem através da distribuição normal é amplamente utilizada por sua simplicidade analítica e fácil estimação da matriz de correlação, seu único parâmetro de dependência, e por conta da vasta gama de estruturas que podem ser modeladas por esta distribuição. Porém algumas 27 28 de suas característica, de simetria e curtose, por exemplo, limitam sua utilização. Como Embrechts et. al. [10] mostram, há muitos obstáculos à suposição de normalidade. Para os mercados de crédito e financeiro, o principal é a característica de pequena probabilidade em eventos extremos conjuntos. Evidências empíricas sugerem que no comportamento destes mercados verificam-se eventos extremos mais prováveis que os previstos pela distribuição normal, não só nas marginais, mas também em dimensões superiores. Neste contexto, a modelagem através das cópulas torna-se atraente devido a sua maior variedade de estruturas de dependência. A cópula é uma distribuição multivariada cujas marginais são U(0, 1). Seja o vetor aleatório U = (U1, . . . , Ud) ∈ Id com cópula d-dimensional C, temos C(u1, . . . , ud) = P (U1 ≤ u1, . . . , Ud ≤ ud), (u1, . . . , ud) ∈ Id e combinadocom o fato de que qualquer v.a. contínua pode ser transformada por sua acumulada para uma v.a. com distribuição U(0, 1), cópulas podem ser usadas para fornecer uma estrutura de dependência multivariada separadamente das distribuições marginais. Seja H uma f.d.a. de X = (X1, . . . , Xd) com marginais F1, . . . , Fd, Sklar [36] mostrou que existe uma cópula C d-dimensional tal que para todo xi ∈ DomFi, H(x1, . . . , xd) = C(F1(x1), . . . , Fd(xd)) (1.1) Como visto, com cópulas pode-se trabalhar a estrutura de dependência em um contexto mul- tivariado, porém esta dissertação trata apenas do contexto bidimensional, apresentando todos os resultados para esta dimensão. Também não há impedimento para se trabalhar com o Kendall Plot, objeto central da tese, em um contexto multivariado, por uma questão de exemplificação trabalha-se em um contexto bivariado. A função cópula C associada ao vetor aleatório (X,Y ) também é conhecida como função de- pendência, já que a cópula contém toda informação de dependência entre as variáveis X e Y . Desta maneira a utilização da equação (1.1) possibilita trabalhar com a estrutura de dependência de (X,Y ) de forma livre de medida de escala e locação, restringindo-se apenas ao intervalo [0, 1]. A característica da informação de dependência que a cópula contém pode ser vista através do seguinte exemplo. 29 Exemplo 2.1. São geradas duas amostras, de forma independente. Sejam (x1 . . . x100) e (y1 . . . y100) pseudo observações independentes com distribuição F1(x) = 1− exp(−2x) e F2(y) = 1− exp(−10y) respectivamente. Observando o scatterplot de X e Y na Figura 2.1 vê-se que não fica evidente a independência entre essas variáveis. Porém, ao plotar (F1(xi), F2(yi)), as amostras transformadas pelas respectivas acumuladas F1 e F2, fica evidente a independência entre X e Y . Visto que a cópula é a distribuição conjunta entre F1(X) e F2(Y ). Mostra-se que a cópula evidencia a verdadeira inde- pendência existente entre X e Y e como a forma das marginais pode produzir uma falsa impressão de dependência. Como a cópula é uma função de (U1, ..., Un) onde Ui = Fi(Xi), i = 1, .., n, observa-se que quando se tem valores observados de duas v.a. X e Y , a cópula modela a ordem dos valores observados das v.a. X e Y pois considera-se a f.d.a. de cada v.a. sendo que a ordem da amostra é algo inerente à esta função. Esta ordem é evidenciada através do Gráfico de Dispersão dos valores uniformizados F1(x) e F2(y). 2.2 Cópula e Teorema de Sklar Definição 2.1. Sejam S1 e S2 subconjuntos não vazios de R̄, função H : S1×S2 → R e o retângulo B = [x1, x2]× [y1, y2], (xi, yi) ∈ DomH com i, j = 1, 2, . . .. Define-se H-volume de B como VH(B) = H(x2, y2) + H(x2, y1)−H(x1, y2) + H(x1, y1) (2.2) Definição 2.2. Uma função H bidimensional é bicrescente se VH(B) ≥ 0, ∀B, com VH(B) dado pela Definição 2.1. Exemplo 2.2. Uma função não decrescente marginalmente pode não ser bicrescente. Seja H : I2 → I definida por H(x, y) = max(x, y), temos VH(I2) = −1, ou seja, H não é bicrescente. Exemplo 2.3. Uma função pode ser bicrescente e decrescente em alguns de seus argumentos. Seja H : I2 → I definida por H(x, y) = (2x − 1)(2y − 1). Note que VH(B) pode ser reescrito como VH(B) = (y2 − y1)(4x2 − 4x1) ≥ 0, pois x1 ≤ x2 e y1 ≤ y2 no retângulo B, logo H é bicrescente. Porém H é uma função decrescente de x para cada y ∈ (0, 1/2) e função decrescente de y para cada x ∈ (0, 1/2). 30 Figura 2.1: Scatterplots: Dados exponenciais independentes (primeira figura); dados exponenciais independentes transformados pelas acumuladas (segunda figura). 31 Definição 2.3. Uma aplicação H : S1 × S2 → R é aplanada se H(x, a1) = 0 = H(a1, y), ∀(x, y) ∈ S1 × S2, onde ai = min{z : z ∈ Si}. Definição 2.4. Uma subcopula é uma função C ′ com as seguintes propriedades: 1. DomC ′ = S1 × S2, onde S1 e S2 são subconjuntos de I contendo 0 e 1; 2. C ′ é aplanada e bicrescente; 3. C ′ é marginalmente uniforme, ou seja, para todo u ∈ S1 e v ∈ S2, C ′(u, 1) = u e C ′(1, v) = v (2.3) Exemplo 2.4. Sejam S1 = S2 = {0, 1}. A função C ′ : S1 × S2 7−→ R definida por C ′(0, 0) = C ′(0, 1) = C ′(1, 0) = 0 e C ′(1, 1) = 1 é a mais simples subcopula. Definição 2.5. Uma cópula é uma subcopula cujo domíno é I2. Exemplo 2.5. As funções W,M : I2 → I dadas por W (u, v) = max(u + v − 1, 0) e M(u, v) = min(u, v) são exemplos particulares de cópulas denotadas respectivamente por M e W . É trivial mostrar que a função M(u, v) é aplanada e marginalmente uniforme. Para verificar que esta função é bicrescente, considere o retângulo B = [x1, x2]× [y1, y2], x1, x2, y1 e y2 ∈ I, para o caso y2 ≥ x2 ≥ x1 e x1 ≤ y1 ≤ x2 e desta maneira VM (B) = M(x2, y2)−M(x2, y1)−M(x1, y2) +M(x1, y1) = x2 − y1 ≥ 0 Para os demais casos a demonstração é análoga. A cópula W pertence a classe das cópulas Arquimedianas e será vista na próxima seção. Como toda cópula é uma subcopula, os próximos conceitos são apresentados para subcopulas, logo válidos paracópulass. Teorema 2.1. Uma subcopula bidimensional C ′ é marginalmente não decrescente. 32 Demonstração. Primeiro, provemos que a aplicação t → C ′(t, y2) − C ′(t, y1), y1, y2 ∈ I, y1 ≤ y2 é não decrescente. Consideremos T (t) = C ′(t, y2)−C ′(t, y1), se t1 ≤ t2, ti ∈ I, temos T (t2)−T (t1) ≥ 0, pois T (t2)− T (t1) = C ′(t2, y2)− C ′(t2, y1)− C ′(t1, y2) + C ′(t1, y1) = V ′C(B) onde B = [t1, t2] × [y2, y1]. Como C ′ é bicrescente, então V ′C(B) ≥ 0, logo a aplicação é não decrescente. Analogamente verifica-se que a aplicação T ∗(t) = C ′(x2, t)−C ′(x1, t), x1, x2 ∈ I, x1 ≤ x2 é não decrescente. Agora, seja x1 = y1 = 0 nas aplicações T e T ∗, como C ′ é aplanda, segue que C ′ é marginalmente não decrescente. Teorema 2.2. Seja C ′ uma subcopula. Então para todo (u, v) ∈ DomC ′, max(u+ v − 1, 0) ≤ C ′(u, v) ≤ min(u, v) (2.4) Demonstração. Como C ′ é aplanada, marginalmente uniforme e não decrescente temos 0 = C ′(0, v) ≤ C ′(u, v) ≤ C ′(1, v) = v e 0 = C ′(u, 0) ≤ C ′(u, v) ≤ C ′(u, 1) = u (2.5) Logo, C ′(u, v) ≤ min(u, v) Como C ′ também é bicrescente, então VC′(B) ≥ 0. Sendo B = [u, 1]× [v, 1] temos VC′(B) = C ′(1, 1) + C ′(u, v)− C ′(u, 1)− C ′(1, v) = 1 + C ′(u, v)− u− v ≥ 0 (2.6) Portanto pelas equações (2.5) e (2.6), temos C ′(u, v) ≥ max(u+ v − 1, 0). Conforme Exemplo 2.5, os limites na equação (2.4) são as cópulas M e W . Então para toda cópula C e para todo (u, v) ∈ I2, W (u, v) ≤ C(u, v) ≤M(u, v) (2.7) A desigualdade (2.7) é denominada desigualdade dos limites de Frechét, a cópula M é nomeada por limite superior de Frechét e a cópula W por limite inferior de Frechét. A ligação entre funções distribuição multivariada e suas marginais univariadas é feita pelo Teo- rema de Sklar apresentado a seguir, por meio das cópulas. O nome cópula foi escolhido para enfatizar a maneira como a cópula une uma função distribuição conjunta às suas marginais univariadas. 33 Teorema 2.3. Seja H uma função distribuição conjunta com marginais F e G. Então existe uma cópula C tal que para todo x, y ∈ R̄, H(x, y) = C(F (x), G(y)) (2.8) Se F e G são contínuas, então C é única; caso contrário, C é unicamente determinada em Im(F )× Im(G). Inversamente, se C é uma cópula e F e G são f.d.a., então a função H definida pela equação (2.8) é uma função distribuição conjunta com marginais F e G. Demonstração. A prova segue dos lemas 2.1 e 2.2 apresentados a seguir. Lema 2.1. Seja H uma função distribuição conjunta com marginais F e G. Então existe uma única subcopula C ′ tal que 1. DomC ′ = Im(F )× Im(G); 2. ∀x, y ∈ R̄, H(x, y) = C ′(F (x), G(y)) Demonstração. Sejam (x1, y1), (x2, y2) ∈ DomH. Pela desigualdade triangular, temos |H(x2, y2)−H(x1, y1)| ≤ |H(x2, y2)−H(x1, y2)|+ |H(x1, y2)−H(x1, y1)| Considere x1 ≤ x2. Como H é uma função distribuição conjunta, então 0 ≤ H(x2, y2)−H(x1, y2) ≤ F (x2)− F (x1) por H ser marginalmente decrescente, aplanada, H(x,∞) = F (x) e H(∞, y) = G(y). Uma de- sigualdade análoga é válida quando x2 ≤ x1. Portanto segue que para qualquer x1, x2 ∈ S1,|H(x2, y2) − H(x1, y2)| ≤ |F (x2) − F (x1)|. Similarmente para qualquer y1, y2 ∈ S2, |H(x1, y2) − H(x1, y1)| ≤ |G(y2)−G(y1)|, logo |H(x2, y2)−H(x1, y1)| ≤ |F (x2)− F (x1)|+ |G(y2)−G(y1)| (2.9) Desta forma, segue que se F (x1) = F (x2) e G(y1) = G(y2), então H(x1, y1) = H(x2, y2) e conse- quentemente o conjunto de pares {(F (x), G(y)),H(x, y)} permite definir uma função (F (x), G(y)) C ′ → H(x, y) 34 sendo C ′ única com domínio Im(F ) × Im(G). A prova que a função C ′ é uma subcopula segue diretamente das propriedades da distribuição conjunta H [22]. Para cada u ∈ Im(F ), existe um x ∈ R̄ tal que F (x) = u, então C ′(u, 1) = C ′(F (x), G(∞)) = H(x,∞) = F (x) = u C ′(u, 0) = C ′(F (x), G(−∞)) = H(x,−∞) = 0 Como H é bicrescente por definição, logo C ′ é bicrescente. Lema 2.2. Seja C ′ uma subcopula. Então existe uma cópula C tal que C(u, v) = C ′(u, v), ∀(u, v) ∈ DomC ′; isto é, qualquer subcopula pode ser extendida a umacópulaa. A extensão é geralmente não única. Demonstração. Da equação (2.9) e usando o item 2. do Lema 2.1, concluímos que C ′ é uniforme- mente contínua em seu domínio Im(F )× Im(G), ou seja, |C ′(u2, v2)− C ′(u1, v1)| ≤ |u2 − u1|+ |v2 − v1| Denotemos Im(F ) por S1 e Im(G) por S2. Da continuidade de C ′ podemos estender C ′ a uma função C ′′, ainda subcopula, com domínio em S̄1×S̄2, onde S̄1 é o fecho de S1 e S̄2 é o fecho de S2. O próximo passo é estender a subcopula C ′′ a uma função C com domínio em I2. Para este fim, seja (a, b) ∈ I2, e sejam a1 e a2, respectivamente, o menor e o maior elemento de S̄1 que satisfaça a1 ≤ a ≤ a2; e sejam b1 e b2, respectivamente, o menor e o maior elemento de S̄2 que satisfaça b1 ≤ b ≤ b2. Se a ∈ S̄1, defina a1 = a2 = a; e se b ∈ S̄2, defina b1 = b2 = b. Desta maneira, sejam λ1 = { (a− a1)/(a2 − a1), se a1 < a2 1, se a1 = a2 µ1 = { (b− b1)/(b2 − b1), se b1 < b2 1, se b1 = b2 e define-se C(a, b) = (1− λ1)(1− µ1)C ′′(a1, b1) + (1− λ1)µ1C ′′(a1, b2) + λ1(1− µ1)C ′′(a2, b1) + λ1µ1C ′′(a2, b2). (2.10) 35 É trivial que DomC = I2 e que C(a, b) = C ′′(a, b), ∀(a, b) ∈ DomC ′′. Como λ1 e µ1 são lineares em a e b, a forma C(a, b) da equação (2.10) é bilinear em (a, b) propriedade que permite demonstrar que C é aplanada e marginalmente uniforme. Conforme Definição 2.5, para C ser uma cópula falta provar que C é bicrescente. Seja (c, d) outro ponto em I2 tal que c ≥ a e d ≥ b, e sejam c1, d1, c2, d2, λ2, µ2 relacionados a c e d assim como a1, b1, a2, b2, λ1, µ1 são relacionados a a e b. Deve-se provar que VC(B) ≥ 0 para o retângulo B = [a, c]×[b, d]. Diversos casos são considerados para esta prova. O mais simples dos casos é aquele em que não existe ponto em S̄1 estritamente entre a e c e não há ponto em S̄2 estritamente entre b e d, então temos c1 = a1, c2 = a2, d1 = b1 e d2 = b2. Substituindo a equação (2.10) e os termos correspondentes para C(a, d), C(c, b) e C(c, d) na expressão dada pela equação (2.2) para VC(B), temos VC(B) = VC([a, c]× [b, d]) = (λ2 − λ1)(µ2 − µ1)VC([a1, a2]× [b1, b2]), de que segue que VC(B) ≥ 0 neste caso, pois c ≥ a e d ≥ b implica λ2 ≥ λ1 e µ2 ≥ µ1. Outro caso de interesse é quando pelo menos um ponto está em S̄1 estritamente entre a e c, e pelo menos um ponto está em S̄2 estritamente entre b e d, então a < a2 ≤ c1 < c e b < b2 ≤ d1 < d. Para este caso, substituindo a equação (2.10) e os termos correspondentes para C(a, d), C(c, b) e C(c, d) na expressão dada pela equação (2.2) para VC(B) e reordenando os termos temos VC(B) = (1− λ1)µ2VC([a1, a2]× [d1, d2]) + µ2VC([a2, c1]× [d1, d2]) + λ2µ2VC([c1, c2]× [d1, d2]) + (1− λ1)VC([a1, a2]× [b2, d1]) + VC([a2, c1]× [b2, d1]) + λ2VC([c1, c2]× [b2, d1]) + (1− λ1)(1− µ1)VC([a1, a2]× [b1, b2]) + (1− µ1)VC([a2, c1]× [b1, b2]) + λ2(1− µ1)VC([c1, c2]× [b1, b2]). O lado direito da expressão acima é a soma de combinações de nove quantidades não negati- vas, representadas por C-volumes, com coeficientes não negativos, logo é não negativa. Os casos remanescentes são similares, que completam a prova. Antes de apresentar o próximo resultado é necessária a definição de quasi-inversa. Definição 2.6. Seja F uma função distribuição acumulada. Então a quasi-inversa de F é qualquer função F (−1) com domínio em I tal que 36 1. Se t ∈ Im(F ), então F (−1)(t) = x com x ∈ R tal que F (x) = t, ou seja, ∀t ∈ Im(F ), F (F (−1)(t)) = t; 2. Se t /∈ Im(F ), então F (−1)(t) = inf{x|F (x) ≥ t} = sup{x|F (x) ≤ t}. Corolário 2.1. Sejam H, F,G e C ′ como no Lema 2.1, e sejam F (−1) e G(−1) as quasi-inversas de F e G, respectivamente. Então para qualquer (u, v) ∈ DomC ′, C ′(u, v) = H(F (−1)(u), G(−1)(v)) (2.11) Sejam x ∈ Dom(F ) e y ∈ Dom(G) conforme Teorema 2.3 se u = F (x) e v = G(y), então x = F (−1)(u) e y = G(−1)(v). Quando F e G são contínuas o Corolário 2.1 é válido para cópulas e temos U, V com distribuição U(0, 1) onde U = F (X) e V = G(Y ). Deste modo a cópula C é distribuição conjunta do vetor aleatório (U, V ) com marginais U(0, 1). Exemplo 2.6. Um método para construção de cópulas é resultante do último corolário. Seja H a distribuição da independência H(x, y) = F (x)G(y) (2.12) com marginais F (x) = 1− exp(−2x) e G(y) = 1− exp(−y), onde as respectivas quasi-inversas são dada por F (−1)(u) = { − log(1−u)2 , se x ≥ 0 0, c.c. G(−1)(v) = { − log(1− v), se x ≥ 0 0, c.c. Logo, a cópula associada a H é dada por C(u, v) = H(F (−1)(u), G(−1)(v)) = F{F (−1)(u)}G{G(−1)(v)} = [1− e−2 log(1−u)/2][1− e− log(1−v)] = uv 37 Esta cópula recebe a notação especial Π e é denominada cópula produto. Sua estrutura caracteriza a independência entre as v. a. X e Y quando as f.d.a. F e G são contínuas. Note que se a conjunta H é definida pela equação (2.12), a estrutura de dependência entre as v.a. X e Y independe de suas marginais, pois C(u, v) = H(F (−1)(u), G(−1)(v)) = F{F (−1)(u)}G{G(−1)(v)} = uv pela definição de quasi-inversa (Definição 2.6). Muito da utilidade de cópulas no estudo de estatísticas não paramétricas deriva do fato que sob transformações monótonas estritas de v.a. as cópulas são invariantes, ou são alteradas de modo previsível como visto nos próximos dois resultados. Teorema 2.4. Sejam X e Y v.a. contínuas com cópula CX,Y . Se α e β são funções estritamente crescentes na Im(X) e Im(Y ) respectivamente, então Cα(X),β(Y ) = CX,Y . Demonstração. Sejam F1, G1, F2 e G2 as respectivas distribuições de X,Y, α(X) e β(Y ), respecti- vamente. Assim, para qualquer x, y ∈ R̄, Cα(X),β(Y )(F2(x), G2(y)) = P [α(X) ≤ x, β(Y ) ≤ y] = P [X ≤ α−1(x), Y ≤ β−1(y)] = CX,Y (F1(α−1(x)), G1(β−1(y))) = CX,Y (F2(x), G2(y)) Desde que X e Y são contínuas, Im(F2) = Im(G2) = I, logo segue que Cα(X),β(Y ) = CX,Y em I2. Quando pelo menos uma função, α ou β, é estritamente decrescente, a cópula das v.a. α(X) e β(Y ) é uma simples transformação de CX,Y . Teorema 2.5. Sejam X, Y v.a. contínuas com cópula CX,Y e α e β funções estritamente monótonas na Im(X) e Im(Y ) resprectivamente. 1. Se α é estritamente crescente e β é estritamente decrescente, então Cα(X),β(Y )(u, v) = u− CX,Y (u, 1− v), u, v ∈ I. 38 2. Se α é estritamente decrescente e β é estritamente crescente, então Cα(X),β(Y )(u, v) = v − CX,Y (1− u, v), u, v ∈ I. 3. Se α e β ambas são estritamente decrescentes, então Cα(X),β(Y )(u, v) = u+ v − 1 + CX,Y (1− u, 1− v), u, v ∈ I. Demonstração. Sejam F1, G1, F2 eG2 as distribuições deX,Y, α(X) e β(Y ) respectivamente. Tomemos u ∈ Im(F2) e v ∈ Im(G2) tais que u = F2(x) para algum x ∈ Im(F2) = I (devido a v.a. α(X) ser contínua) e v = G2(y) para algum y ∈ Im(G2) = I (devido a v.a. β(X) ser contínua). Demonstração item 1.: Cα(X),β(Y )(u, v) = Cα(X),β(Y )(F2(x), G2(y)) (2.8) = P (α(X) ≤ x, β(Y ) ≤ y) = P (X ≤ α−1(x), Y ≥ β−1(y)) (2.13) Como, F2(x) = P (α(X) ≤ x) = P (X ≤ α−1(x)) = F1(α−1(x)) = P (X ≤ α−1(x), Y ≤ β−1(y)) + P (X ≤ α−1(x), Y ≥ β−1(y)) (2.14) e G2(y) = P (β(Y ) ≤ y) = P (Y ≥ β−1(y)) = 1−G1(β−1(y)) ⇒ G1(β−1(y)) = 1−G2(y) (2.15) temos P (X ≤ α−1(x), Y ≤ β−1(y)) = CX,Y (F1(α−1(x)), G1(β−1(y))) = CX,Y (F2(x), 1−G2(y))= CX,Y (u, 1− v) (2.16) onde a segunda igualdade se refere às equações (2.14) e (2.15). 39 Substituindo a equação (2.16) na equação (2.14) F2(x) = P (X ≤ α−1(x), Y ≥ β−1(y)) + CX,Y (u, 1− v) ⇒ P (X ≤ α−1(x), Y ≥ β−1(y)) = u− CX,Y (u, 1− v) (2.17) Desta forma, substituindo a equação (2.17) na equação (2.13), se completa a prova. Demonstração item 2.: análoga a demonstração item 1. Demonstração item 3.: Cα(X),β(Y )(u, v) = Cα(X),β(Y )(F2(x), G2(y)) (2.8) = P (α(X) ≤ x, β(Y ) ≤ y) = P (X ≥ α−1(x), Y ≥ β−1(y)) = 1− [P (X ≤ α−1(x)) + P (Y ≤ β−1(y))− P (X ≤ α−1(x), Y ≤ β−1(y))] = 1− F1(α−1(x))−G1(β−1(y)) + P (X ≤ α−1(x), Y ≤ β−1(y)) (2.18) Reescrevendo F1(α−1(x)), temos F1(α−1(x)) = 1− P (X ≥ α−1(x)) = 1− P (α(X) ≤ x) = 1− F2(x) (2.19) e, analogamente G1(β−1(y)) = 1−G2(y) (2.20) Substituindo as equações (2.19) e (2.20) na equação (2.18) e utilizando o Teorema 2.3, Cα(X),β(Y )(u, v) = 1− [1− F2(x)]− [1−G2(y)] + CX,Y (F1(α−1)(x), G1(β−1(y)) = u+ v − 1 + CX,Y (1− u, 1− v) 2.3 Cópulas Arquimedianas O termo cópula Arquimediana foi mencionado pela primeira vez na literatura estatística em dois artigos de Genest & Mackay (1986ab) [17] e [18]. Cópulas Arquimedianas também são mencionadas por Schweizer and Sklar (1983) [34], mas sem o nome Arquimediana. 40 A Classe das cópulas Arquimedianas abrange uma grande variedade de estruturas de dependên- cia, incluindo estruturas próprias de estudos financeiros. Algumas questões em finanças exigem modelos que permitem uma forte dependência entre as perdas extremas (por exemplo, bolsas em colapso) e ganhos extremos. Em particular, as cópulas Arquimedianas podem assumir dependência caudal assimétrica, sendo uma propriedade a favor de sua aplicação à modelagem de dados com estrutura de dependênica assimétrica. Em estudos financeiros um aspecto importante a ser analisado é a dependência caudal. De- pendência caudal inferior e superior entre dois mercados financeiros existe quando a probabilidade de valores conjuntos negativos (positivos) em eventos extremos é maior que a que poderia ser pre- vista a partir das distribuições marginais. Recentes estudos empíricos mostram que períodos de turbulência e calma em finanças são caracterizados por diferentes níveis de dependência caudal, sendo a dependência mais forte sobre a cauda inferior do que na cauda superior. As cópulas Arquimedianas podem ser construídas facilmente e a forma fechada para sua ex- pressão é simples. Estas facilidades se devem ao fato da representação da cópula Arquimediana permitir reduzir o estudo de cópula multivariada ao estudo de uma função univariada denotada por gerador de uma cópula Arquimediana φ. A seguir esta função é apresentada com mais detalhes. Definição 2.7. Seja φ : I → [0,∞] uma função contínua e estritamente decrescente tal que φ(1) = 0. A pseudo-inversa de φ é a função φ[−1] : [0,∞] → I dada por φ[−1](t) = { φ−1(t), se 0 ≤ t ≤ φ(0) 0, se φ(0) ≤ t ≤ ∞ Note que φ[−1] é contínua e não crescente em [0,∞], e estritamente decrescente em [0, φ(0)]. Além disso, φ[−1](φ(u)) = u, ∀u ∈ I (3.21) e φ(φ[−1](t)) = { t, se 0 ≤ t ≤ φ(0) φ(0), se φ(0) ≤ t ≤ ∞ = min(t, φ(0)) Finalmente, se φ(0) = ∞, então φ[−1] = φ−1. 41 Lema 2.3. Seja φ e φ[−1] como na Definição 2.7. Seja a função C : I2 → I dada por C(u, v) = φ[−1](φ(u) + φ(v)) (3.22) Então C satisfaz duas das três condições para uma cópula, é aplanada e marginalmente uniforme. Demonstração. C(u, 0) = φ[−1](φ(u) + φ(0)) = 0 A última igualdade segue da definição de pseudo-inversa, pois φ(u) + φ(0) ≥ φ(0) sendo φ uma função que assume somente valores positivos. C(u, 1) = φ[−1](φ(u) + φ(1)) = φ[−1](φ(u)) (3.21) = u (3.23) Analogamente, por simetria, C(0, v) = 0 e C(1, v) = v. O seguinte lema apresenta uma condição necessária e suficiente para que a função C na equação (3.22) seja bicrescente, e portanto, uma cópula. Lema 2.4. Sejam φ,φ[−1] e C satisfazendo as hipóteses do Lema 2.3. Então C é bicrescente, se e somente se, sempre que u1 ≤ u2, C(u2, v)− C(u1, v) ≤ u2 − u1 (3.24) Demonstração. (⇒) VC([u1, u2]× [v, 1]) = C(u1, v)+C(u2, 1)−C(u1, 1)−C(u2, v) ≥ 0 ⇔ u2−u1 ≥ C(u2, v)−C(u1, v) Então, a equação (3.24) é equivalente à condição VC([u1, u2]× [v, 1]) ≥ 0 que é sempre válida quando C é bicrescente. (⇐) Considere C satisfazendo a equação (3.24). Sejam v1, v2 ∈ I, v1 ≤ v2, temos C(0, v2) = 0 ≤ v1 ≤ v2 = C(1, v2). Como C é contínua, desde que φ e φ[−1] também são, existe t ∈ I tal que C(t, v2) = v1, ou seja, φ(v2) + φ(t) = φ(v1). Então C(u2, v1)− C(u1, v1) = φ[−1](φ(u2) + φ(v1))− φ[−1](φ(u1) + φ(v1)) = φ[−1](φ(u2) + φ(v2) + φ(t))− φ[−1](φ(u1) + φ(v2) + φ(t)) = φ[−1](φ(C(u2, v2)) + φ(t))− φ[−1](φ(C(u1, v2)) + φ(t)) = C(C(u2, v2), t)− C(C(u1, v2, t)) (3.24) ≤ C(u2, v2)− C(u1, v2) ⇔ VC([u1, u2]× [v1, v2]) ≥ 0 42 O próximo teorema mostra que a condição da função C ser bicrescente dada pelo Lema 2.4 também encontra-se relacionada com uma propriedade da função φ, bem como as outras duas condições para que C seja uma cópula (Lema 2.3). Deste modo, somente a estrutura da função φ pode determinar se a função C da equação (3.22) é ou não uma cópula. Teorema 2.6. Sejam φ e φ[−1] como na Definição 2.7. Então a função C : I2 → I dada pela equação (3.22) é uma cópula se e somente se φ é convexa. Demonstração. Como consequência do Lema 2.4 é necessário provar que a equação (3.24) é válida se e somente se φ é convexa. (⇒) Observe que a equação (3.24) é equivalente a u1 + φ[−1](φ(u2) + φ(v)) ≤ u2 + φ[−1](φ(u1) + φ(v)) para u1 ≤ u2, se denotarmos a = φ(u1), b = φ(u2) e c = φ(v), então a equação (3.24) também é equivalente a φ[−1](a) + φ[−1](b+ c) ≤ φ[−1](b) + φ[−1](a+ c) (3.25) onde a ≥ b, por φ ser decrescente, e c ≥ 0. Supondo a equação (3.24) válida, ou seja, supondo que φ[−1] satisfaça a equação (3.25). Sejam s, t ∈ [0,∞] tais que 0 ≤ s ≤ t. Se definirmos a = (s+ t)/2, b = s e c = (t− s)/2 na equação (3.25), temos φ[−1] ( s+ t 2 ) ≤ φ [−1](s) + φ[−1](t) 2 Logo φ[−1] é mid-convexa, e desde que φ[−1] é contínua segue que φ[−1] é convexa. O fato de φ[−1] convexa implica na convexidade de φ. (⇐) Assuma φ[−1] convexa. Sejam a, b, c ∈ I tais que a ≥ b e c ≥ 0; e seja 0 ≤ γ = (a−b)/(a−b+c) ≤ 1. Deste modo temos a = (1−γ)b+γ(a+c) e b+c = γb+(1−γ)(a+c). Logo por definição de função convexa, φ[−1](a) ≤ (1− γ)φ[−1](b) + γφ[−1](a+ c) 43 e φ[−1](b+ c) ≤ γφ[−1](b) + (1− γ)φ[−1](a+ c) Somando as duas últimas igualdades resulta na equação (3.25), que completa a prova. Cópulas da forma apresentada na equação (3.22) são denominadas Cópulas Arquimedianas. A função φ é denominada gerador de uma cópula Arquimediana. Se φ(0) = ∞, φ é denominada gerador estrito. Conforme Definição 2.7, φ[−1] = φ−1 e C(u, v) = φ−1(φ(u) + φ(v)) é denominada cópula Arquimediana estrita. Se φ(0) <∞, φ é denominada gerador não estrito. Cópulas Arquimedianas podem ser contruídas usando o Teorema 2.6 - apenas encontrando funções φ com propriedades que satisfaçam sua hipótese - e definindo as correspondentes cópu- las via equação (3.22). Em outras palavras, a cópula Arquimediana C é unicamente determinada pelo gerador φ. Exemplo 2.5.(continuação) Seja φ(t) = 1 − t, ∀t ∈ I, um gerador não estrito (Figura 2.2). De acordo com a Definição 2.7 φ[−1](t) = φ−1(t) = 1− t, ∀t ∈ I e 0 para t > 1, ou seja, φ[−1](t) = max(1− t, 0). Gerando a cópula C via equação (3.22), temos φ−1(φ(u) + φ(v)) = max(1− [(1− u) + (1− v)], 0) = max(u+ v − 1, 0) = W (u, v) Sendo então a cópula limite inferior de Frechét uma cópula Arquimediana. Exemplo 2.6.(continuação) Seja φ(t) = − ln(t), ∀t ∈ I, um gerador estrito (Figura 2.3). Segue da Definição 2.7 que φ[−1](t) = φ−1(t) = exp(−t), 0 ≤ t <∞. Pela equação (3.22), temos φ−1(φ(u) + φ(v)) = exp(−[(− lnu) + (− ln v)]) = uv = Π(u, v) Deste modo a cópula produto Π é também Arquimediana. Exemplo 2.7. Uma grande variedade de famílias paramétricas de cópulas pertence a classe das cópulas Arquimedianas. Nelsen [31] apresenta uma lista extensa com as famílias de cópulas Arqui- medianas maiscomuns. Algumas destas famílias são apresentadas na Tabela 3.1. As quatro cópulas apresentam diferenças distintas com relação a estrutura de dependência que representam. A família de Gumbel apresenta dependência caudal superior, a família de Clayton apresenta dependência caudal inferior, a família de cópulas 4.2.12 apresenta ambas dependências caudais e a família de Frank não apresenta dependência caudal, é simétrica em relação a diagonal secundária. 44 0.0 0.2 0.4 0.6 0.8 1.0 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 t ph i(t ) 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 t ph i^ [− 1] (t) Figura 2.2: Gerador φ não estrito e pseudo-inversa φ[−1] para a cópula Arquimediana W . nome Cθ(u, v) φθ(t) θ ∈ estrito Clayton max ( [u−θ + v−θ − 1]−1/θ ) t−θ−1 θ [−1,∞]\{0} θ ≥ 0∗ Gumbel exp(−[(− lnu)θ + (− ln v)θ]1/θ) (− ln t)θ [1,∞) sim Frank −1θ ln ( 1 + (e −θu−1)(e−θv−1) e−θ−1 ) − ln e−θv−1 e−θ−1 (−∞,∞)\{0} sim 4.2.12 (1 + [(u−1 − 1)θ + (u−1 − 1)θ]1/θ)−1 ( 1 t − 1 )θ [1,∞) sim Tabela 3.1: Algumas famílias paramétricas de cópulas Arquimedianas com seus geradores e espaços paramétricos (*na cópula de Clayton o gerador é estrito se θ ≥ 0, caso contrário é não estrito). Nelsen [31] não apresenta nenhum nome especial para a última cópula da Tabela 3.1, logo esta dissertação refere-se a esta cópula conforme notação deste autor. 45 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0. 0 0. 5 1. 0 1. 5 2. 0 2. 5 3. 0 3. 5 t ph i(t ) 0 1 2 3 4 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 t ph i^ [− 1] (t) Figura 2.3: Gerador φ estrito e pseudo-inversa φ[−1] para a cópula Arquimediana Π. 2.4 Cópulas Multivariadas e a Transformada de Laplace Conforme já mencionado, para a construção de distribuições contínuas multivariadas, pode-se utilizar as suas funções densidade marginais univariadas e uma estrutura de dependência multivari- ada, ou seja, a função de distribuição acumulada conjunta FX pode ser obtida através de suas funções de distribuição acumulada marginais e da cópula que é uma estrutura de dependência dada por uma distribuição CX associada à X. Em outras palavras, a cópula é a distribuição multivariada de um vetor aleatório composto por distribuições marginais univariadas U(0, 1). Para uma distribuição m- variada F ∈ =(F1(x1), ..., Fm(xm)), onde Fj é a j-ésima função de distribuição marginal univariada, a cópula associada à F é uma função distribuição C : [0, 1]m −→ [0, 1] que satisfaz F (x) = C(F1(x1), ..., Fm(xm)) (4.26) onde x ∈ Rm [25]. 46 Se F é uma função de distribuição contínua m-variada com marginais univariadas F1, ..., Fm e funções quantis F−11 , ..., F −1 m , então C(u) = F (F −1 1 (u1), ..., F −1 m (um)) é única e verifica (4.26). Nesta seção, serão utilizadas mistura de potência das f.d.a. univariadas e a Transformada de Laplace para a construção de uma cópula C. A seguir será definida a Transformada de Laplace. Definição 2.8. Seja M uma função de distribuição acumulada de uma v.a. não-negativa. A Transformada de Laplace é definida por φ(s) = ∫ ∞ 0 e−swdM(w) (4.27) onde s ≥ 0 [25]. Se πo for a massa de M em 0, então lims→∞φ(s) = φ(∞) = πo. Durante o capítulo, será assumido que as Transformadas de Laplace correspondem à transformadas de v.a. positivas, isto é, M(0) = 0 ou, em termos de φ(s), φ(∞) = 0. Isto é devido ao fato de que exp{−φ−1(F (x))} será uma f.d.a. quando F for uma f.d.a. univariada. Observa-se que a transformada φ é contínua, estritamente decrescente e satisfaz φ(0) = 1. Então, o funcional inverso φ−1 é estritamente decrescente e satisfaz φ−1(0) = ∞ e φ−1(1) = 0. Além disso, φ possui derivadas contínuas de todas as ordens e derivadas com sinais alternados, isto é, (−1)iφ(i)(s) ≥ 0 para todo s ≥ 0 onde φ(i) representa a i-ésima derivada. Esta propriedade de alternância de sinais na derivada é denominada completamente monótona. Seja Lm = {φ : [0,∞) → [0, 1]|φ(0) = 1, φ(∞) = 0, (−1)jφ(j) ≥ 0, j = 1, ...,m}, m = 1, 2, ..., a classe das funções diferenciáveis, estritamente decrescentes. Considerando a classe L∗n = {w : [0,∞) → [0,∞)|w(0) = 0, w(∞) = ∞, (−1)j−1w(j) ≥ 0, j = 1, ..., n}, n = 1, 2, ..., tem-se que as funções em L∗n são, usualmente, composições da forma ψ−1 ◦ φ com ψ, φ ∈ L1 . As composições do tipo ψ−1 ◦ φ ∈ L∗∞ aparecerão na construção de cópulas trivariadas. A seguir serão apresentados alguns teoremas sobre a classe L∗∞. Estes são úteis pois nos fornecem a imagem das funções que são o domínio das Transformadas de Lapace. Isto nos possibilita verificar se o domínio das expresões utilizadas na construção de cópulas é [0,∞). Teorema 2.7. Seja χ uma Transformada de Laplace. Então χα é completamente monótona para todo α > 0 se e somente se −ln(χ) ∈ L∗∞. 47 Demonstração: Para a demonstração consulte [25]. Teorema 2.8. Se ψ é uma Transformada de Laplace tal que −ln(ψ) ∈ L∗∞ e φ é outra Transformada de Laplace, então η(s) = φ(−ln(ψ(s))) é uma Transformada de Laplace. Demonstração: Para a demonstração consulte [25]. Seja F uma dada f.d.a. univariada. Então, existe uma única f.d.a. G tal que F (x) = ∫ ∞ 0 Gα(x)dM(α) (4.28) Comparando (4.27) e (4.28) podemos escrever F (x) = ∫ ∞ 0 Gα(x)dM(α) = φ(−ln(G(x))) (4.29) Da expressão (4.29) obtemos G(x) = e−φ−1(F (x)). Para simplificar a notação, o valor x em G(x) = e−φ −1(F (x)) será suprimido. Considerando a classe bivariada =(F1, F2), seja Gj = e−φ −1(Fj), j = 1, 2. Então, a expressão a seguir é uma f.d.a. em =(F1, F2):∫ ∞ 0 Gα1G α 2 dM(α) = φ(−ln(G1)− ln(G2)) = φ(φ−1(F1) + φ−1(F2)) (4.30) A cópula obtida considerando que F1 e F2 assumem valores da distribuição U(0, 1) é C(u1, u2) = φ(φ−1(u1) + φ−1(u2)) (4.31) A forma (4.31) é denominada Cópula Arquimediana e possui a seguinte propriedade: Teorema 2.9. A cópula (4.31) possui densidade TP2. Demonstração: Para a demonstração consulte [25]. 48 O teorema anterior fornece a dependência da cópula arquimediana. Como ela possui dependên- cia TP2, que é uma dependência forte, então, ela, também, possui dependência SI, LTD, RTI, PQD. Porém, ela poderá ser adequada na modeladem de variáveis aleatórias TP2 e não ser adequada na modelagem de variáveis aleatórias que possuem algum tipo de dependência mais fraco, por exemplo, v.a. SI. Para m f.d.a. univariadas, F1, ..., Fm, uma extensão simples é dada pela f.d.a. multivariada F = φ( ∑m j=1 φ −1(Fj)) cuja Cópula Arquimediana é, C(u) = φ( m∑ j=1 φ−1(uj)) (4.32) Uma generalização trivariada de (4.31), no sentido de obter-se mais estruturas de dependência pois a expressão seguinte envolverá duas Transformadas de Laplace diferentes e, consequentemente, envolverá mais que um parâmetro, ao contrário da expressão (4.32) que envolve apenas uma Trans- formada de Laplace, é dada por C(u) = ψ(ψ−1 ◦ φ[φ−1(u1) + φ−1(u2)] + ψ−1(u3)) (4.33) onde ψ, φ são Transformadas de Laplace e ν = ψ−1 ◦ φ ∈ L∗∞. Note que (4.33) possui funções de distribuição marginais bivariadas nas coordenadas (1, 2) da forma (4.31) com Transformada de Laplace φ e funções de distribuição marginais bivariadas nas coordenadas (1, 3) e (2, 3) da forma (4.31) com Transformada de Laplace ψ. Observe que (4.32) é um caso especial de (4.33) quando ψ = φ. A representação em forma de mistura de funções de distribuição de (4.33), que generaliza (4.30), é C(u) = ∫ ∞ 0 ∫ ∞ 0 Gβ1 (u1)G β 2 (u2)dM2(β, α)G α 3 (u3)dM1(α) (4.34) onde G1 = G2 = e−φ −1 e G3 = e−ψ −1 , M1 é a distribuição correspondente à ψ, M2(.;α) é a distribuição com Transformada de Laplace χα definida por χ−1α (z) = ν−1(−α−1ln(z)). A expressão (4.34) segue da seguinte representação: 49 ∫ ∞ 0 Gα12(u1, u2)G α 3 (u3)dM1(α) onde M1 e G3 foram definidas anteriormente e G12(u1, u2) = exp(−ν[φ−1(u1) + φ−1(u2)]). As seguintes famílias uniparamétrica de Transformada de Laplace (TL) podem ser utilizadas para a construção de cópulas com o uso das expressões apresentadas anteriormente: • TLA: φθ(s) = exp(−s1/θ), θ ≥ 1; • TLB (gamma): φθ(s) = (1 + s)−1/θ, θ ≥ 0; • TLC (série de potência): φθ(s) = 1− (1− e−s)1/θ, θ > 0; •
Compartilhar