Baixe o app para aproveitar ainda mais
Prévia do material em texto
Resumo sobre Estatística Rafael Azevedo 1 De nições De nition 1 Uma Variável Aleatória (VA) é uma função de em algum conjunto, onde é o conjunto dos possíveis acontecimentos. Example 2 Imagine o lançamento de uma moeda e seja X a variável aleatória que assume 0 se obtivermos Cara, e asssume 1 se obtivermos Coroa. Assim temos que os conjuntos são = fCara;Coroag A = f0; 1g e a variável aleatória é a função: X : ! A Remark 3 Chamamos os elementos de de estados da natureza. Esta nomenclatura é comum principalmente quando o número de elementos de é nito. De nition 4 A distribuição de probabilidade é uma função que informa a chance de um subconjunto de acontecer. Trata-se de uma função que associa subconjuntos a um número entre 0 e 1. Example 5 Considere o exemplo da moeda acima e lembre-se que = fCara;Coroag e A = f1; 2g. Podemos de nir p(:) como p (?) = 0 p(fCarag) = 1 3 p(fCoroag) = 2 3 p (fCara;Coroag) = 1: Dizemos que esta moeda é viesada porque a probabilidade de obter Cara é diferente da probabilidade de obter Coroa. Note que = fCara;Coroag e podemos considerar que p (fCara;Coroag) = p ( ) = 1: 1 Uma outra forma de expressar fCarag é escrevermos [X = 1], ou seja, podemos também escrever p (?) = 0 p(X = 0) = 1 3 p(X = 1) = 2 3 p ([X = 0] [ [X = 1]) = 1: Remark 6 A distribuição de probabilidade sempre satisfaz as seguintes propriedades: 1) p(A) 2 [0; 1], onde A é subconjunto de , 2) p ( ) = 1; 3) Se1 A \B = ?, nós temos que p(A [B) = P (A) + P (B). De nition 7 A esperança é uma operação matemática que atua sobre uma variável aleatória. O seu resultado é um número e ela é uma espécie de média ponderada. Para uma variável aleatória X com n resultados possíves, de nimos como a esperança como E [X] = nX k=1 xkp(X = xk) = x1p(X = x1) + x2p(X = x2) + :::+ xnp(X = xn) onde A = fx1; x2; :::; xng. Example 8 Considere novamente o exemplo da moeda acima com a distribuição exempli cada. Temos que n = 2, x1 = 0 e x2 = 1. A esperança é: E [X] = 2X k=1 xkp(X = xk) = x1p(X = x1) + x2p(X = x2) = 0 � p(X = 0) + 1 � p(X = 1) = 0 � 1 3 + 1 � 2 3 = 2 3 : A melhor interpretação para a esperança é a seguinte: se você repetir o experimento n vezes, e tirar a média aritmética dos resultados, esta média será proxima da esperança (muito provavel- mente). Este é um resultado estatístico, pois na maioria das vezes que você zer este procedimento o resultado será perto da esperança, mas nem sempre. Por exemplo, se você lançar o dado viesado do exemplo acima 1000 vezes, somar os resultados (zero e uns) e dividir o resultado por mil, você (provavelmente) obterá um número próximo de 2=3. 1Para alunos que já tenham estudado um pouco de teoria da medida, eu deveria dizer que a distribuição de probabilidade é uma função �-adititiva. 2 Example 9 Lançamento de dados não viesados. Considere X como sendo uma Variável Aleatória que representa o lançamento de um dado de 6 faces. X pode assumir valores inteiros entre 1 e 6, e cada valor tem a mesma chance de ocorrer. Sabemos que sua esperança é 3,5 (faça as contas!). Isto signi ca que se você jogar os dados 1000 vezes e tirar a média aritmética dos resultados, você obterá (muito provavelmente) um número próximo à 3,5. De nition 10 A Variância é de nida como: V ar [X] = E h (X � �)2 i = E[X2]� (E[X])2 onde � = E[X] A variância é uma medida de dispersão da variável aleatória. De nition 11 O Desvio Padrão é de nida como: �X = p V ar[X] O desvio padrão também é uma medida de dispersão da variável aleatória. No entanto, ela tem uma interpretação mais interessante porque obter o resuldado de uma variável aleatória, temos que a chance do resultado estar entre E[X]� �X e E[X] + �X é bastante alta. Por exemplo, considere ação cujo a esperança do retorno é de 10% e o desvio padrão é de 3%. Neste caso, o retorno da ação será, provavelmente, um valor entre 7% e 13%. De nition 12 A covariância é de nida como Cov(X;Y ) = E [(X � �X) (Y � �Y )] = E[XY ]� E[X]E[Y ] onde �X = E[X] �Y = E[Y ] A covariância é uma medida de dependência entre duas variáveis. No entanto, seu número pode ser muito grande ou muito pequeno, sem que isto signi que que a dependência seja maior ou menor. Para resolver este problema, de nimos a correlação. De nition 13 A correlação é de nida como �X;Y = Cov(X;Y ) �X�Y : A correlação também é uma medida de dependência entre duas variáveis. Ela é uma medida padronizada e SEMPRE temos que �X;Y 2 [�1; 1] : 3 Agora podemos dizer que uma correlação mais alta implica uma grau de dependência maior. Sendo mais preciso, quanto maior for o modulo da correlação ���X;Y ��, maior é o grau de dependência. Além disto, se ���X;Y �� = 1, temos uma correlação perfeita, o resultado de X determina completamente o resultado de Y e podemos escrever Y = �X + � onde � e � são constantes. É importante enfatizar que a correlação só mede o grau de dependência LINEAR. Por exemplo, �X;Y = 0 não signi ca que X e Y são independentes. Existem casos em que �X;Y = 0 mas que X determina Y completamente. Outra interpretação importante é entender que quando a correlação é diferente de zero, conhecer o valor de X ajuda a prever o valor de Y . Por exemplo, se a o preço da ação da Petrobrás tem correlação positiva com o preço do petróleo, signi ca que se sabemos que o preço do petróleo subirá, então o preço da ação da petrobrás provavelmente subirá também. 1.1 Variáveis Aleatórias Contínuas De nimos acima as VAs discretas, ou seja, em que os estados da natureza podem ser contados. Mas poderíamos de nir também VAs em que os estados da natureza não são contáveis, ou seja, o número de estados é in nito. Quando falamos em contínuas, queremos dizer um tipo especial de in nito. Este tipo diz respeito a quantidade como distância entre dois pontos, intervalos de tempo, volume de água, etc.. Um exemplo seria a altura de uma criança daqui a vinte anos. Não sabemos bem qual será o valor, mas sabemos que podemos medir com uma precisão muito grande (milimetros, ou milésimos de milímetros, etc..). (Em construção.) 4 2 De nições Concisas e Propriedades Considere que X, Y e Z são variáveis aleatórias e que � e � são constantes. De modo conciso, temos que: A esperança é (caso de V.A. discreto com n estados da natureza) E [X] = nX k=1 xkp(X = xk); ou no caso de variáveis aleatórias contínuas: E [X] = Z 1 �1 xf(x)dx: A Variância é de nida como: V ar [X] = E h (X � �)2 i = E[X2]� (E[X])2 : O Desvio Padrão é de nida como: �X = p V ar[X]: A covariância é de nida como Cov(X;Y ) = E [(X � E[X]) (Y � E[Y ])] = E[XY ]� E[X]E[Y ]: A correlação é de nida como �X;Y = Cov(X;Y ) �X�Y : Temos que as seguintes propriedades são satisfeitas: E[�X] = �E[X] E[X + Y ] = E[X] + E[Y ] V ar(�X) = �2V ar(X) V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X;Y ) Cov(X;Y ) = �X;Y �x�Y Cov(X;Y ) = V ar(Y;X) Cov(X;X) = V ar(X) Cov(X + Y;Z) = Cov(X;Z) + Cov(Y;Z) Cov(�X;Z) = �Cov(X;Z) �X;Y 2 [�1; 1]] 5 3 Usando Matrizes Agora considere n variáveis aleatórias:X1; X2; :::; Xn e considere o vetor coluna �! X como sendo �! X = 0BBB@ X1 X2 ... Xn 1CCCA : Considere n constantes: !1; !2; :::!n; e o vetor coluna �!! �!! = 0BBB@ !1 !2 ... !n 1CCCA : Lembre-se que o transposto de uma matriz coluna é �! XT = � X1 X2 ::: Xn � : Dado estas informações, nós podemos escrever !1X1 + !2X2 + :::+ !nXn de modo resumido usando multiplicação de matrizes (lembre-se que a multiplicação de uma matriz linha por uma matriz coluna é igual a um escalar): �! XT�!! = !1X1 + !2X2 + :::+ !nXn. É conveniente introduzir o vetores colunas (matrizes n� 1) de uns �!� e de zeros �!0 : �!� = 0BBB@ 11 ... 1 1CCCA e �!0 = 0BBB@ 0 0 ... 0 1CCCA Em nanças, estamos muitas vezes interessado na esperança e na variância do retorno de uma carteira. Este retorno é escrito com uma fórmula muito parecida com a de cima. A fórmula de cima é também muito usada no estudo de econometria. É interessante de nirmos a matriz de covariância : = 0BBB@ Cov(X1X1) Cov(X1X2) Cov(X1Xn) Cov(X2X1) Cov(X2X2) ::: ... . . . ... Cov(XnX1) ::: Cov(XnXn) 1CCCA e a matriz coluna �!ex = 0BBB@ E [X1] E [X2] ... E [Xn] 1CCCA 6 Note que: é uma matriz simétrica, A diagonal de contém as variâncias. Além disto, pode-se mostrar que é uma matriz semi-de nida positiva, ou seja, �!v T �!v � 0 para qualquer vetor �!v : Agora, podemos usar as propriedades que enunciamos acima para obtermos: E h�! XT�!! i = !1E [X1] + !2 [X2] + :::+ !n [Xn] E h�! XT�!! i = �!exT�!! e V ar ��! XT�!! � = �!! T �!! : 3.1 Derivada matricial Em diversos contextos (por exemplo, fronteira de Markowitz) precisamos da seguinte derivada d d!i h V ar ��! XT�!! �i : Fazer isto diretamente é bastante tedioso. Porém há um modo mais fácil. Considere o gradiente da função g (�!! ) d d�!! g = rg = 0BBB@ d d!1 g d d!2 g ... d d!n g 1CCCA agora considere que g (�!! ) = V ar ��! XT�!! � = �!! T �!! : Pode-se mostrar que (como exercício, veri que a fórmula abaixo para o caso n = 3): rg (�!! ) = 2 �!! : De modo similar, podemos mostrar que se h(�!! ) = !T�!ex temos que rh (�!! ) = �!ex e que se h(�!! ) = !T � temos que rh (�!! ) = �: Lembre-se que � é o vetor de uns de nido acima. 7 3.2 Resolvendo o Problema de Mínima Variância dado a Esperança Queremos resolver o seguinte problema min ��!! T �!! a:s: !T i = 1 !T�!ex = kE : O Lagrangeano é: L = �!! T �!! � �1 � !T i� 1�� �2 �!T�!ex � kE� e a CPO é rL = 2 ! � �1�� �2�!ex = �!0 onde �! 0 é o vetor de zeros. A solução é: !� = � ��1 2 �1�+ ��2 2 �1�!ex � onde ��1 = 2 A�BkE AC �B2 ��2 = 2 CkE �B AC �B2 ; onde temos que A;B e C são constantes. Note que ��1 e � � 2 dependem do retorno xado kE e das constantes: A = (�!ex)T �1�!ex B = (�!ex)T �1� = � �T �1�!ex � C = � �T �1� � : As constantes, por sua vez, dependem apenas de e de �!ex, ou seja, das esperanças e variâncias dos retornos e das correlações. 3.2.1 Chegando a solução acima (não é necessário ler) Para se chegar a ela, re-escreva a CPO como: ! = �1 2 �+ �2 2 �!ex �1 ! = �1 � �1 2 �+ �2 2 �!ex � I! = � �1 2 �1�+ �2 2 �1�!ex � 8 onde I é a matriz identidade. Usando as restrições, temos que !T i = iT! = 1 �T � �1 2 �1�+ �2 2 �1�!ex � = 1 �1 2 � �T �1� � + �2 2 � �T �1�!ex � = 1 e !T�!ex = (�!ex)T ! = kE (�!ex)T � �1 2 �1�+ �2 2 �1�!ex � = kE �1 2 � (�!ex)T �1� � + �2 2 � (�!ex)T �1�!ex � = kE Para simpli car, podemos fazer A = (�!ex)T �1�!ex B = (�!ex)T �1� = � �T �1�!ex � C = � �T �1� � que são escalares (ou seja, números reais) e só dependem das caracteríticas dos ativos. Assim, para achar �1 e �2 teremos de resolver o sistema de equações lineares: �1 2 B + �2 2 A = kE �1 2 C + �2 2 B = 1 cuja resposta é ��1 = 2 A�BkE AC �B2 ��2 = 2 CkE �B AC �B2 : Assim, obtemos nalmente ! = � ��1 2 �1�+ ��2 2 �1�!ex � ! = �1 (A�BkE) �+ (CkE �B)�!ex AC �B2 : 9
Compartilhar