Vista previa del material en texto
ESCUELA TÉCNICA SUPERIOR DE INGENIEROS AERONÁUTICOS ESTADÍSTICA Marta Cordero Gracia José Olarrea Busto Dpto. de Matemática Aplicada y Estad́ıstica Índice general 1. Estad́ıstica descriptiva 1 1.1. Notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2. Formas de agrupar los datos de una muestra . . . . . . . . . . . . . . . . . 3 1.3. Representación gráfica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4. Medidas numéricas descriptivas . . . . . . . . . . . . . . . . . . . . . . . . 5 1.4.1. Medidas de posición . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4.2. Medidas de dispersión . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.3. Medida de asimetŕıa . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.4.4. Medida de apuntamiento . . . . . . . . . . . . . . . . . . . . . . . . 9 2. Análisis combinatorio 11 2.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3. Álgebra de sucesos 19 3.1. Experimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3. Operaciones con sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.1. Unión de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.2. Intersección de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.3. Propiedades de la unión y la intersección . . . . . . . . . . . . . . . 21 3.3.4. Diferencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.3.5. Suceso complementario . . . . . . . . . . . . . . . . . . . . . . . . . 22 4. Teoŕıa de la probabilidad 23 4.1. Concepto de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.1.1. Probabilidad clásica . . . . . . . . . . . . . . . . . . . . . . . . . . 24 i 4.1.2. Probabilidad frecuentista . . . . . . . . . . . . . . . . . . . . . . . . 24 4.1.3. Axiomática del cálculo de probabilidades . . . . . . . . . . . . . . . 26 4.1.4. Axiomática de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . 28 4.2. Teoremas del cálculo de probabilidades . . . . . . . . . . . . . . . . . . . . 29 4.3. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.3.1. Regla de la multiplicación . . . . . . . . . . . . . . . . . . . . . . . 32 4.3.2. Teorema de la probabilidad total . . . . . . . . . . . . . . . . . . . 33 4.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.4. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 5. Variable aleatoria unidimensional 37 5.1. Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5.1.1. Definición matemática . . . . . . . . . . . . . . . . . . . . . . . . . 38 5.1.2. Definición intuitiva . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 5.2. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 5.2.1. Función de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 40 5.2.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . 41 5.3. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.3.1. Función de distribución y función de densidad . . . . . . . . . . . . 42 5.4. Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 5.5. Transformaciones de variables aleatorias . . . . . . . . . . . . . . . . . . . 46 5.5.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . 46 5.5.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 48 5.5.3. Transformación integral . . . . . . . . . . . . . . . . . . . . . . . . 49 5.6. Distribuciones truncadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 6. Momentos de una variable aleatoria unidimensional 53 6.1. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 6.2. Momento de orden k de una variable aleatoria . . . . . . . . . . . . . . . . 55 6.3. Varianza y desviación t́ıpica . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.4. Otros valores t́ıpicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.5. Coeficientes de asimetŕıa y curtosis . . . . . . . . . . . . . . . . . . . . . . 58 6.6. Teorema de Markov. Desigualdad de Chebychev . . . . . . . . . . . . . . . 60 6.7. Función generatriz de momentos . . . . . . . . . . . . . . . . . . . . . . . . 61 6.8. Función caracteŕıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 6.8.1. Cambio de variable en la función caracteŕıstica . . . . . . . . . . . . 64 ii 7. Variable aleatoria bidimensional y n-dimensional 65 7.1. Variable aleatoria bidimensional . . . . . . . . . . . . . . . . . . . . . . . . 66 7.2. Variable aleatoria bidimensional discreta . . . . . . . . . . . . . . . . . . . 66 7.2.1. Función de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 67 7.2.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.3. Variable aleatoria bidimensional continua . . . . . . . . . . . . . . . . . . . 69 7.3.1. Función de distribución y función de densidad . . . . . . . . . . . . 69 7.4. Variable aleatoria bidimensional condicional . . . . . . . . . . . . . . . . . 72 7.4.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . 72 7.4.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 73 7.5. Variables aleatorias bidimensionales independientes . . . . . . . . . . . . . 75 7.6. Momentos de una variable aleatoria bidimensional . . . . . . . . . . . . . . 76 7.6.1. Propiedades de las varianzas y la covarianza . . . . . . . . . . . . . 78 7.6.2. Coeficiente de correlación lineal . . . . . . . . . . . . . . . . . . . . 80 7.7. Función caracteŕıstica de una variable aleatoria bidimensional . . . . . . . 81 7.8. Transformación de variables aleatorias bidimensionales . . . . . . . . . . . 82 7.8.1. Una función de dos variables aleatorias . . . . . . . . . . . . . . . . 82 7.8.2. Dos funciones de dos variables aleaorias . . . . . . . . . . . . . . . . 82 7.8.3. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . 83 7.8.4. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 83 7.9. Variable aleatoria n-dimensional . . . . . . . . . . . . . . . . . . . . . . . . 84 8. Distribuciones de probabilidad discretas 85 8.1. Distribución de Bernoulli, B(1, p) . . . . . . . . . . . . . . . . . . . . . . . 86 8.2. Distribución Binomial, B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . 86 8.2.1. Teorema de adición para distribuciones Binomiales . . . . . . . . . 88 8.2.2. Distribución de la proporción . . . . . . . . . . . . . . . . . . . . . 89 8.3. Distribución de Poisson, P(λ) . . . . . . . . . . . . . . . . . . . . . . . . . 89 8.3.1. Teorema de adición para distribuciones de Poisson . . . . . . . . . . 90 8.3.2. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . 91 8.3.3. Aproximación de una Binomial por una Poisson . . . . . . . . . . . 92 8.4. Distribución Hipergeométrica, H(n,N,A) . . . . . . . . . . . . . . . . . . 92 8.5. Distribución Geométrica, G(p) . . . . . . . . . . . . . . . . . . . . . . . . 94 8.6. Distribución Binomial Negativa, BN(r, p) . . . . . . . . . . . . . . . . . . 95 8.6.1. Teorema de adición para distribuciones Binomiales Negativas . . . . 96 iii 9. Distribuciones de probabilidad continuas 99 9.1. Distribución Uniforme, U(a, b) . . . . . . . . . . . . . . . . . . . . . . . . 100 9.2. Distribución Normal,N(µ, σ) . . . . . . . . . . . . . . . . . . . . . . . . . 101 9.2.1. Teorema de adición para distribuciones Normales . . . . . . . . . . 103 9.2.2. Distribución Normal estándar . . . . . . . . . . . . . . . . . . . . . 104 9.3. Distribución Log-Normal, Log-N(µ, σ) . . . . . . . . . . . . . . . . . . . 105 9.4. Distribución χ2 de Pearson, χ2n . . . . . . . . . . . . . . . . . . . . . . . . 107 9.4.1. Teorema de adición para distribuciones χ2 de Pearson . . . . . . . 108 9.5. Distribución t-Student, tn . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 9.6. Distribución F-Snedecor, Fn,m . . . . . . . . . . . . . . . . . . . . . . . . . 110 9.7. Distribución Exponencial, Exp(λ) . . . . . . . . . . . . . . . . . . . . . . 111 9.7.1. Teorema de adición para distribuciones Exponenciales . . . . . . . . 113 9.8. Distribución de Erlang Er(n, λ) . . . . . . . . . . . . . . . . . . . . . . . 113 9.8.1. Teorema de adición para distribuciones de Erlang . . . . . . . . . . 115 9.9. Relación entre las distribuciones de Poisson, Exponencial y Erlang . . . . . 115 9.10. Distribución de Weibull, W(r, λ) . . . . . . . . . . . . . . . . . . . . . . . 117 9.11. Distribución Gamma, G(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . 118 9.11.1. Teorema de adición para distribuciones Gamma . . . . . . . . . . . 119 9.12. Distribución Beta, B(p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 9.12.1. Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 9.13. Relaciones entre distribuciones continuas . . . . . . . . . . . . . . . . . . . 121 9.14. Distribución Normal Bidimensional . . . . . . . . . . . . . . . . . . . . . . 123 10.Convergencia de sucesiones de variables aleatorias 127 10.1. Convergencia en ley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 10.2. Problema central del ĺımite . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 10.2.1. Teorema de Levy-Lindeberg . . . . . . . . . . . . . . . . . . . . . . 129 10.2.2. Teorema de Lindeberg . . . . . . . . . . . . . . . . . . . . . . . . . 129 10.3. Aproximaciones a la distribución Normal . . . . . . . . . . . . . . . . . . . 130 10.3.1. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . 130 10.3.2. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 131 10.3.3. Distribución χ2 de Pearson . . . . . . . . . . . . . . . . . . . . . . 132 10.3.4. Distribución t-Student . . . . . . . . . . . . . . . . . . . . . . . . . 132 11.Regresión y correlación 133 11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 iv 11.2. Regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 11.2.1. Método de los mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . 134 11.2.2. Método de la distribución condicional . . . . . . . . . . . . . . . . . 136 11.2.3. Regresión Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 11.3. Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 11.3.1. Coeficiente de correlación lineal . . . . . . . . . . . . . . . . . . . . 140 12.Distribuciones de muestreo 143 12.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 12.2. Definición de estad́ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 12.3. Estad́ıstico media muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 12.3.1. Población Madre Normal . . . . . . . . . . . . . . . . . . . . . . . . 145 12.3.2. Población Madre no Normal . . . . . . . . . . . . . . . . . . . . . . 146 12.4. Estad́ıstico (n − 1)s2 σ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 12.5. Estad́ıstico x̄ − µ s/ √ n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 12.5.1. Población Madre Normal . . . . . . . . . . . . . . . . . . . . . . . . 147 12.5.2. Población Madre no Normal . . . . . . . . . . . . . . . . . . . . . . 148 12.6. Estad́ıstico varianza muestral . . . . . . . . . . . . . . . . . . . . . . . . . 148 12.6.1. Población Madre Normal . . . . . . . . . . . . . . . . . . . . . . . . 148 12.6.2. Población Madre no Normal . . . . . . . . . . . . . . . . . . . . . . 149 12.7. Estad́ıstico desviación t́ıpica muestral . . . . . . . . . . . . . . . . . . . . . 150 12.8. Estad́ıstico diferencia de medias muestrales . . . . . . . . . . . . . . . . . . 152 12.9. Estad́ıstico cociente de varianzas muestrales . . . . . . . . . . . . . . . . . 153 12.10.Estad́ıstico proporción muestral . . . . . . . . . . . . . . . . . . . . . . . . 154 12.11.Estad́ıstico elemento que ocupa el lugar r . . . . . . . . . . . . . . . . . . 155 12.11.1.Estad́ıstico máximo valor de una muestra . . . . . . . . . . . . . . . 155 12.11.2.Estad́ıstico mı́nimo valor de una muestra . . . . . . . . . . . . . . . 156 12.11.3.Estad́ıstico recorrido de una muestra . . . . . . . . . . . . . . . . . 156 12.11.4.Estimación de cuantiles . . . . . . . . . . . . . . . . . . . . . . . . . 157 13.Estimación puntual y estimación por intervalo 159 13.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 13.2. Propiedades deseables de los estimadores puntuales . . . . . . . . . . . . . 163 13.2.1. Estimador suficiente . . . . . . . . . . . . . . . . . . . . . . . . . . 163 13.2.2. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . . . . 164 13.2.3. Error cuadrático medio . . . . . . . . . . . . . . . . . . . . . . . . . 165 v 13.2.4. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . . . . 166 13.2.5. Estimador eficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 13.3. Métodos de estimación puntual . . . . . . . . . . . . . . . . . . . . . . . . 170 13.3.1. Método de máxima verosimilitud . . . . . . . . . . . . . . . . . . . 170 13.3.2. Propiedades de los estimadores de máxima verosimilitud . . . . . . 172 13.3.3. Método de los momentos . . . . . . . . . . . . . . . . . . . . . . . . 173 13.4. Estimación por intervalo de confianza . . . . . . . . . . . . . . . . . . . . . 174 13.4.1. Intervalo de confianza para la media . . . . . . . . . . . . . . . . . 176 13.4.2. Intervalo de confianza para la varianza . . . . . . . . . . . . . . . . 179 13.4.3. Intervalo de confianza para la diferencia de medias . . . . . . . . . 180 13.4.4. Intervalo de confianza para el cociente de varianzas . . . . . . . . . 182 13.4.5. Intervalo de confianza para la proporción poblacional . . . . . . . . 183 13.5. Intervalo de confianza asintótico . . . . . . . . . . . . . . . . . . . . . . . . 185 14.Teoŕıa de muestras de población finita 187 14.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 14.2. Distribuciones de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 14.2.1. Estad́ıstico media muestral . . . . . . . . . . . . . . . . . . . . . . . 189 14.2.2. Estad́ıstico varianza muestral . . . . . . . . . . . . . . . . . . . . . 191 14.2.3. Estad́ıstico proporción muestral . . . . . . . . . . . . . . . . . . . . 193 14.3. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 14.3.1. Intervalo de confianza para la media poblacional . . . . . . . . . . . 194 14.3.2. Intervalo de confianza para la proporción poblacional . . . . . . . . 195 15.Contraste de hipótesis 197 15.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 15.2. Las hipótesis nula y alternativa . . . . . . . . . . . . . . . . . . . . . . . . 199 15.3. Metodoloǵıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 15.4. Nivel de significación y región cŕıtica . . . . . . . . . . . . . . . . . . . . . 204 15.5. Valor-p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 15.6.Potencia de un contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 15.7. Contrastes para la media de una población . . . . . . . . . . . . . . . . . . 209 15.7.1. Varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 15.7.2. Varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . . . . 211 15.8. Comparación de medias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 15.8.1. Varianzas conocidas . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 vi 15.8.2. Varianzas desconocidas e iguales . . . . . . . . . . . . . . . . . . . . 213 15.8.3. Varianzas desconocidas y distintas . . . . . . . . . . . . . . . . . . . 213 15.8.4. Muestras apareadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 15.9. Pruebas sobre proporciones . . . . . . . . . . . . . . . . . . . . . . . . . . 214 15.9.1. Diferencia de dos proporciones . . . . . . . . . . . . . . . . . . . . . 215 15.10.Pruebas sobre varianzas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 15.10.1.Una población . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 15.10.2.Comparación de varianzas . . . . . . . . . . . . . . . . . . . . . . . 215 16.Contrastes no paramétricos 219 16.1. Contraste χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 16.1.1. Prueba de bondad del ajuste . . . . . . . . . . . . . . . . . . . . . . 221 16.1.2. Prueba de homogeneidad . . . . . . . . . . . . . . . . . . . . . . . . 222 16.1.3. Prueba de independencia . . . . . . . . . . . . . . . . . . . . . . . . 223 16.2. Contraste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . 223 16.3. Otros contrastes no paramétricos . . . . . . . . . . . . . . . . . . . . . . . 224 16.3.1. Contrastes de posición . . . . . . . . . . . . . . . . . . . . . . . . . 224 16.3.2. Contrastes de independencia . . . . . . . . . . . . . . . . . . . . . . 228 16.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 17.Regresión lineal simple 251 17.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 17.2. Modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 17.3. Método de mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . 254 17.4. Propiedades de los estimadores de mı́nimos cuadrados . . . . . . . . . . . . 256 17.4.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . . . 256 17.4.2. Condiciones de normalidad . . . . . . . . . . . . . . . . . . . . . . . 257 17.5. Varianza residual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 17.6. Inferencias respecto a los parámetros . . . . . . . . . . . . . . . . . . . . . 258 17.7. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 17.7.1. Estimación de la respuesta media . . . . . . . . . . . . . . . . . . . 259 17.7.2. Predicción de una observación . . . . . . . . . . . . . . . . . . . . . 260 17.8. Análisis de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 17.9. Coeficiente de correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 17.9.1. Inferencias sobre el coeficiente de correlación . . . . . . . . . . . . . 264 17.10.Contraste de linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 vii A. Tablas estad́ısticas 271 B. Resumen de distribuciones 303 viii 1 Estad́ıstica descriptiva Índice 1.1. Notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2. Formas de agrupar los datos de una muestra . . . . . . . . . . 3 1.3. Representación gráfica . . . . . . . . . . . . . . . . . . . . . . . 4 1.4. Medidas numéricas descriptivas . . . . . . . . . . . . . . . . . . 5 1.4.1. Medidas de posición . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4.1.1. Medidas de tendencia central . . . . . . . . . . . . . . 6 1.4.1.2. Cuantiles . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4.2. Medidas de dispersión . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.2.1. Varianza y desviación t́ıpica . . . . . . . . . . . . . . 8 1.4.2.2. Desviación media . . . . . . . . . . . . . . . . . . . . 8 1.4.2.3. Coeficiente de variación de Pearson . . . . . . . . . . 8 1.4.2.4. Recorrido . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.3. Medida de asimetŕıa . . . . . . . . . . . . . . . . . . . . . . . . 9 1.4.4. Medida de apuntamiento . . . . . . . . . . . . . . . . . . . . . 9 1 2 Estad́ıstica La estad́ıstica descriptiva tiene por objeto describir y analizar un determinado con- junto de datos sin pretender sacar conclusiones de tipo más general. El conjunto de datos en cuestión representa una muestra de los distintos valores que puede tomar una población (e.g. estatura de los alumnos de la Escuela, ingresos familiares de una unidad familiar, estado civil, número de grietas en las alas de un determinado modelo de avión) Las variables se pueden clasificar en: Cuantitativas: variables en las que los datos difieren en magnitud (e.g. estaturas, ingresos anuales, etc) Cualitativas: variables en las que los datos difieren en tipo (e.g. estado civil, nacionalidad, etc) En este caṕıtulo se tratará únicamente con variables cuantitativas. Para obtener una muestra de valores de una variable cuantitativa es necesario realizar medidas con una determinada escala y unidad de medida. La unidad de medida puede ser infinitamente divisible (e.g. km, m, cm, mm, . . . ) o indivisible (e.g. tamaño de una unidad familiar). Cuando la unidad de medida es infinitamente divisible, la variable se dice que es continua. En el caso de unidad de medida indivisible, se dice que la variable es discreta. En otras palabras, Variable continua: aquella que puede tomar un número infinito no numerable de valores. Variable discreta: aquella que puede tomar un número finito o infinito numerable de va- lores. 1.1. Notación La notación que vamos a utilizar a lo largo de este caṕıtulo es la siguiente: • Disponemos de N observaciones, r de las cuales son distintas {x1, x2, . . . , xr}. • Las observaciones están ordenadas en forma creciente x1 < x2 < · · · < xr. • Cada observación xi ha aparecido ni veces. • Se llama frecuencia absoluta de la observación xi al valor ni, siendo r∑ i=1 ni = N 1 Estad́ıstica descriptiva 3 • Se llama frecuencia absoluta acumulada de la observación xi, al valor Ni = i∑ k=1 nk siendo Nr = N • Se llama frecuencia relativa de la observación xi al valor fi = ni N siendo r∑ i=1 fi = 1 • Se llama frecuencia relativa acumulada de la observación xi, al valor Fi = i∑ k=1 fk siendo Fr = 1 1.2. Formas de agrupar los datos de una muestra Tabla Tipo I. Se utiliza cuando el número de observaciones es reducido (N es pequeño), y cada valor distinto ha aparecido una sola vez (todas las frecuencias absolutas valen uno). xi ni x1 1 x2 1 ... ... xN 1 Tabla Tipo II. Se utiliza cuando el número de observaciones es grande (N es gran- de), pero el número de valores distintos que han aparecido es pequeño (algunas frecuencias absolutas son distintas de uno). 4 Estad́ıstica xi ni x1 n1 x2 n2 ... ... xr nr Tabla Tipo III. Se utiliza cuando tanto el número de observaciones como el número de valores distintos que han aparecido es grande. En este caso, elegiremos unos intervalos, Li−1 — Li, de amplitud, ai = Li − Li−1, fija o variable, que contengan a la totalidad de los valores observados. ∈[L0,L1)︷ ︸︸ ︷ x1, x2, x3, x4, ∈[L1,L2)︷ ︸︸ ︷ x5, x6, x7, x8, x9, x10, ... x82, x83, x84,︸ ︷︷ ︸ ∈[Lr−2,Lr−1) x85, x86, x87, x88, x89, x90︸ ︷︷ ︸ ∈[Lr−1,Lr) Li−1 — Li ni L0 — L1 n1 L1 — L2 n2 ... ... Lr−1 — Lr nr En las tablas tipo III, se sugieren las siguientes normas : • Se debe intentar que los intervalos sean de amplitud constante. • Los intervalos se deben tomar semiabiertos, [Li−1,Li). • Para facilitarlos cálculos, se definen las marcas de clase como xi = Li−1 + Li 2 convirtiéndolas en tablas tipo II. 1.3. Representación gráfica Hay muchas formas de representar gráficamente una tabla, aqúı veremos sólo algunas de ellas. 1 Estad́ıstica descriptiva 5 Diagrama de barras - x 6n x1 n1 x2 n2 · · · xr nr Poĺıgono de frecuencias - x 6n •% %% x1 n1 •aaa x2 n2 •"" " " " " x3 n3 • x4 n4 Histograma - x 6h L0 L1 h1 n1 L2 h2 n2 L3 h3 n3 Histograma - x 6n L0 L1 n1 A1 L2 n2 A2 L3 n3 A3 ai = Li − Li−1 , hi = ni ai Ai = ai ni 1.4. Medidas numéricas descriptivas Una vez que se han recogido y graficado los datos, es conveniente definir algunas medidas numéricas para describirlos. Existen dos medidas de especial interés para cual- quier conjunto de datos: la localización de su centro y su variabilidad. Además, hay otras medidas también importantes como la localización de los extremos y la forma en que se distribuyen los datos. 6 Estad́ıstica 1.4.1. Medidas de posición 1.4.1.1. Medidas de tendencia central Estas medidas indican dónde se encuentra el centro de los datos • Media muestral (x̄) La medida de tendencia central más utilizada es la media muestral o simplemente media, x̄ = x1n1 + x2n2 + · · ·+ xrnr n1 + n2 + · · ·+ nr = 1 N r∑ i=1 xini • Otros tipos de medias – Media geométrica x̄G = (x1 n1 · x2n2 · · ·xrnr)1/N – Media cuadrática x̄Q = √ x21n1 + x 2 2n2 + · · ·+ x2rnr N – Media armónica x̄A = N n1 x1 + n2 x2 + · · ·+ nr xr – Media ponderada x̄p = x1p1 + x2p2 + · · ·+ xrpr p1 + p2 + · · ·+ pr Se cumple: x̄A ≤ x̄G ≤ x̄ ≤ x̄Q • Mediana (Me) Lamediana es la medida de tendencia central que, supuestos los valores de la muestra ordenados en forma creciente, deja igual número de observaciones por debajo y por encima de ella. Aśı, suponiendo que los valores de la muestra son x1 ≤ x2 ≤ · · · ≤ xN 1 Estad́ıstica descriptiva 7 Me = x[N 2 ]+1 Si N 2 ∈/N 1 2 ( xN 2 + xN 2 +1 ) Si N 2 ∈ N donde los corchetes, [ ], indican la parte entera. • Moda (Mo) La moda se define como el valor de la muestra que tiene máxima frecuencia. La moda no siempre es única. Aśı, si una muestra tiene dos modas se llamará bimodal, si tiene tres modas trimodal, etc. 1.4.1.2. Cuantiles Ya hemos visto que la mediana divide el conjunto de datos en dos partes de igual tamaño. Para obtener medidas de localización más finas, solo es cuestión de dividir el conjunto de datos en más de dos partes. De esta forma se definen los p-cuantiles, siendo p la proporción de datos que deja el cuantil a su izquierda. Si tenemos la muestra ordenada de forma creciente, x1 ≤ x2 ≤ · · · ≤ xN , el p-cuantil viene dado por xp = x[Np]+1 Si Np ∈/N 1 2 (xNp + xNp+1) Si Np ∈ N donde los corchetes, [ ], indican la parte entera. Los casos particulares de cuantiles más utilizados son • Cuartiles (Q1/4, Q2/4, Q3/4) Son los 3 valores de la muestra que dividen las observaciones en 4 partes iguales. • Deciles (D1/10, D2/10, . . . , D9/10) Son los 9 valores de la muestra que dividen las observaciones en 10 partes iguales. • Centiles o percentiles (P1/100, P2/100, . . . , P99/100) Son los 99 valores de la muestra que dividen las observaciones en 100 partes iguales. 8 Estad́ıstica 1.4.2. Medidas de dispersión 1.4.2.1. Varianza y desviación t́ıpica Las medidas de dispersión más utilizadas son la varianza y la desviación t́ıpica. La varianza muestral, s2, es un tipo de promedio de las desviaciones de los valores observados respecto de su media, y se define como s2 = (x1 − x̄)2n1 + · · ·+ (xr − x̄)2nr (n1 + n2 + · · ·+ nr)− 1 = 1 N − 1 r∑ i=1 (xi − x̄)2ni La desviación t́ıpica se define como la ráız cuadrada de la varianza y tiene las mismas dimensiones que los datos originales. s = √ s2 = √√√√ 1 N − 1 r∑ i=1 (xi − x̄)2ni 1.4.2.2. Desviación media Se define la desviación media respecto de un parámetro cualquiera, p, como DMp = 1 N r∑ i=1 |xi − p|ni donde, generalmente, como parámetro p se utiliza la media o la mediana. 1.4.2.3. Coeficiente de variación de Pearson El coeficiente de variación de Pearson, definido como el cociente C.V. = s x̄ (x̄ 6= 0) mide la dispersión de la distribución, al igual que la desviación t́ıpica o la varianza, con la ventaja de ser un coeficiente adimensional. 1.4.2.4. Recorrido Es la diferencia entre el valor máximo y el valor mı́nimo que toma la muestra R = máx{xi} −mı́n{xi} Además, se define 1 Estad́ıstica descriptiva 9 • Rango intercuart́ılico RI = Q3/4 −Q1/4 • Rango semicuart́ılico RSI = Q3/4 −Q1/4 2 = RI 2 1.4.3. Medida de asimetŕıa En un conjunto de datos simétricos respecto a su media, x̄, la suma ∑ (xi − x̄)3 será nula, mientras que con datos asimétricos esta suma crecerá con el grado de asimetŕıa. Para obtener una medida adimensional del grado de asimetŕıa se define el coeficiente de asimetŕıa o deformación como CA = n ∑ (xi − x̄)3 (n− 1)(n− 2)s3 (n ≥ 3 y s 6= 0) donde s es la desviación t́ıpica de la muestra. Valores grandes y negativos de CA son indicativos de asimetŕıa hacia la izquierda (x̄ <Me<Mo) mientras que valores grandes y positivos son indicativos de asimetŕıa hacia la derecha (x̄ >Me>Mo). 1.4.4. Medida de apuntamiento Para medir si una distribución de datos es más puntiaguda o más achatada de lo “normal”, se define el coeficiente de apuntamiento o curtosis como CAp = n(n+ 1) ∑ (xi − x̄)4 (n− 1)(n− 2)(n− 3)s4 − 3(n− 1)2 (n− 2)(n− 3) (n ≥ 4 y s 6= 0) donde s es la desviación t́ıpica de la muestra. Si CAp> 0 indica que la distribución es puntiaguda, mientras que si CAp< 0 indica que es achatada. 10 Estad́ıstica 2 Análisis combinatorio Índice 2.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.1.0.1. Sin repetición . . . . . . . . . . . . . . . . . . . . . . 13 2.1.0.2. Con repetición . . . . . . . . . . . . . . . . . . . . . . 14 2.2. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.0.3. Sin repetición . . . . . . . . . . . . . . . . . . . . . . 14 2.2.0.4. Con repetición . . . . . . . . . . . . . . . . . . . . . . 15 2.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3.0.5. Sin repetición . . . . . . . . . . . . . . . . . . . . . . 15 2.3.0.6. Con repetición . . . . . . . . . . . . . . . . . . . . . . 16 11 12 El principal objetivo de la combinatoria –o, por lo menos en el que estamos aqúı más interesados– es el de hallar el cardinal de un conjunto finito o, dicho de otro modo, contar. Una posible definición matemática de la acción que supone contar es la de establecer una biyección entre el conjunto que se desea contar y los números naturales, de modo que podamos enumerar los elementos como el uno, el dos, etc. Es fácil, por ejemplo, contar el número de cuadrados perfectos que hay entre 100 y 1000. Basta observar que 100 = (9 + 1)2 y que el mayor cuadrado perfecto menor que 1000 es 961 = 312 = (9 + 22)2. Hemos establecido una biyección entre el conjunto que deseábamos contar y los naturales entre el 1 y el 22. Hay, por tanto, 22 cuadrados perfectos entre 100 y 1000. Sin embargo, la mayor parte de las veces, no es evidente –o siquiera posible– cómo establecer tal biyección. Un primer procedimiento accesible en estos casos es el denominado constructivo. Se trata de recorrer los pasos necesarios para formar todos los elementos del conjunto anotando las alternativas que puedan elegirse en cada uno. Veamos un ejemplo: ¿De cuántas maneras se pueden sentar tres chicas y tres chicos en seis butacas consecutivas de un cine de forma que no haya dos chicas ni dos chicos seguidos? Hay que ocupar seis sitios. Los indicaremos gráficamente aśı: La primera butaca puede ser ocupada por cualquiera de las seis personas. ︸︷︷︸ 6 Elegida la primera persona hay 3 elecciones posibles, entre las personas de sexo contrario,para ocupar el segundo lugar. ︸︷︷︸ 6 ︸︷︷︸ 3 La tercera butaca ha de ser ocupada por una de las 2 personas que quedan del mismo sexo de la primera y la cuarta por una de las dos del sexo de la segunda. ︸︷︷︸ 6 ︸︷︷︸ 3 ︸︷︷︸ 2 ︸︷︷︸ 2 Y, para terminar, las dos últimas personas no tienen elección. ︸︷︷︸ 6 ︸︷︷︸ 3 ︸︷︷︸ 2 ︸︷︷︸ 2 ︸︷︷︸ 1 ︸︷︷︸ 1 2 Análisis combinatorio 13 En total hay, por tanto, 6 · 3 · 2 · 2 = 72 ordenaciones posibles. La intuitiva multiplicación que proporciona el resultado final puede expresarse como una regla general matemática: Si los conjuntos A1, A2,. . .,Ak tienen n1, n2, . . .,nk elementos respectivamente, el producto cartesiano A1 ×A2 × · · · × Ak tiene n1 · n2 · · ·nk elementos. En algunas ocasiones hay que resolver problemas que pueden reducirse a un pequeño número de patrones o formas de contar. Estos patrones se estudian en la educación secun- daria y haremos aqúı sólamente un breve recordatorio. Sin embargo, la mayor parte de las veces tendremos problemas que no corresponden exactamente a alguno de estos patrones. Lo más recomendable suele ser recurrir antes a la lógica y al método constructivo que a buscar hipotéticas fórmulas que resuelvan nuestro problema concreto. Entre estos patrones fundamentales –que pueden resumirse esquemáticamente en la tabla del final del caṕıtulo – se encuentran los siguientes: 2.1. Permutaciones Supongamos un conjunto de n elementos. Se llaman permutaciones de estos n ele- mentos a las distintas ordenaciones que podemos hacer con ellos. 2.1.0.1. Sin repetición El método anterior nos da fácilmente el número de permutaciones Pn que existen en el conjunto si no se repite ningún elemento (es decir, si son todos distintos o distinguibles): El primer elemento puede ser cualquiera de los n, el segundo cualquiera de los n− 1 restantes, el tercero cualquiera de los n− 2 restantes y aśı sucesivamente. ︸︷︷︸ n ︸︷︷︸ n− 1 ︸︷︷︸ n− 2 . . . ︸︷︷︸ 3 ︸︷︷︸ 2 ︸︷︷︸ 1 El total de permutaciones de n elementos es, entonces: Pn = n× (n− 1)× (n− 2)× · · · × 3× 2× 1 = n! 14 Estad́ıstica 2.1.0.2. Con repetición Supongamos ahora que no todos los n elementos del conjunto son distintos, sino que hay r grupos de elementos iguales entre śı (o indistinguibles), digamos n1 de una clase, n2 de otra, hasta nr de la última clase. Está claro que n1 + n2 + . . . + nr = n. ¿Cuántas ordenaciones podŕıamos distinguir? Un ejemplo t́ıpico de este problema podŕıa ser el siguiente: disponemos de una bolsa en la que hay 11 bolas iguales; cuatro de ellas tienen un 1 escrito, otras tres un 2 y las cuatro restantes un 3. Sacando las once bolas una tras otra y anotando las cifras que aparecen ¿Cuantos números distintos podemos obtener? Otro ejemplo clásico: ¿Cuántas palabras distintas pueden formarse empleando las 8 letras del vocablo CASCARAS? Pensemos en el problema general. Si los n elementos fueran distintos tendŕıamos n! permutaciones posibles. Dada una cualquiera de ellas, podŕıamos sacar de la ordenación los n1 elementos del primer grupo, reordenarlos arbitrariamente y volver a rellenar los huecos que hubieran dejado libres sin que fuéramos capaces de distinguir la permutación original del resultado final de esta operación. Lo mismo es cierto para los n2 elementos del segundo grupo, los n3 del tercero, hasta los nr del último. Puesto que hay ni! ordenaciones parciales posibles de los elementos del grupo i-ésimo, tenemos que: PRn1,n2,...,nrn = n! n1!× n2!× · · · × nr! 2.2. Variaciones 2.2.0.3. Sin repetición Sea ahora un conjunto de n elementos distintos. Se llama variación de r elementos tomados de entre los n (Vn,r) a una ordenación de un subconjunto de tamaño r. Una variación de 3 elementos tomados de entre 7 es, por ejemplo, el podio (los 3 primeros clasificados) de una carrera con 7 inscritos. Es muy fácil calcular el número de variaciones Vn,r. Basta observar que hay que elegir r elementos de modo que el primero puede ser uno cualquiera de los n, el segundo uno cualquiera de los n− 1 restantes y aśı sucesivamente: ︸︷︷︸ n ︸︷︷︸ n− 1 . . . ︸︷︷︸ n− r + 2 ︸︷︷︸ n− r + 1︸ ︷︷ ︸ r 2 Análisis combinatorio 15 Y aplicando la regla del producto cartesiano: Vn,r = n× (n− 1)× · · · × (n− r + 2)× (n− r + 1) = n! (n− r)! 2.2.0.4. Con repetición Supongamos ahora que cada elemento del conjunto original pueda ser repetido al crear una ordenación de tamaño r. Se hablará entonces de variaciones con repetición de r elementos tomados de entre n, V Rn,r. Pensemos, por ejemplo, en las palabras de 8 letras que pueden formarse con el alfabeto español. Hay que tomar 8 decisiones (cuál es la primera letra, cuál la segunda, etc.) teniendo 27 posibilidades de elección cada vez (las 27 letras del alfabeto). El número total de palabras es, entonces 27× 27× · · · × 27× 27︸ ︷︷ ︸ 8veces = 278. Es fácil observar que, en general: V Rn,r = n r 2.3. Combinaciones Una combinación de r elementos tomados de entre n es cualquier subconjunto de tamaño r de un conjunto de n elementos. Es importante resaltar que en una combinación no interviene el orden de los elementos: si sacamos tres bolas de una bolsa que contiene diez, numeradas del uno al diez, podemos obtener las permutaciones distintas {1, 2, 7} y {7, 1, 2} que, sin embargo, son un mismo subconjunto de tamaño 3 (el obtenido por unión de {1}, {2} y {3}). Son, por tanto, la misma combinación. 2.3.0.5. Sin repetición Siguiendo la idea del ejemplo anterior, una manera sencilla de contar las combina- ciones de r elementos tomados entre n (Cn,r) es observar que, de las n!/(n−r)! variaciones posibles, r! de ellas son ordenaciones distintas de los mismos elementos y, por tanto, la misma combinación. El número total de combinaciones será entonces: Cn,r = n! (n− r)! r! = ( n r ) 16 Estad́ıstica 2.3.0.6. Con repetición Supongamos ahora que tenemos la libertad de repetir los elementos del conjunto para formar un subconjunto de tamaño r, obtendremos una combinación con repetición de r elementos tomados de entre n. En una de estas combinaciones cada uno de los n elementos del conjunto puede aparecer 0, 1, 2, 3, . . ., hasta r veces. Cada combinación puede ser descrita por una n-upla de números que indica cuántas veces aparece el elemento 1, el 2, y aśı hasta el n. Evidentemente, la suma de las cifras de cada n-upla es r, puesto que cada combinación consta de r elementos. El número total de n-uplas tales que la suma de sus elementos sea r es el número de posibles combinaciones con repetición y lo que deseamos calcular. Olvidémonos por el momento de las combinaciones y pensemos en los siguientes problemas: Introducimos r bolas idénticas en n cajas. ¿Cuántas configuraciones finales distintas podŕıamos reconocer? ¿Cuántas soluciones distintas tiene la ecuación k1+k2+ · · ·+kn = r si cada ki debe ser un número natural ó 0? Estos dos problemas aparentemente distintos son, en realidad, equivalentes. Supon- gamos r bolas iguales y n cajas. Las introducimos y contamos cuántas bolas han cáıdo en la primera caja, cuántas en la segunda, la tercera y la cuarta. Cada configuración nos da una n-upla de números (k1, k2, . . . , kn) que resuelve el segundo problema. Obsérvese, llegados a este punto, que el número de configuraciones distintas que obtenemos al introducir r bolas en n cajas y el número de combinaciones que buscábamos coinciden: ambas son el número de n-uplas (k1, k2, . . . , kn) tales que la suma ∑n i=1 ki = r. Vamos a calcular este número empleando un sencillo y original argumento para el problema de las bolas y las cajas. Supongamos las n cajas colocadas una a continuación de la otra y pegadas entre śı. Representaremos las bolas mediante asteriscos y las cajas como los n espacios comprendi- dos entre n+1 barras (las paredes de las cajas). Por ejemplo, la secuencia | ∗ ∗ ∗ |||| ∗ ∗|| ∗ | indica una manera de introducir 6 bolas en 7 cajas con el resultadode 3 en la primera, 2 en la quinta y 1 en la séptima. Cada secuencia que representemos empieza y termina por una barra vertical, pero las restantes n−1 barras y r asteriscos aparecen en un orden arbitrario. Por lo tanto, el número de configuraciones distinguibles es igual al número de formas de seleccionar r lugares de n+ r − 1 posiciones posibles, es decir: 2 Análisis combinatorio 17 CRn,r = (n+ r − 1)! (n− 1)! r! = ( n+ r − 1 r ) Otro ejemplo clásico que puede reducirse al de introducir r bolas en n cajas: ¿Cuántas derivadas parciales de orden r diferentes existen para una función anaĺıtica de n variables f(x1, x2, . . . , xn)? Por ser una función anaĺıtica, las derivadas parciales de orden r no dependen del orden de la derivación, sino sólo del número de veces que cada variable aparece. Si identi- ficamos cada variable con una celda, cada configuración obtenida al introducir r bolas nos da, de nuevo, una derivada posible de orden r. Hay, por tanto CRn,r derivadas distintas de f . 18 Estad́ıstica C O M B I N A T O R I A �� �� �� �� �� ��� B B B B B B B B B B B BN in t e r v ie n e e l o r d e n � � � �3 Q Q Q Qs p u e d o r e p e t ir �� �� �� ��� A A A A A A A AU p u e d o r e p e t ir � � � �3 Q Q Q Qs c o j o t o d o s m e d ic e n c u a n t a s v e c e s s e r e p it e c a d a u n o � � � �3 Q Q Q Qs n o s i n o s i n o s i n o s i n o s i C n ,r = ( n r ) = n ! r! (n − r) ! C R n ,r = ( n + r − 1 r ) = (n + r − 1) ! r! (n − 1) ! V n ,r = n × (n − 1) × ·· ·× (n − r + 1) P n = n ! V R n ,r = n r P R n 1 ,n 2 ,. .. ,n r n = n ! n 1 !× n 2 !× ·· ·× n r ! 3 Álgebra de sucesos Índice 3.1. Experimento aleatorio . . . . . . . . . . . . . . . . . . . . . . . 20 3.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3. Operaciones con sucesos . . . . . . . . . . . . . . . . . . . . . . 21 3.3.1. Unión de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.2. Intersección de sucesos . . . . . . . . . . . . . . . . . . . . . . . 21 3.3.3. Propiedades de la unión y la intersección . . . . . . . . . . . . 21 3.3.4. Diferencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . 22 3.3.5. Suceso complementario . . . . . . . . . . . . . . . . . . . . . . 22 19 20 Estad́ıstica 3.1. Experimento aleatorio Por experimento entenderemos cualquier acción que pueda dar lugar a resultados identificables. Suponemos que podemos repetir el experimento gran número de veces bajo las mismas condiciones, y que todos los posibles resultados son conocidos antes de la realización del mismo. Si los resultados del experimento pueden ser distintos y no se sabe cuál de ellos aparecerá al final, el experimento se llamará aleatorio. Si el resultado del experimento es conocido de antemano, se llamará determinista. 3.2. Sucesos Llamaremos sucesos elementales de un experimento a un conjunto de resultados posibles que cumplen: 1. Siempre ocurre alguno de ellos 2. Son mutuamente excluyentes, es decir, la ocurrencia de uno de ellos implica la no ocurrencia de los demás Llamaremos espacio muestral, E, al conjunto de todos los posibles resultados de un experimento aleatorio. Si, por ejemplo, el experimento consiste en lanzar una moneda dos veces, el espacio muestral lo forman cuatro sucesos elementales, E = {c c, c+,+ c,++}. En un experimento aleatorio podemos estar interesados no en un suceso elemental, sino en un conjunto de sucesos elementales, conjunto que llamaremos suceso compuesto, es decir, un subconjunto del espacio muestral (que se obtiene mediante la unión de sucesos elementales). En el ejemplo anterior, un suceso compuesto seŕıa obtener exactamente una cara, S = {c+,+ c} Si el único resultado que interesa del experimento es el mismo espacio muestral E, estamos ante el suceso seguro; mientras que si el resultado deseado es no obtener ninguno de los sucesos contenidos en E, tenemos el suceso imposible. 3 Álgebra de sucesos 21 3.3. Operaciones con sucesos 3.3.1. Unión de sucesos Dados n sucesos S1, S2, . . . , Sn, la operación unión de ellos ( n⋃ i=1 Si ) es otro suceso constituido por los elementos comunes y no comunes a los sucesos S1, S2, . . . , Sn. Es decir, un suceso que aparece cuando tiene lugar S1 ó S2 ó · · · ó Sn. 3.3.2. Intersección de sucesos Dados n sucesos S1, S2, . . . , Sn, la operación intersección de ellos ( n⋂ i=1 Si ) es otro suceso constituido por los elementos comunes a los sucesos S1, S2, . . . , Sn. Es decir, un suceso que aparece cuando tiene lugar S1 y S2 y · · · y Sn. Cuando n sucesos no tienen ningún elemento común, su intersección es igual al suceso vaćıo ( n⋂ i=1 Si = ∅ ) , y se dice que los sucesos son disjuntos o incompatibles. Como caso particular, n sucesos son disjuntos dos a dos si Si ∩ Sj = ∅ ∀i 6= j. Si n sucesos son disjuntos dos a dos y la unión de todos ellos es el espacio muestral,( n⋃ i=1 Si = E ) , se dice que los sucesos Si forman una partición del espacio muestral E. La definición de partición se puede ampliar a un conjunto numerable de sucesos disjuntos dos a dos y tales que ∞⋃ i=1 Si = E. 3.3.3. Propiedades de la unión y la intersección • Conmutativa S1 ∪ S2 = S2 ∪ S1 S1 ∩ S2 = S2 ∩ S1 • Asociativa S1 ∪ (S2 ∪ S3) = (S1 ∪ S2) ∪ S3 S1 ∩ (S2 ∩ S3) = (S1 ∩ S2) ∩ S3 • Distributiva S1 ∪ (S2 ∩ S3) = (S1 ∪ S2) ∩ (S1 ∪ S3) S1 ∩ (S2 ∪ S3) = (S1 ∩ S2) ∪ (S1 ∩ S3) 22 Estad́ıstica 3.3.4. Diferencia de sucesos Dados dos sucesos S1 y S2, la operación diferencia (S1 − S2) es el suceso integrado por los elementos de S1 que no pertenecen a S2. Es decir, el suceso que tiene lugar cuando sucede S1 y no sucede S2. La operación diferencia no goza de la propiedad conmutativa, pues, en general, S1 − S2 6= S2 − S1. 3.3.5. Suceso complementario El complementario de un suceso S, que notaremos por S̄, es la diferencia entre el espacio muestral, E, y el suceso S, es decir S̄ = E − S. Es el suceso compuesto por los elementos de E que no pertenecen a S. Se comprueba fácilmente que S ∪ S̄ = E, S ∩ S̄ = ∅ y ¯̄S = S • Leyes de De Morgan ( n⋃ i=1 Si ) = n⋂ i=1 S̄i ( n⋂ i=1 Si ) = n⋃ i=1 S̄i 4 Teoŕıa de la probabilidad Índice 4.1. Concepto de probabilidad . . . . . . . . . . . . . . . . . . . . . 24 4.1.1. Probabilidad clásica . . . . . . . . . . . . . . . . . . . . . . . . 24 4.1.2. Probabilidad frecuentista . . . . . . . . . . . . . . . . . . . . . 24 4.1.3. Axiomática del cálculo de probabilidades . . . . . . . . . . . . 26 4.1.3.1. Álgebra de sucesos . . . . . . . . . . . . . . . . . . . . 26 4.1.4. Axiomática de Kolmogorov . . . . . . . . . . . . . . . . . . . . 28 4.2. Teoremas del cálculo de probabilidades . . . . . . . . . . . . . 29 4.3. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . 31 4.3.1. Regla de la multiplicación . . . . . . . . . . . . . . . . . . . . . 32 4.3.2. Teorema de la probabilidad total . . . . . . . . . . . . . . . . . 33 4.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.4. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . 34 23 24 Estad́ıstica 4.1. Concepto de probabilidad 4.1.1. Probabilidad clásica Laplace define la probabilidad de un suceso como el cociente entre el número de casos favorables y el número de casos posibles, siempre que todos sean igualmente posibles. De la definición clásica de probabilidad se desprenden una serie de propiedades (S denota cualquier suceso ya sea compuesto o elemental): • P (S) ≥ 0 • P (S) ≤ 1 • Si tenemos dos sucesos disjuntos S1 y S2, y su unión es S = S1 ∪ S2, entonces P (S) = P (S1 ∪ S2) = P (S1) + P (S2) • Si S̄ es el suceso complementario de S, entonces P (S̄) = 1− P (S) La probabilidad clásica supone que el número de casos posibles sea finito. 4.1.2. Probabilidad frecuentista Esta teoŕıa se basa en dos aspectos fundamentales : – La estabilidadde las frecuencias o regularidad estad́ıstica : En un experimento aleatorio, a pesar del comportamiento irregular de los resultados individuales, los resultados promedios, en largas sucesiones de experimentos aleatorios, muestran una sorprendente regularidad. – La objetividad de la probabilidad La probabilidad es una propiedad f́ısica de los objetos como la densidad, la temperatura, etc, y por tanto, medible. 4 Teoŕıa de la probabilidad 25 Si realizamos un experimento N veces, el número de veces, n, que ocurre un suceso particular, S, es su frecuencia absoluta, mientras que la frecuencia relativa se define como f(S) = n/N . Aśı, la teoŕıa frecuentista define la probabilidad del suceso S como el ĺımite P (S) = ĺım N→∞ f(S) = ĺım N→∞ n N Las frecuencias relativas verifican una serie de propiedades fácilmente demostrables: • 0 ≤ f(S) ≤ 1 • Sean S1, S2, . . . , Sn sucesos disjuntos dos a dos y S = n⋃ i=1 Si, entonces f(S) = n N = 1 N n∑ i=1 ni = n∑ i=1 ni N = n∑ i=1 f(Si) Por todo ello, al identificar la probabilidad de un suceso con el valor tomado en el ĺımite por la frecuencia relativa, se admite que 0 ≤ P (S) ≤ 1 y P (S) = n∑ i=1 P (Si) Para poder definir la probabilidad frecuentista, debemos imponer dos condiciones 1. En la secuencia de observaciones, existe el ĺımite de las frecuencias relativas (prin- cipio de existencia del ĺımite). 2. Considerada aleatoriamente cualquier subsecuencia dentro del colectivo, existe en ella el ĺımite de la frecuencia relativa y es igual al obtenido en todo el colectivo (principio de aleatoriedad). Al igual que la teoŕıa clásica, esta teoŕıa también tiene sus inconvenientes : – Del principio de existencia del ĺımite se deduce que esta teoŕıa de la probabilidad no puede aplicarse a sucesos que no puedan repetirse. – Es necesario realizar el experimento para obtener la frecuencia relativa corres- pondiente al suceso en cuestión. – Habŕıa que realizar el experimento infinitas veces para calcular el ĺımite, pues las reglas del cálculo de ĺımites sólo son aplicables a sucesiones no aleatorias, donde se supone que existe un término general. 26 Estad́ıstica 4.1.3. Axiomática del cálculo de probabilidades Las limitaciones de las teoŕıas clásica y frecuentista de la probabilidad hacen im- posible la formalización matemática de la asignación de un modelo matemático a la pro- babilidad, consiguiéndose éste con el planteamiento axiomático de Kolmogorov (1933), al poner en relación la teoŕıa de la probabilidad con la de conjuntos y con la teoŕıa de la medida. El planteamiento de Kolmogorov presenta la limitación de no proporcionar un méto- do práctico de obtención de probabilidades de sucesos en el mundo real. Para salvar esta importante limitación, Kolmogorov establece la conexión del modelo matemático con el mundo real recurriendo a la base emṕırica de la teoŕıa frecuentista, al considerar que si un experimento aleatorio se repite gran número de veces, la frecuencia relativa de un suceso diferirá ligeramente de la probabilidad del suceso. 4.1.3.1. Álgebra de sucesos En el experimento del dado, el espacio muestral es el conjunto E = {1, 2, 3, 4, 5, 6}, pudiendo plantearse preguntas como : ¿qué probabilidad hay de obtener el número 5 en una tirada? En la pregunta, el suceso es 5, uno de los sucesos elementales constitutivos del espacio muestral E. Sin embargo, existen otras muchas preguntas en las que se formulan sucesos compuestos, como la obtención de : {número par}, {número distinto de 5}, etc. Todos estos sucesos compuestos tienen un denominador común : no figuran expĺıcitamente en el espacio muestral E, aunque proceden de los elementos constitutivos de él. Esto tiene como consecuencia que el número de sucesos que pueden plantearse en un experimento aleatorio es superior al de sucesos elementales integrantes de E, y son generados desde E mediante las operaciones de unión, intersección y complementariedad, constituyendo todos ellos un nuevo conjunto denominado álgebra. Lo anterior puede formalizarse de la siguiente manera : sea E el espacio muestral in- tegrado por sucesos elementales. Sea A una colección de subconjuntos de E, cumpliéndose las siguientes condiciones : 1. El espacio muestral, E, pertenece a A. 2. Si un suceso S pertenece a A, también pertenece su complementario S̄. Como consecuencia, el conjunto vaćıo, ∅, pertenece a A. 4 Teoŕıa de la probabilidad 27 3. Si S1 y S2 son dos subconjuntos de A, su unión, S1 ∪ S2, pertenece a A; y por tanto también su intersección, S1 ∩ S2. La colección de sucesos que cumple las tres condiciones se denomina álgebra de Boole, siendo extensible a cualquier número finito de sucesos, sin más que reiterar las operaciones de unión e intersección. Si en vez de tener n sucesos tenemos una sucesión numerable, S1, S2, . . . , Sn, . . . , pertenecientes a A, entonces ∞⋃ i=1 Si y ∞⋂ i=1 Si también pertenecen a A, la colección recibe el nombre de σ-álgebra, que representaremos por Ω. El par (E,Ω) recibe el nombre de espacio probabilizable o medible. Mediante dos ejemplos podremos apreciar con claridad la formación de una σ-álgebra de sucesos, Ω, a partir de los elementos de un espacio muestral, E. En el primer caso tenemos el espacio muestral E = {1, 2, 3} y como σ-álgebra Ω, la σ-álgebra completa que puede generarse desde él : E −−−−−−−−−−−→ Ω 1 2 3 −→ {ningún elemento}={∅} {1} {2} {3} {no obtener el 1}={{2} ∪ {3}} {no obtener el 2}={{1} ∪ {3}} {no obtener el 3}={{1} ∪ {2}} {cualquier elemento}={E} En el segundo ejemplo hemos elegido como σ-álgebra Ω de interés el número de caras resultante de lanzar una moneda dos veces : E −−−−−−−−−−−→ Ω c c c+ + c ++ −→ {ningún elemento}={∅} {2 caras}={c c} {como mı́nimo una cara}={{c c} ∪ {c+} ∪ {+ c}} {como máximo una cara}={{c+} ∪ {+ c} ∪ {++}} {1 cara}={{c+} ∪ {+ c}} {no obtener una cara}={{c c} ∪ {++}} {0 caras}={++} {cualquier elemento}={E} 28 Estad́ıstica 4.1.4. Axiomática de Kolmogorov El sistema axiomático de Kolmogorov consta de tres axiomas : A1. Si S es un suceso de una σ-álgebra, Ω, existe un número P (S) ≥ 0, denominado probabilidad del suceso S A2. P (E) = 1 A3. Dada una sucesión numerable de sucesos S1, S2, . . . , Sn, . . ., disjuntos dos a dos, se verifica que P ( ∞⋃ i=1 Si) = ∞∑ i=1 P (Si) La tripleta (E,Ω, P ) se conoce como espacio probabiĺıstico. Ampliamos el doble ejemplo de espacio probabilizable (E,Ω) para disponer del es- pacio probabiĺıstico (E,Ω, P ). En el primer caso, suponemos que P (1) = 3/12, P (2) = 4/12 y P (3)=5/12 E −−−−−−−−−−−→ Ω −−−−−−−−→ P 1 2 3 −→ {ningún elemento}={∅} {1} {2} {3} {no obtener el 1}={{2} ∪ {3}} {no obtener el 2}={{1} ∪ {3}} {no obtener el 3}={{1} ∪ {2}} {cualquier elemento}={E} −→ −→ −→ −→ −→ −→ −→ −→ 0 3/12 4/12 5/12 9/12 8/12 7/12 1 4 Teoŕıa de la probabilidad 29 En el segundo ejemplo, se supone que P (c c) = P (c+) = P (+ c) = P (++) = 1/4 E −−−−−−−−−−−−−−−−−−→ Ω −−−−−−−−−−−−−−−−−→ P c c c+ + c ++ −→ {ningún elemento}={∅} {2 caras}={c c} {como mı́nimo una cara}={{c c} ∪ {c+} ∪ {+ c}} {como máximo una cara}={{c+} ∪ {+ c} ∪ {++}} {1 cara}={{c+} ∪ {+ c}} {no obtener una cara}={{c c} ∪ {++}} {0 caras}={++} {cualquier elemento}={E} −→ −→ −→ −→ −→ −→ −→ −→ 0 1/4 3/4 3/4 2/4 2/4 1/4 1 4.2. Teoremas del cálculo de probabilidades TEOREMA 1. La probabilidad del suceso imposible es cero : P (∅) = 0 Sea una sucesión de sucesos disjuntos dos a dos S1, . . . , Sn, . . . , todos ellos iguales al suceso imposible (Si = ∅). Según el tercer Axioma P ( ∞⋃ i=1 Si ) = ∞∑ i=1 P (Si), es decir P (∅) = ∞∑ i=1 P (∅), y por el Axioma 1, debe ser P (∅) = 0 TEOREMA 2. La probabilidad de la unión de n sucesos disjuntos dos a dos, S1, . . . , Sn, es igual a la suma de las probabilidades : P ( n⋃ i=1 Si ) = n∑ i=1 P (Si) Consideremos la sucesión numerable S1, . . . , Sn, Sn+1, Sn+2, . . ., siendo los sucesos Sn+1 = ∅, Sn+2 = ∅, . . . Según el tercer Axioma P ( ∞⋃ i=1 Si ) = ∞∑ i=1 P (Si) es decir, P ( ∞⋃ i=1 Si ) = P [( n⋃ i=1 Si ) ∪ ( ∞⋃ i=n+1 Si )] = P [( n⋃ i=1 Si )] = ∞∑ i=1 P (Si) = n∑ i=1 P (Si) TEOREMA 3. La probabilidad de la unión de dos sucesos cualesquiera, S1 y S2 viene dada por P (S1 ∪ S2) = P (S1) + P (S2)− P (S1 ∩ S2) Descomponemos los sucesos S1 ∪ S2, S1 y S2 en uniones de sucesos disjuntos : 30 Estad́ıstica S1 ∪ S2 = (S1 ∩ S̄2) ∪ (S̄1 ∩ S2) ∪ (S1 ∩ S2) S1 = (S1 ∩ S̄2) ∪ (S1 ∩ S2) S2 = (S̄1 ∩ S2) ∪ (S1 ∩ S2) por el teorema 2, P (S1 ∪ S2) = P (S1 ∩ S̄2) + P (S̄1 ∩ S2) + P (S1 ∩ S2) P (S1) = P (S1 ∩ S̄2) + P (S1 ∩ S2) P (S2) = P (S̄1 ∩ S2) + P (S1 ∩ S2) por tanto, P (S1 ∪ S2) = P (S1) + P (S2)− P (S1 ∩ S2) Para n sucesos : P ( n⋃ i=1 Si ) = n∑ i=1 P (Si) − n∑ i<j P (Si ∩ Sj) + n∑ i<j<k P (Si ∩ Sj ∩ Sk) + + · · ·+ (−1)n+1P (S1 ∩ S2 ∩ · · · ∩ Sn) TEOREMA 4. Si un suceso S1 está contenido en otro S, (S1 ⊂ S), se verifica que P (S1) ≤ P (S) Descomponemos el suceso S en la unión de dos sucesos disjuntos S = (S1 ∩ S) ∪ (S̄1 ∩ S) por el teorema 2, P (S) = P (S1 ∩ S) + P (S̄1 ∩ S) Por el Axioma 1, P (S̄1 ∩ S) ≥ 0, por tanto P (S) ≥ P (S1 ∩ S), pero S1 ∩ S = S1, con lo que P (S1) ≤ P (S) TEOREMA 5. La probabilidad de cualquier suceso es menor o igual que la unidad : P (S) ≤ 1 Todo suceso, S, está contenido en el suceso seguro (S ⊂ E), por tanto P (S) ≤ P (E) ≤ 1 TEOREMA 6. La probabilidad del suceso complementario S̄ es P (S̄) = 1− P (S) Siendo S y S̄ disjuntos y tales que S ∪ S̄ = E, se tiene que P (E) = P (S) + P (S̄) = 1 ⇒ P (S̄) = 1− P (S) 4 Teoŕıa de la probabilidad 31 4.3. Probabilidad condicional Consideremos las dos situaciones siguientes : acertar si la puntuación resultante de lanzar un dado perfecto es 2, o acertarla sabiendo que ha salido un número par. No cabe duda que las dos situaciones son distintas en cuanto a nuestra certidumbre de ganar, pues parece más fácil lograrlo en la segunda que en la primera. Este planteamiento conduce a un nuevo tipo de sucesos denominados condicionados, y de aqúı a la probabilidad condicional. En el ejemplo anterior, la probabilidad de obtener un 2 es 1/6. Si sabemos que ha salido un número par, la probabilidad de que sea 2 es 1/3. La diferencia en el valor de la probabilidad se debe a que tenemos más información en el segundo caso. El efecto de la información se centra en el espacio muestral. Si no existe ninguna información, el espacio muestral es E = {1, 2, 3, 4, 5, 6}, y si existe información, el espacio muestral se reduce a E = {2, 4, 6}. En esta situación, el conocimiento del suceso {par} condiciona la probabilidad de obtener el suceso {número 2}, denominando al primero condicionante y al segundo condicionado, y designándolo por {número 2/par}. Establecida la existencia de los sucesos condicionados, pasamos a su estudio. Dados dos sucesos S1 y S, el suceso S1 está condicionado por el suceso S si la proba- bilidad de que suceda S1 depende de que haya sucedido S, y la probabilidad condicional se define como P (S1/S) = P (S1 ∩ S) P (S) siempre que P (S) > 0. Hemos visto que la consecuencia de disponer de la información proporcionada por el conocimiento de la presencia del suceso S, radica en la modificación del espacio muestral E, dando lugar a un nuevo espacio muestral ES = E ∩S. Este espacio muestral genera, a su vez, una nueva σ-álgebra ΩS = Ω ∩ S y teniendo, por último, una nueva probabilidad sobre ΩS , que denominaremos PS y que ya hemos definido como PS(S1) = P (S1/S). El espacio probabiĺıstico resultante es (S,ΩS , PS), siempre que P (S) > 0. Para concluir que PS es realmente una probabilidad, debemos comprobar que verifica los tres axiomas de Kolmogorov. 1 PS(S1) ≥ 0 Según la definición de probabilidad condicional, PS(S1) = P (S1/S) = P (S1 ∩ S) P (S) y por el Axioma 1, P (S1 ∩ S) ≥ 0 y P (S) > 0, por tanto, PS(S1) ≥ 0 32 Estad́ıstica 2 PS(ES) = 1 PS(ES) = P (ES/S) = P (ES ∩ S) P (S) = P (S) P (S) = 1 3 PS ( ∞⋃ i=1 Si ) = ∞∑ i=1 PS(Si) siendo los Si disjuntos dos a dos Por la propiedad distributiva, ( ∞⋃ i=1 Si ) ∩ S = ∞⋃ i=1 (Si ∩ S) por tanto, PS ( ∞⋃ i=1 Si ) = P ( ∞⋃ i=1 Si/S ) = P [( ∞⋃ i=1 Si ) ∩ S ] P (S) = P [∞⋃ i=1 (Si ∩ S) ] P (S) = = ∞∑ i=1 P (Si ∩ S) P (S) = ∞∑ i=1 P (Si ∩ S) P (S) = ∞∑ i=1 P (Si/S) = ∞∑ i=1 PS(Si) La definición de probabilidad condicional se extiende fácilmente a más de dos suce- sos. Por ejemplo, para tres sucesos S1, S2 y S3, tenemos P (S1/S2 ∩ S3) = P (S1 ∩ S2 ∩ S3) P (S2 ∩ S3) P (S1 ∩ S2/S3) = P (S1 ∩ S2 ∩ S3) P (S3) 4.3.1. Regla de la multiplicación Dados n sucesos, S1, . . . , Sn, se verifica P ( n⋂ i=1 Si ) = P (S1)P (S2/S1)P (S3/S1 ∩ S2) · · ·P (Sn/S1 ∩ S2 ∩ · · · ∩ Sn−1) Demostramos este teorema por inducción. Comenzamos con dos sucesos S1 y S2 P (S2/S1) = P (S1 ∩ S2) P (S1) ⇒ P (S1 ∩ S2) = P (S1)P (S2/S1) Pasamos a tres sucesos S1, S2 y S3 P (S3/S1 ∩ S2) = P (S1 ∩ S2 ∩ S3) P (S1 ∩ S2) = P (S1 ∩ S2 ∩ S3) P (S1)P (S2/S1) ⇒ 4 Teoŕıa de la probabilidad 33 P (S1 ∩ S2 ∩ S3) = P (S1)P (S2/S1)P (S3/S1 ∩ S2) y aśı sucesivamente 4.3.2. Teorema de la probabilidad total Dados un suceso A y n sucesos, S1, . . . , Sn, disjuntos dos a dos, Si ∩ Sj = ∅, tales que n⋃ i=1 Si = E, y A ∩ Si 6= ∅ ∀i, se verifica P (A) = n∑ i=1 P (A/Si)P (Si) Para la demostración de este teorema, descomponemos el suceso A de la siguiente forma A = A ∩ E = A ∩ ( n⋃ i=1 Si ) = n⋃ i=1 (A ∩ Si) Tomando probabilidades, y teniendo en cuenta que los sucesos {A∩Si} son disjuntos dos a dos, P (A) = P [ n⋃ i=1 (A ∩ Si) ] = n∑ i=1 P (A ∩ Si) = n∑ i=1 P (A/Si)P (Si) 4.3.3. Teorema de Bayes Dados un suceso A y n sucesos, S1, . . . , Sn, disjuntos dos a dos, Si ∩ Sj = ∅, tales que n⋃ i=1 Si = E, y A ∩ Si 6= ∅ ∀i, se verifica P (Si/A) = P (A/Si)P (Si) n∑ i=1 P (A/Si)P (Si) Por la definición de probabilidad condicional P (A/Si) = P (A ∩ Si) P (Si) P (Si/A) = P (A ∩ Si) P (A) Por tanto, P (A ∩ Si) = P (Si/A)P (A) = P (A/Si)P (Si) ⇒ P (Si/A) = P (A/Si)P (Si) P (A) 34 Estad́ıstica y, del teorema de la probabilidad total resulta P (Si/A) = P (A/Si)P (Si) n∑ i=1 P (A/Si)P (Si) 4.4. Independencia de sucesos Consideremos el siguiente ejemplo. Una urna contiene 8 bolas blancas y 4 bolas negras. Se extraen consecutivamente dos bolas, y queremos determinar la probabilidad de que la segunda bola sea blanca. Para calcular esta probabilidad, debemos diferenciar los dos tipos de extracción, con o sin reemplazamiento. Cuando realizamos la extracción sin reemplazamiento, la probabilidad buscada es- tará condicionada por el color de la primera bola. Es decir, si la primera bola sacada es blanca, la probabilidad de que la segunda también lo sea es 7/11, mientras que si la primera bola es negra, la probabilidad de que la segunda sea blanca es 8/11. Si realizamos la extracción con reemplazamiento, la probabilidad de que la segunda bola sea blanca es 8/12, sea cual sea el color de la primera bola sacada. En el primer caso, el color de la segunda bola está condicionado por el color de la primera bola (sucesos condicionados), mientras que en la extracción con reemplazamien- to, el color de la segunda bola es independiente del color de la primera bola (sucesos independientes). Dos sucesos, S1 y S2, son independientes si P (S1 ∩ S2) = P (S1)P (S2) es decir, cuando P (S1/S2) = P (S1) y P (S2/S1) = P (S2) En el caso de tres sucesos, S1, S2, S3, para que sean independientes, han de cumplirse las cuatro condiciones siguientes P (S1 ∩ S2) = P (S1)P (S2) P (S1 ∩ S3) = P (S1)P (S3) P (S2 ∩ S3) = P (S2)P (S3) P (S1 ∩ S2 ∩ S3) = P (S1)P (S2)P (S3) El cumplimiento de las tres primeras condiciones no implica el de la cuarta. Los sucesos que cumplen sólo las tres primeras condiciones reciben el nombre de sucesos independientes dos a dos. 4 Teoŕıa de la probabilidad 35 Propiedad.Si S1 y S2 son dos sucesos independientes. Entonces, S1 y S̄2 son independientes (⇒ S̄1 y S̄2 son independientes) Descomponemos el suceso S1 en unión de dos sucesos disjuntos, S1 = (S1 ∩ S̄2) ∪ (S1 ∩ S2) entonces P (S1) = P (S1 ∩ S̄2) + P (S1 ∩ S2) = P (S1 ∩ S̄2) + P (S1)P (S2) ⇒ P (S1 ∩ S̄2) = P (S1)− P (S1)P (S2) = P (S1)[1− P (S2)] = P (S1)P (S̄2) 36 Estad́ıstica 5 Variable aleatoria unidimensional Índice 5.1. Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5.1.1. Definición matemática . . . . . . . . . . . . . . . . . . . . . . . 38 5.1.2. Definición intuitiva . . . . . . . . . . . . . . . . . . . . . . . . . 39 5.2. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 40 5.2.1. Función de probabilidad . . . . . . . . . . . . . . . . . . . . . . 40 5.2.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . 41 5.3. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . 42 5.3.1. Función de distribución y función de densidad . . . . . . . . . . 42 5.4. Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . 44 5.5. Transformaciones de variables aleatorias . . . . . . . . . . . . 46 5.5.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 46 5.5.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . 48 5.5.3. Transformación integral . . . . . . . . . . . . . . . . . . . . . . 49 5.6. Distribuciones truncadas . . . . . . . . . . . . . . . . . . . . . . 50 37 38 Estad́ıstica 5.1. Variable aleatoria 5.1.1. Definición matemática Dado un espacio probabiĺıstico, (E,Ω, P ), pretendemos asignar un número a cada uno de los sucesos elementales, Ai, del espacio muestral. Es decir, creamos una función X , llamada variable aleatoria, definida en E, que toma valores en R, con la condición de que X−1(b) = {Ai ∈ E/X(Ai) ∈ b} ∈ Ω siendo b = (x, y) ó [x, y] ó (x, y] ó [x, y) ó [x, x] con −∞ ≤ x, y ≤ +∞ es decir, b es un subconjunto de la σ-álgebra completa de R, llamada σ-álgebra de Borel. Veamos un par de ejemplos. Consideremos el experimento de lanzar una moneda dos veces. Entonces E = {{c, c}, {c, +}, {+, c}, {+, +}} = {A1, A2, A3, A4} Ω = {∅, A1, A4, A2 ∪ A3, A1 ∪ A2 ∪ A3, A4 ∪A2 ∪ A3, A1 ∪A4, E} = {S1, . . . , S8} Y : E −→ R A1 −→ 2 A2 −→ 1 A3 −→ 5 A4 −→ 0 X : E −→ R A1 −→ 2 A2 −→ 1 A3 −→ 1 A4 −→ 0 En el primer caso, Y −1 ((4, 5]) = {Ai ∈ E/4 < Y (Ai) ≤ 5} = A3 ∈/ Ω por tanto, Y no es una variable aleatoria de este espacio probabiĺıstico (E,Ω, P ). En cambio, si consideramos la σ−álgebra completa, Y śı es una variable aleatoria para este nuevo espacio probabiĺıstico. En el segundo caso, es fácil comprobar que X−1(b) = {Ai ∈ E/X(Ai) ∈ b} ∈ Ω ∀ b ∈ B El hecho de que X sea una v.a. de (E,Ω, P ) está directamente relacionado con la intención con la que se creó el σ−álgebra Ω. Al tomar como sucesos que definen Ω los sucesos A1, A4 y A2 ∪A3, estamos diciendo que lo que nos interesa del experimento es el número de caras, lo que está de acuerdo con la filosof́ıa de X . Si el número de valores que toma la variable aleatoria es finito o infinito numerable, se dice que es una variable aleatoria discreta. Si toma un número infinito no numerable 5 Variable aleatoria unidimensional 39 de valores se dice que es continua. Además, una v.a. puede ser discreta en un conjunto numerable de puntos y continua en el resto. En este caso, se dice que es mixta. 5.1.2. Definición intuitiva Una variable aleatoria es una regla que asigna a cada suceso un número real. Se puede interpretar, por tanto, como una función que toma valores en el espacio muestral E y devuelve números reales. El uso de variables aleatorias permite, como veremos, cambiar el álgebra de sucesos por el cálculo con números reales, facilitando enormemente el manejo de probabilidades asociadas a experimentos aleatorios. Al definir una variable aleatoria cada suceso se convierte en un subconjunto de la recta real (en general un intervalo o un punto). En este sentido, uno de los conceptos fundamentales es el de sucesos generados por variables aleatorias. Supongamos un ex- perimento aleatorio con espacio muestral E. Si asignamos a cada suceso elemental un número real (en principio de manera arbitraria) hemos definido una variable aleatoria X . Manejaremos la notación {X ≤ x} ≡ conjunto unión de todos los sucesos de E a los que X asigna un número menor o igual que x. De la misma manera se pueden definir los conjuntos {x1 < X ≤ x2} ó {x1 ≤ X ≤ x2} ó {X ≥ x} ó {X = x}. Obsérvese que en cada caso hemos convertido un determinado suceso (puesto que cualquier unión de sucesos elementales lo es) en un intervalo o punto de la recta real. P ({X ≤ x}) será entonces la probabilidad de que ocurra el suceso definido por {X ≤ x}. Abusando de la notación prescindiremos en lo sucesivo de las llaves y escribiremos P (X ≤ x). Consideremos por ejemplo el experimento de lanzar un dado. El espacio muestral está formado por seis sucesos elementales E = {Si}i=1,...,6 donde Si ≡ valor obtenido en la tirada es i. Podemos definir una variable aleatoria X asignando al suceso Si el número 10i. Aśı: • {X ≤ 35} = S1 ⋃ S2 ⋃ S3. El suceso representado es que salga 1, 2 ó 3. • {20 ≤ X ≤ 35} = S2 ⋃ S3. El suceso representado es que salga 2 ó 3. • {20 < X ≤ 35} = S2 ⋃ S3. El suceso representado es que salga 3. • {X ≤ 5} = ∅. Suceso imposible. 40 Estad́ıstica • {X = 40} = S4. El suceso representado es que salga un 4. • {X = 35} = ∅. Suceso imposible. Las probabilidades asociadas serán: P (X ≤ 35) = 1/2, P (20 ≤ X ≤ 35) = 1/3, P (20 < X ≤ 35) = 1/6, P (X = 5) = 0, P (X = 40) = 1/6, P (X = 35) = 0. Para el mismo experimento podŕıamos haber definido una variable asignando 0 a los sucesos S2, S4 y S6 y 1 a S1, S3 y S5. Parece claro que ésta última variable resultará útil si sólo nos interesa que el resultado del experimento haya sido la obtención de un número par o uno impar. 5.2. Variable aleatoria discreta 5.2.1. Función de probabilidad Una vez que hemos definido una variable aleatoria, X , podemos definir una función, llamada función de probabilidad asociada a X , de la siguiente forma f : R −→ [0, 1] x −→ f(x) = P (X = x) En particular, refiriéndonos al ejemplo de las dos monedas, tenemos f : R −→ [0, 1] 2 −→ f(2) = P (X = 2) = P (A1) = 1/4 1 −→ f(1) = P (X = 1) = P (A2 ∪A3) = 1/2 0 −→ f(0) = P (X = 0) = P (A4) = 1/4 En general, para que una función, f , sea la función de probabilidad asociada a una variable aleatoria X , debe cumplir : i) f(x) ≥ 0 ∀ x ∈ R ii) ∑ x f(x) = 1 donde la suma en x en la segunda condición se realiza sobre todos los posibles valores que puede tomar la variable aleatoria. 5 Variable aleatoria unidimensional 41 5.2.2. Función de distribución Dada una v.a. discreta, X , se llama función de distribución a la función F definida como F : R −→ [0, 1] x −→ F (x) = P (X ≤ x) Veamos algunas propiedades de la función de distribución. 1 F (−∞) = 0 F (−∞) = ĺım x→−∞ F (x) = ĺım x→−∞ P (X ≤ x) = P (∅) = 0 2 F (+∞) = 1 F (+∞) = ĺım x→+∞ F (x) = ĺım x→+∞ P (X ≤ x) = P (E) = 1 3 P (x1 < X ≤ x2) = F (x2)− F (x1) Consideremos los sucesos A = {X ≤ x2} B = {X ≤ x1} C = {x1 < X ≤ x2} como A = B ∪ C, siendo B ∩ C = ∅, tenemos P (A) = P (B) + P (C) =⇒ F (x2) = F (x1) + P (x1 < X ≤ x2) es decir, P (x1 < X ≤ x2) = F (x2)− F (x1) De forma análoga se demuestra : P (x1 ≤ X ≤ x2) = F (x2)− F (x1) + P (X = x1) P (x1 < X < x2) = F (x2)− F (x1)− P (X = x2) P (x1 ≤ X < x2) = F (x2)− F (x1) + P (X = x1)− P (X = x2) 4 F es monótona creciente Sean x1 < x2, por la propiedad anterior, F (x2) = F (x1) + P (x1 < X ≤ x2) ≥ F (x1) 5 F es continua por la derecha Tenemos que comprobar que, dado ε > 0, se cumple ĺım ε→0 (F (x+ ε)− F (x)) = 0 42 Estad́ıstica pero ĺım ε→0 (F (x+ ε)− F (x)) = ĺım ε→0 P (x < X ≤ x+ ε) = P (∅) = 0 Si calculamos el ĺımite por la izquierda, ĺımε→0 (F (x)− F (x− ε)) = ĺım ε→0 P (x− ε < X ≤ x) = P (X = x) y, esta probabilidad puede ser cero o no. Por tanto, la función de distribución, en general, no es continua por la izquierda. De hecho, F (x)− F (x−) = ĺım ε→0 (F (x)− F (x− ε)) = P (X = x) es decir, la probabilidad de que la v.a. discreta X tome un valor concreto es igual al salto de la función de distribución en ese punto. Ejemplo.- Sea X una v.a. discreta con función de probabilidad xi 1 2 3 4 P (X = xi) 0.1 0.4 0.2 0.3 La función de distribución asociada es F (x) = 0 x < 1 0.1 1 ≤ x < 2 0.5 2 ≤ x < 3 0.7 3 ≤ x < 4 1 x ≥ 4 - 6 x F (x) r r r r 1 2 3 4 0.1 0.5 0.7 1 5.3. Variable aleatoria continua 5.3.1. Función de distribución y función de densidad Dada una v.a. continua, X , se llama función de distribución a la función absoluta- mente continua, F , definida como F : R −→ [0, 1] x −→ F (x) = P (X ≤ x) 5 Variable aleatoria unidimensional 43 Decimos que F es absolutamente continua, si existe una función f : R −→ R, no negativa e integrable Lebesgue tal que F (x) = ∫ x −∞ f(t) dt ∀x ∈ R La función f se llama función de densidad. En general, una función f es función de densidad si verifica i) f(x) ≥ 0 ∀x ∈ R ii) ∫ ∞ −∞ f(x) dx = 1 Veamos algunas propiedades de la función de distribución. 1 F (−∞) = 0 y F (∞) = 1 2 F es monótona creciente 3 F es continua en R ĺım ε→0 (F (x+ ε)− F (x)) = ĺım ε→0 (∫ x+ε −∞ f(t) dt− ∫ x −∞ f(t) dt ) = ĺım ε→0 ∫ x+ε x f(t) dt Por ser f integrable en [x, x+ ε], ∃µ ∈ [inf f, sup f ] tal que ∫ x+ε x f(t) dt = µ ε (Primer Teorema de la Media). Por tanto, ĺım ε→0 (F (x+ ε)− F (x)) = ĺım ε→0 (µ ε) = 0 La continuidad por la izquierda se demuestra de forma análoga. Por ser F continua, se cumple P (X = x) = F (x)− F (x−) = 0 ∀x ∈ R por tanto P (x1 < X ≤ x2) = P (x1 < X < x2) = P (x1 ≤ X ≤ x2) = P (x1 ≤ X < x2) = = F (x2)− F (x1) Como consecuencia de esta propiedad, al ser la función de distribución continua en R, no tiene discontinuidades (saltos), por tanto la probabilidad de que la v.a. continua X tome un valor concreto es cero (P (X = x) = 0). 4 Si f es continua, entonces F es de clase C1 y F ′(x) = f(x) ∀x ∈ R F ′(x) = ĺım ε→0 F (x+ ε)− F (x) ε = ĺım ε→0 1 ε ∫ x+ε x f(t) dt 44 Estad́ıstica Por ser f continua en [x, x+ ε], ∃x0 ∈ [x, x+ ε] tal que ∫ x+ε x f(t) dt = f(x0) ε (Primer Teorema de la Media). Por tanto, F ′(x) = ĺım ε→0 F (x+ ε)− F (x) ε = ĺım ε→0 1 ε f(x0) ε = f(x0) Como x0 ∈ [x, x + ε] ∀ε ⇒ x0 = x. La derivabilidad por la izquierda se demuestra de forma análoga. Ejemplo.- Sea X una v.a. continua con función de densidad f(x) = 3 2 x2 x ∈ [−1, 1] 0 resto La función de distribución asociada es • Si x < −1 F (x) = ∫ x −∞ f(t) dt = ∫ x −∞ 0 dt = 0 • Si −1 ≤ x < 1 F (x) = ∫ x −∞ f(t) dt = ∫ −1 −∞ 0 dt+ ∫ x −1 3 2 t2 dt = 1 2 [x3 + 1] • Si x ≥ 1 F (x) = ∫ x −∞ f(t) dt = ∫ −1 −∞ 0 dt+ ∫ 1 −1 3 2 t2 dt+ ∫ x 1 0 dt = 1 F (x) = 0 x < −1 1 2 [x3 + 1] −1 ≤ x < 1 1 x ≥ 1 - 6 x F (x) -1 1 1 5.4. Variable aleatoria mixta Una v.a. mixta viene caracterizada por su función de distribución, definida de igual forma que en los casos anteriores, que es continua por la derecha, con un número de discontinuidades a lo sumo numerable, pero que no es escalonada. Es decir, en algunos puntos es discreta (puntos de discontinuidad) y en el resto es continua. Por ejemplo, la v.a. X con función de distribución 5 Variable aleatoria unidimensional 45 F (x) = 0 x < −1 (x+ 1)2 + 1/4 −1 ≤ x < −1/2 5/8 −1/2 ≤ x < 1/2 x+ 1/4 1/2 ≤ x < 3/4 1 x ≥ 3/4 - 6 x F (x) � � � r r r -1 -1/2 1/2 3/4 1/4 1/2 3/4 1 Para esta v.a. se cumple 1 P (X = −1) = F (−1+)− F (−1−) = 1/4− 0 = 1/4 P (X = −1/2) = F (−1/2+)− F (−1/2−) = 5/8− 1/2 = 1/8 P (X = 1/2) = F (1/2+)− F (1/2−) = 3/4− 5/8 = 1/8 P (X = x) = 0 ∀ x 6= −1,−1/2, 1/2 2 P (X = −1)+ ∫ −1/2 −1 (2x+2) dx+P (X = −1/2)+ ∫ 1/2 −1/2 0 dx+P (X = 1/2)+ ∫ 3/4 1/2 1 dx = 1 46 Estad́ıstica NOTA: Tanto en el caso de variables discretas como continuas o mixtas, el conocimiento de la función de distribución (o la de probabilidad o la de densidad) es toda la información que necesitamos para manejar la v.a. y estudiar el experimento para el que ha sido definida. De hecho estas funciones constituyen la máxima información posible acerca de la variable. 5.5. Transformaciones de variables aleatorias En muchas ocasiones deberemos hacer “operacionesçon variables aleatorias. Dada una variable aleatoria X una función de ella será una nueva variable aleatoria Y = u(X). En esta sección trataremos de calcular la distribución de esta nueva variable. Lo primero que debemos tener en mente es que la “aritmética” de las variables aleatorias no coincide con la de los números reales. Supongamos que lanzamos un dado y definimos la variable aleatoria X cuyo valor asignado al suceso Si ( ≡ el resultado de la tirada es i) es i. X toma seis posibles valores {1, 2, 3, 4, 5, 6} según la cara que haya mostrado el dado. Y1 = 2X es una nueva variable aleatoria que asigna un valor doble al definido anteriormente para cada suceso elemental. Sin embargo Y2 = X +X no tiene la misma interpretación. En este caso el dado es lanzado dos veces, sumándose la puntación obtenida en cada tirada. Los posibles valores de Y1 son {2, 4, 6, 8, 10, 12} mientras que los de Y2 son {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. Para evitar confusiones es conveniente asignar sub́ındices distintos a las variables que representan cada resultado de un determinado experimento que se repite varias veces, aun cuando cada una de ellas esté definida de la misma forma. En el caso de lanzar un dado dos veces podemos considerar la variable X definida anteriormente y obtener los posibles resultados como X1 + X2 donde cada Xi tiene la misma distribución de probabilidad que la X . 5.5.1. Variable aleatoria discreta Sea X una v.a. con función de probabilidad f(x) y función de distribución F (x) e, Y = u(X) otra v.a. con función de probabilidad g(y) y función de distribución G(y). Es decir, tenemos una función que relaciona a x e y, y = u(x) ⇒ x = u−1(y) = w(y). Entonces g(y) = P (Y = y) = P (u(X) = y) = P (X = u−1(y)) = P (X = w(y)) = f [w(y)] G(y) = P (Y ≤ y) = P (u(X) ≤ y) = P (X ≤ u−1(y)) = P (X ≤ w(y)) = F [w(y)] En general el paso de una v.a. a otra es sencilla, sólo hay que tener cuidado cuando la función u no es biyectiva. Veamos un par de ejemplos para aclarar esto último. 5 Variable aleatoria unidimensional 47 Ejemplo.- Sea X una v.a. con función de probabilidad xi -2 -1 0 1 2 P (X = xi) 0.1 0.2 0.2 0.4 0.1 La función de distribución de X es F (x) = 0 x < −2 0.1 −2 ≤ x < −1 0.3 −1 ≤ x < 0 0.5 0 ≤ x < 1 0.9 1 ≤ x < 2 1 x ≥ 2 Sea Y = u(X) = 2X ⇒ y = u(x) = 2x ⇒ x = u−1(y) = w(y) = y/2. Los valores que toma la v.a. Y son y = {−4,−2, 0, 2, 4}. Entonces g(y) = P (Y = y) = P (2X = y) = P (X = y/2) = f(y/2) es decir yi -4 -2 0 2 4 P (Y = yi) 0.1 0.2 0.2 0.4 0.1 Y, la función de distribución de Y es G(y) = P (Y ≤ y) = P (2X ≤ y) = P (X ≤ y/2) = F (y/2) es decir G(y) = 0 y < −4 0.1 −4 ≤ y < −2 0.3 −2 ≤ y < 0 0.5 0 ≤ y < 2 0.9 2 ≤ y < 4 1 y ≥ 4 Sea ahora Y = u(X) = X2. Claramente, la función u no es biyectiva. Tenemos entonces que los valores que toma la v.a. Y son y = {0, 1, 4}, y la función de probabilidad es g(y) = P (Y = y) = P (X2 = y) = P ( (X = −√y ) ∪ (X = +√y ) ) = = P (X = −√y ) + P (X = +√y ) es decir 48 Estad́ıstica yi 0 1 4 P (Y = yi) 0.2 0.6 0.2 Y, la función de distribución de Y es G(y) = P (Y ≤ y) = P (X2 ≤ y) = P (−√y ≤ X ≤ +√y) = = P (X = −√y) + P (−√y < X ≤ +√y) = = f(−√y) + F (+√y)− F (−√y) es decir G(y) = 0 y < 0 0.2 0 ≤ y < 1 0.8 1 ≤ y < 4 1 y ≥ 4 5.5.2. Variable aleatoriacontinua Sea X una v.a. con función de densidad f(x) y función de distribución F (x) e, Y = u(X) otra v.a. con función de densidad g(y) y función de distribución G(y). Es decir, tenemos una función que relaciona a x e y, y = u(x) ⇒ x = u−1(y) = w(y). Entonces G(y) = P (Y ≤ y) = P (u(X) ≤ y) = P (X ≤ u−1(y)) = P (X ≤ w(y)) = F [w(y)] g(y) = G′(y) = F ′[w(y)] |w′(y)| = f [w(y)] |w′(y)| Igual que en el caso de las v.a. discretas, hay que tener cuidado cuando la función u no es biyectiva. Veamos un par de ejemplos para aclarar esto último. Ejemplo.- Sea X una v.a. con funciones de densidad y distribución f(x) = 3 2 x2 −1 ≤ x ≤ 1 0 resto F (x) = 0 x < −1 1 2 [x3 + 1] −1 ≤ x < 1 1 x ≥ 1 Sea Y = u(X) = 2X ⇒ y = u(x) = 2x ⇒ x = u−1(y) = w(y) = y/2. Entonces 5 Variable aleatoria unidimensional 49 G(y) = P (Y ≤ y) = P (2X ≤ y) = P (X ≤ y/2) = F (y/2) g(y) = G′(y) = F ′(y/2)1 2 = f(y/2)1 2 es decir, g(y) = 3 16 y2 −2 ≤ y ≤ 2 0 resto G(y) = 0 y < −2 1 2 [(y/2)3 + 1] −2 ≤ y < 2 1 y ≥ 2 Sea ahora Y = u(X) = X2. Claramente, la función u no es biyectiva. G(y) = P (Y ≤ y) = P (X2 ≤ y) = P (−√y ≤ X ≤ +√y ) = F (+√y )− F (−√y ) g(y) = G′(y) = F ′(+ √ y ) 1 2 √ y − F ′(−√y ) −1 2 √ y = f(+ √ y ) 1 2 √ y + f(−√y ) 1 2 √ y es decir, g(y) = 3 2 √ y 0 ≤ y ≤ 1 0 resto G(y) = 0 y < 0 y √ y 0 ≤ y < 1 1 y ≥ 1 5.5.3. Transformación integral Sea X una v.a. con función de distribución, F , estrictamente creciente. Entonces, la transformación biyectiva Y = F (X) da lugar a una nueva v.a. con funciones de distribución y densidad G(y) = P (Y ≤ y) = P (F (X) ≤ y) = P (X ≤ F−1(y)) = F (F−1(y)) = y g(y) = G′(y) = 1 50 Estad́ıstica Ejemplo.- Sea X una v.a. con funciones de densidad y distribución f(x) = 2 3 x 1 ≤ x ≤ 2 0 resto F (x) = 0 x < 1 1 3 [x2 − 1] 1 ≤ x < 2 1 x ≥ 2 Realizamos la transformación Y = 1 3 [X2 − 1], entonces G(y) = P (Y ≤ y) = P ( 1 3 [X2 − 1] ≤ y ) = P (X2 ≤ 3y + 1) = = P ( −√3y + 1 ≤ X ≤ +√3y + 1 ) = F ( + √ 3y + 1 ) − F ( −√3y + 1 ) = = F ( + √ 3y + 1 ) g(y) = F ′ (√ 3y + 1 ) 3 2 √ 3y+1 = f (√ 3y + 1 ) 3 2 √ 3y+1 = = 2 3 √ 3y + 1 3 2 √ 3y + 1 = 1 es decir, g(y) = { 1 0 ≤ y ≤ 1 0 resto G(y) = 0 y < 0 y 0 ≤ y < 1 1 y ≥ 1 5.6. Distribuciones truncadas En ocasiones, cuando se estudia el comportamiento de una v.a., resulta conveniente restringir su campo de variación a un cierto subconjunto de especial interés, lo que conduce a un tipo de v.a. llamada variable aleatoria truncada. Expresado formalmente, sea X una v.a. cuyo campo de variación es el conjunto E y su función de distribución es F (x); y sea S un subconjunto de E tal que P (X ∈ S) > 0. El problema consiste en calcular la probabilidad de que X ∈ A sabiendo que X ∈ S, siendo A ⊂ S, es decir calcular la probabilidad del suceso condicionado {X ∈ A/X ∈ S}. Para ello, recurrimos a la definición de probabilidad condicional P (X ∈ A/X ∈ S) = P ((X ∈ A) ∩ (X ∈ S)) P (X ∈ S) 5 Variable aleatoria unidimensional 51 En particular, si consideramos el suceso A = {X ≤ x} entonces la probabilidad buscada, P (X ≤ x/X ∈ S), es la función de distribución truncada de la v.a. X en el nuevo campo de variación, S, y la notaremos por FT . Aśı, FT (x) ≡ P (X ≤ x/X ∈ S) = P ((X ≤ x) ∩ (X ∈ S)) P (X ∈ S) Ejemplo.- Sea X una v.a. definida en el intervalo E = [xi, xf ] y con función de distribución F . Dados los sucesos S = {x0 < X ≤ x1} y A = {X ≤ x} (Fig. 5.1), entonces la función de distribución truncada es FT (x) = P (X ∈ A/X ∈ S) = P ((X ∈ A) ∩ (X ∈ S)) P (X ∈ S) = = P ((X ≤ x) ∩ (x0 < X ≤ x1)) P (x0 ≤ X ≤ x1) = P (x0 < X ≤ x) P (x0 < X ≤ x1) = = F (x)− F (x0) F (x1)− F (x0) , x0 < x ≤ x1 • Si X es discreta, la función de probabilidad truncada es PT (X = x) = P (X = x/X ∈ S) = P ((X = x) ∩ (x0 < X ≤ x1)) P (x0 ≤ X ≤ x1) = = P (X = x) F (x1)− F (x0) , x0 < x ≤ x1 • Si X es continua, la función de densidad truncada es fT (x) = F ′ T (x) = f(x) F (x1)− F (x0) , x0 < x ≤ x1 xi x0 x1 xfx E S A Figura 5.1: Esquema para una distribución truncada 52 Estad́ıstica 6 Momentos de una variable aleatoria unidimensional Índice 6.1. Esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . 54 6.2. Momento de orden k de una variable aleatoria . . . . . . . . . 55 6.3. Varianza y desviación t́ıpica . . . . . . . . . . . . . . . . . . . . 56 6.4. Otros valores t́ıpicos . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.5. Coeficientes de asimetŕıa y curtosis . . . . . . . . . . . . . . . 58 6.6. Teorema de Markov. Desigualdad de Chebychev . . . . . . . 60 6.7. Función generatriz de momentos . . . . . . . . . . . . . . . . . 61 6.8. Función caracteŕıstica . . . . . . . . . . . . . . . . . . . . . . . . 62 6.8.1. Cambio de variable en la función caracteŕıstica . . . . . . . . . 64 53 54 Estad́ıstica 6.1. Esperanza matemática Se define la esperanza matemática o media de una v.a. X como µ = E[X ] = ∑ i xi P (X = xi) v.a. discreta µ = E[X ] = ∫ +∞ −∞ xf(x) dx v.a. continua De forma más general, si tenemos una función T (X), E[T (X)] = ∑ i T (xi)P (X = xi) v.a. discreta E[T (X)] = ∫ +∞ −∞ T (x)f(x) dx v.a. continua Si la v.a. es discreta y toma un número finito de valores, entonces su esperanza siempre es finita, pero en el resto de los casos, la esperanza puede no ser finita. Ejemplo 1.- Sea X una v.a. discreta con función de probabilidad xn 2 n−1 P (X = xn) 2 −n Entonces ∞∑ n=1 P (X = xn) = ∞∑ n=1 1 2n = 1/2 1− 1/2 = 1 pero, E[X ] = ∞∑ n=1 xnP (X = xn) = ∞∑ n=1 2n−1 1 2n = ∞∑ n=1 1 2 = ∞ Ejemplo 2.- Sea X una v.a. continua con función de densidad f(x) = 0 x < 1 1 x2 x ≥ 1 Entonces ∫ +∞ −∞ f(x) dx = ∫ +∞ 1 1 x2 dx = 1 pero E[X ] = ∫ +∞ −∞ xf(x) dx = ∫ +∞ 1 x 1 x2 dx = ∞ 6 Momentos de una variable aleatoria unidimensional 55 En general, tomaremos como criterio de convergencia de la esperanza matemática, la convergencia absoluta de la serie o la integral, es decir si ∑ i |xi|P (X = xi) <∞ ⇒ ∑ i xiP (X = xi) = E[X ] <∞ si ∫ +∞ −∞ |x|f(x) dx <∞ ⇒ ∫ +∞ −∞ xf(x) dx = E[X ] <∞ Veamos algunas propiedades de la esperanza matemática • La esperanza matemática de una constante es la misma constante : E[C]=C • E[T1(X) + T2(X)] = E[T1(X)] + E[T2(X)] • E[aX + b] = aE[X ] + b 6.2. Momento de orden k de una variable aleatoria Como casos particulares de función de una v.a. se pueden tomar las funciones T1(X) = X k y T2(X) = (X − µ)k con k ∈ N. De esta forma, se define el momento de orden k centrado en el origen de X como mk = E[X k] = ∑ i xi k P (X = xi) v.a. discreta mk = E[X k] = ∫ +∞ −∞ xkf(x) dx v.a. continua y el momento de orden k centrado en la media de X como Mk = E[(X − µ)k] = ∑ i (xi − µ)k P (X = xi) v.a. discreta Mk = E[(X − µ)k] = ∫ +∞ −∞ (x− µ)kf(x) dx v.a. continua Se comprueba fácilmente que : • m1 = E[X ] = µ • M1 = E[X − µ] = E[X ]− µ = 0 56 Estad́ıstica Además, podemos relacionar los momentos centrados en la media con los momentos centrados en el origen, y viceversa. Mk = E[(X − µ)k] = ∑ i (xi − µ)k P (X = xi) = = ∑ i [( k 0 ) xi k − ( k 1 ) xi k−1µ+ ( k 2 ) xi k−2µ2 + · · ·+ (−1)k ( k k ) µk ] P (X = xi) = = ( k 0 ) mk − ( k 1 ) µmk−1 + ( k 2 ) µ2mk−2 + · · ·+ (−1)k ( k k ) µk mk = E[X k] = E[(X − µ+ µ)k] = ∑ i (xi − µ+ µ)k P (X = xi) = = ∑ i [( k 0 ) (xi − µ)k + ( k 1 ) (xi − µ)k−1µ+ · · ·+ ( k k ) µk ] P (X = xi) = = ( k 0 ) Mk + ( k 1 ) µMk−1 + ( k 2 ) µ2Mk−2 + · · ·+ ( k k ) µk 6.3. Varianza y desviación t́ıpica Se define la varianza de una v.a., X , con media µ, como σ2 = Var(X) =M2 = E[(X − µ)2] = ∑ i (xi − µ)2 P (X = xi) v.a. discreta σ2 = Var(X) =M2 = E[(X − µ)2] = ∫ +∞ −∞ (x− µ)2f(x) dx v.a. continua Veamos algunas propiedades : • Var(X) = E[X2]− (E[X ])2 Var(X)= ∑ i (xi − µ)2 P (X = xi) = ∑ i [ xi 2 + µ2 − 2µxi ] P (X = xi) = = ∑ i xi 2 P (X = xi) + µ 2 − 2µ ∑ i xi P (X = xi) = E[X 2] + µ2 − 2µ2 = E[X2]− (E[X ])2 • Var(aX + b) = a2Var(X) Sea Y = aX + b ⇒ µY = E[Y ] = E[aX + b] = aE[X ] + b = aµX + b. Entonces Var(aX + b) = Var(Y ) = E[(Y − µY )2] = = E[(aX + b− aµX − b)2] = E[(aX − aµX)2] = a2E[(X − µX)2] = a2Var(X) 6 Momentos de una variable aleatoria unidimensional 57 Generalmente, resulta más práctico utilizar una medida de la dispersión de los datos en las mismas unidades que los propios datos, por ello, se define la desviación t́ıpica como σ = √ Var(X) 6.4. Otros valores t́ıpicos Mediana (Me) : es el punto que divide la distribución en dos partes de igual probabilidad • v.a. discreta Me=xn ∈ R tal que P (X ≤ xn) ≥ 1/2 P (X ≥ xn) ≥ 1/2 • v.a. continua Me=x ∈ R tal que P (X ≥ x) = P (X ≤ x) = 1/2 Moda (Mo) : es el punto (o los puntos) de mayor probabilidad. Mo=xn ∈ R tal que P (X = xn) ≥ P (X = xi) ∀i v.a. discreta Mo=x ∈ R tal que f(x) ≥ f(t) ∀t v.a. continua Cuantiles : El cuantil de orden p es el valor xp de la variable tal que P (X ≤ xp) = p (0 < p < 1) Como casos particulares citamos : • Cuartiles : Son tres valores, Qn, tales que P (X ≤ Qn) = n 4 (n = 1, 2, 3) • Deciles : Son nueve valores, Dn, tales que P (X ≤ Dn) = n 10 (n = 1, . . . , 9) • Percentiles : Son 99 valores, Pn, tales que P (X ≤ Pn) = n 100 (n = 1, . . . , 99) 58 Estad́ıstica Figura 6.1: Función de densidad de una distribución Normal 6.5. Coeficientes de asimetŕıa y curtosis Una distribución continua muy utilizada es la llamada distribución Normal (Fig. 6.1). En este apartado, pretendemos comparar la distribución de una v.a. cualquiera, X , con media E[X ] = µ y varianza Var(X) = σ2, con la distribución Normal, en dos aspectos : grado de asimetŕıa y grado de achatamiento. Una de las propiedades de la distribución Normal, es que su función de densidad es simétrica respecto a su media. En general, si la distribución que estamos estudiando es simétrica respecto a su media, entonces P (X ≥ µ+ x) = P (X ≤ µ− x) v.a. discreta (x > 0) f(µ+ x) = f(µ− x) v.a. continua y, es fácil comprobar, que los momentos de orden impar centrados en la media son todos nulos, M2n+1 = E[(X − µ)2n+1] = 0 n = 0, 1, 2, . . . Sabemos que M1 = 0 para toda v.a., por tanto, utilizamos el siguiente momento más fácil de calcular, que es M3. Aśı, definimos el coeficiente de asimetŕıa o sesgo, como el escalar adimensional 6 Momentos de una variable aleatoria unidimensional 59 Figura 6.2: Asimetŕıa CA = M3 σ3 = M3 M 3/2 2 = ∑ i (xi − µ)3P (X = xi) [ ∑ i (xi − µ)2P (X = xi) ]3/2 v.a. discreta CA = M3 σ3 = M3 M 3/2 2 = ∫ +∞ −∞ (x− µ)3f(x) dx [∫ +∞ −∞ (x− µ)2f(x) dx ]3/2 v.a. continua de forma que si CA = 0 puede ser simétrica CA > 0 es asimétrica positiva o sesgada a la derecha (µ ≥ Me) CA < 0 es asimétrica negativa o sesgada a la izquierda (µ ≤ Me) Respecto al grado de achatamiento o apuntamiento, parece lógico utilizar un coe- ficiente que tenga en cuenta la dispersión de los datos en torno a la media. En una distribución Normal, se cumple M4 M22 = 3 y, en general, definimos el coeficiente de apuntamiento o curtosis como el escalar adimen- sional 60 Estad́ıstica Figura 6.3: Curtosis CAp = M4 σ4 − 3 = M4 M22 − 3 = ∑ i (xi − µ)4P (X = xi) [ ∑ i (xi − µ)2P (X = xi) ]2 − 3 v.a. discreta CAp = M4 σ4 − 3 = M4 M22 − 3 = ∫ +∞ −∞ (x− µ)4f(x) dx [∫ +∞ −∞ (x− µ)2f(x) dx ]2 − 3 v.a. continua de forma que si CAp > 0 distribución leptocúrtica CAp = 0 distribución mesocúrtica CAp < 0 distribución platicúrtica 6.6. Teorema de Markov. Desigualdad de Chebychev Sea X una v.a. y g(X) una función tal que g(X) ≥ 0. Entonces, ∀ k > 0 se cumple P (g(X) ≥ k) ≤ E[g(X)] k La demostración es muy sencilla, ya que E[g(X)] = ∫ +∞ −∞ g(x)f(x) dx = ∫ g(X)≥k g(x)f(x) dx+ ∫ g(X)<k g(x)f(x) dx ≥ ≥ ∫ g(X)≥k g(x)f(x) dx ≥ k ∫ g(X)≥k f(x) dx = kP (g(X) ≥ k) 6 Momentos de una variable aleatoria unidimensional 61 En la práctica, se utilizan otras versiones de este teorema, como : • P (g(X) < k) = 1− P (g(X) ≥ k) ≥ 1− E[g(X)] k • Si g(X) = (X − µ)2 y k = (kσ)2 entonces P ((X − µ)2 < k2σ2) ≥ 1− E[(X − µ) 2] k2σ2 =⇒ P (|X − µ| < kσ) ≥ 1− σ 2 k2σ2 =⇒ P (µ− kσ < X < µ+ kσ) ≥ 1− 1 k2 que es la desigualdad de Chebychev. La probabilidad de que una v.a., X, tome un valor dentro de k desviaciones de la media es al menos (1− 1/k2) 6.7. Función generatriz de momentos La función generatriz de momentos asociada a una v.a. X se define como g(θ) = E[eθX ] = ∑ i eθxiP (X = xi) v.a. discreta g(θ) = E[eθX ] = ∫ +∞ −∞ eθxf(x) dx v.a. continua La función generatriz de momentos se utiliza, como su nombre indica, para calcular los momentos de una v.a., ya que g(θ) = E[eθX ] = ∫ +∞ −∞ eθxf(x) dx = ∫ +∞ −∞ [ 1 + θx+ θ2 2! x2 + · · ·+ θ n n! xn + · · · ] f(x) dx = = 1 + θm1 + θ2 2! m2 + · · ·+ θn n! mn + · · · es decir, si g(θ) admite desarrollo de Taylor en torno a 0, entonces mr = drg(θ) dθr ∣∣∣∣ θ=0 El inconveniente de utilizar la función generatriz de momentos es que antes de utili- zarla, hay que saber si la serie o la integral converge. Para evitar este problema, se define la función caracteŕıstica, que estudiamos en el siguiente apartado. 62 Estad́ıstica 6.8. Función caracteŕıstica La función caracteŕıstica asociada a una v.a. X se define como ϕ(t) = E[eitX ] = ∑ k eitxkP (X = xk) v.a. discreta ϕ(t) = E[eitX ] = ∫ +∞ −∞ eitxf(x) dx v.a. continua Veamos algunas de sus propiedades. 1 La función caracteŕıstica existe ∀t ∈ R ϕ(t) = E[eitX ] = E[cos(tX) + isen(tX)] = E[cos(tX)] + iE[sen(tX)] pero E[|cos(tX)|] = ∫ +∞ −∞ |cos(tx)| f(x) dx ≤ ∫ +∞ −∞ f(x) dx = 1 < +∞ E[|sen(tX)|] = ∫ +∞ −∞ |sen(tx)| f(x) dx ≤ ∫ +∞ −∞ f(x) dx = 1 < +∞ por tanto, E[cos(tX)] y E[sen(tX)] son convergentes, y ϕ(t) también. 2 ϕ(0) = 1 3 |ϕ(t)| ≤ 1 |ϕ(t)| = |E[eitX ]| ≤ E[ |eitX | ] = ∫ +∞ −∞ |eitx| f(x) dx = ∫ +∞ −∞ f(x) dx = 1 4 ϕ(−t) = ϕ(t) ϕ(−t) = E[ei(−t)X ] = E[cos(tX)− isen(tX)] = E[cos(tX)]− iE[sen(tX)] = ϕ(t) 5 Si ϕ(t) es la función caracteŕıstica asociada a una v.a., X , con función de distribución F , y a < b son dos puntos de continuidad de F , entonces F (b)− F (a) = 1 2π ĺım T→∞ ∫ T −T e−iat − e−ibt it ϕ(t) dt siempre que ϕ(t) sea integrable. En particular, F (b) = F (b)− 0 = F (b)− F (−∞) = 1 2π ĺım z→−∞ ĺım T→∞ ∫ T −T e−izt − e−ibt it ϕ(t) dt 6 Si ϕ(t) es integrable, y x un punto de continuidad de F , entonces P (X = x) = 1 2π ∫ +∞ −∞ e−itxϕ(t) dt v.a. discreta f(x) = 1 2π ∫ +∞ −∞ e−itxϕ(t) dt v.a. continua 6 Momentos de una variable aleatoria unidimensional 63 7 Si ϕ(t) es la función caracteŕıstica de una v.a., y admite un desarrollo de Taylor en torno a 0, entonces ϕ(t) = 1 + im1t+ i2 2! m2t 2 + · · ·+ i k k! mkt k + · · · ϕ(t) = E[eitX ] =⇒ ϕ(0) = 1 ϕ′(t) = E[iXeitX ] =⇒ ϕ′(0) = E[iX ] = im1 ϕ′′(t) = E[i2X2eitX ] =⇒ ϕ′′(0) = E[i2X2] = i2m2 ... drϕ(t) dtr = E[irXreitX ] =⇒ d rϕ(0) dtr = E[irXr] = irmr es decir, mr = 1 ir drϕ(t) dtr ∣∣∣∣ t=0 8 La función caracteŕıstica es uniformemente continua en todo intervalo de la recta real. 9 La función caracteŕıstica, ϕ(t), asociada a una v.a., X , es real si y sólo si, X es simétrica. 10 A toda función caracteŕıstica le corresponde una y sólo una función de distribución. Es decir, si dos v.a. tienen la misma función caracteŕıstica, entonces tienen la misma función de distribución y viceversa. 11 Sean {X1, X2, . . . , Xn} n variables aleatorias independientes con funciones carac- teŕısticas {ϕX1, ϕX2 , . . . , ϕXn}, e Y = X1 +X2 + · · ·+Xn. Entonces ϕY (t) = n∏ i=1 ϕXi(t) Es necesario resaltar que, a lo largo de este apartado, hemos visto cómo dada una v.a. se puede calcular su función caracteŕıstica e incluso, a partir de la función caracteŕıstica podemoscalcular el valor de la función de distribución asociada, en un punto. En cambio, en ningún momento hemos dado un criterio para saber, dada una función cualquiera, ϕ(t), si es la función caracteŕıstica asociada a alguna v.a. Veamos con un par de ejemplos, que la cosa no es sencilla. Ejemplo 1.- Sea ϕ(t) = 1 1 + t4 ∀t ∈ R Esta función verifica las siguientes propiedades t́ıpicas de una función caracteŕıstica : 64 Estad́ıstica • ϕ está definida en todo R • ϕ(0) = 1 • ϕ(−t) = ϕ(t) • ϕ es uniformemente continua en R • |ϕ(t)| ≤ 1 Supongamos que ϕ(t) es la función caracteŕıstica de una v.a. X . Claramente, ϕ(t) admite un desarrollo de Taylor, por tanto µ = m1 = E[X ] = ϕ′(0) i = 0 Var(X) = E[(X − µ)2] = E[X2]− µ2 = ϕ ′′(0) i2 = 0 Es decir la v.a. X tiene que ser la v.a. degenerada que toma el valor 0 con probabi- lidad P (X = 0) = 1. Pero, la función caracteŕıstica de esta v.a. degenerada es ϕ(t) = E[eitX ] = ∑ n eitxnP (xn) = e it0P (0) = 1 Ejemplo 2.- Sea ϕ(t) = 1 2− eit ∀t ∈ R Supongamos que ϕ(t) es la función caracteŕıstica de una v.a., X , discreta. Como ϕ(t) es un sumatorio de una serie de términos, vamos a suponer que se trata de una serie de potencias. Aśı, ϕ(t) = ∑ x eitxP (x) = 1 2− eit = 1/2 1− 1 2 eit = 1er término 1− razón = ∞∑ x=0 1 2x+1 eixt es decir, se trata de una v.a. discreta que toma todos los valores enteros no negativos, x, con P (X = x) = 1 2x+1 . Si calculamos ahora la función caracteŕıstica de esta v.a., comprobamos fácilmente que es ϕ(t). 6.8.1. Cambio de variable en la función caracteŕıstica Sea X una v.a. con función caracteŕıstica ϕX(t). Realizamos el cambio Y = aX + b, entonces ϕY (t) = E[e itY ] = E[eit(aX+b)] = ∫ +∞ −∞ eit(ax+b)f(x) dx = = eitb ∫ +∞ −∞ eitaxf(x) dx = eitbE[ei(at)X ] = eitbϕX(at) 7 Variable aleatoria bidimensional y n-dimensional Índice 7.1. Variable aleatoria bidimensional . . . . . . . . . . . . . . . . . 66 7.2. Variable aleatoria bidimensional discreta . . . . . . . . . . . . 66 7.2.1. Función de probabilidad . . . . . . . . . . . . . . . . . . . . . . 67 7.2.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . 67 7.3. Variable aleatoria bidimensional continua . . . . . . . . . . . . 69 7.3.1. Función de distribución y función de densidad . . . . . . . . . . 69 7.4. Variable aleatoria bidimensional condicional . . . . . . . . . . 72 7.4.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 72 7.4.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . 73 7.5. Variables aleatorias bidimensionales independientes . . . . . . 75 7.6. Momentos de una variable aleatoria bidimensional . . . . . . 76 7.6.1. Propiedades de las varianzas y la covarianza . . . . . . . . . . . 78 7.6.2. Coeficiente de correlación lineal . . . . . . . . . . . . . . . . . . 80 7.7. Función caracteŕıstica de una variable aleatoria bidimensional 81 7.8. Transformación de variables aleatorias bidimensionales . . . . 82 7.8.1. Una función de dos variables aleatorias . . . . . . . . . . . . . . 82 7.8.2. Dos funciones de dos variables aleaorias . . . . . . . . . . . . . 82 7.8.3. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . 83 7.8.4. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . 83 7.9. Variable aleatoria n-dimensional . . . . . . . . . . . . . . . . . 84 65 66 Estad́ıstica 7.1. Variable aleatoria bidimensional Cuando el resultado de un experimento aleatorio se traduce en una única obser- vación, tenemos una variable aleatoria unidimensional. Si el resultado del experimento se materializa en dos observaciones simultáneas, por ejemplo, el peso y la altura de un colectivo de individuos, estamos ante una variable aleatoria bidimensional (X, Y ). Expresado formalmente, partimos de un espacio probabiĺıstico (E,Ω, P ) y dos va- riables aleatorias X e Y definidas en él. El vector aleatorio cuyas componentes son X e Y , se denomina variable aleatoria bidimensional (X, Y ). Este vector aleatorio tendrá un campo de variación y una distribución de probabilidad, que llamaremos conjunta. Por otra parte, tanto X como Y son v.a. unidimensionales, y tendrán un campo de variación y una distribución de probabilidad que llamaremos marginales. De nuevo, lo que se pretende es sustituir el álgebra de sucesos por el álgebra de números reales y, otra vez, el concepto relevante es el de sucesos generados por variables aleatorias. Dadas dos variables aleatorias X e Y podemos definir los sucesos conjuntos {X ≤ x, Y ≤ y} como: {X ≤ x, Y ≤ y} ≡ {X ≤ x} ⋂ {Y ≤ y} De la teoŕıa sabemos que el conocimiento de las probabilidades de los dos sucesos del miembro de la izquierda no basta para calcular la probabilidad de su intersección. Sólo en el caso en que las dos variables unidimensionales X e Y representen resultados independientes la probabilidad de la intersección será el producto de las probabilidades. En general, por tanto, la máxima información sobre una variable bidimensional no está en las distribuciones marginales sino que deberemos conocer la distribución conjunta. En el caso de variables unidimensionales los sucesos se convierten en intervalos de la recta real y sus probabilidades asociadas pueden calcularse integrando la función de densidad sobre dicho intervalo. Ahora, los sucesos conjuntos se convierten en subconjuntos de R2. La probabilidad asociada a un suceso de este tipo puede calcularse también, como veremos, realizando la correspondiente integración en el plano. 7.2. Variable aleatoria bidimensional discreta Una v.a. bidimensional, (X, Y ), es discreta cuando las v.a. que la componen, X e Y , son discretas. 7 Variable aleatoria bidimensional y n-dimensional 67 7.2.1. Función de probabilidad Dada una v.a. bidimensional (X, Y ), la función de probabilidad conjunta viene dada por P (X = xi, Y = yj) = pij 1 ≤ i, j ≤ +∞ debiéndose cumplir • pij ≥ 0 ∀i, j • ∞∑ i=1 ∞∑ j=1 P (X = xi, Y = yj) = ∞∑ i=1 ∞∑ j=1 pij = 1 Las funciones de probabilidad marginales son: • v.a. X P (X = xi) = ∞∑ j=1 P (X = xi, Y = yj) = pi· 1 ≤ i ≤ +∞ • v.a. Y P (Y = yj) = ∞∑ i=1 P (X = xi, Y = yj) = p·j 1 ≤ j ≤ +∞ Como tanto X como Y son v.a. unidimensionales, debe cumplirse que ∞∑ i=1 P (X = xi) = ∞∑ j=1 P (Y = yj) = 1 7.2.2. Función de distribución Dada una v.a. bidimensional (X, Y ), la función de distribución conjunta viene dada por F (xn, ym) = P (X ≤ xn, Y ≤ ym) = n∑ i=1 m∑ j=1 P (X = xi, Y = yj) = n∑ i=1 m∑ j=1 pij La función de distribución conjunta verifica algunas de las propiedades t́ıpicas de la función de distribución unidimensional: (i) F (−∞,−∞) = F (xi,−∞) = F (−∞, yj) = 0 (ii) F (+∞,+∞) = 1 68 Estad́ıstica (iii) F es monótona creciente: Si x1 < x2 F (x1, y) ≤ F (x2, y) ∀y Si y1 < y2 F (x, y1) ≤ F (x, y2) ∀x Las funciones de distribución marginales vienen dadas por • v.a. X FX(xn) = F (xn,+∞) = P (X ≤ xn, Y ≤ +∞) = n∑ i=1 ∞∑ j=1 P (X = xi, Y = yj) = = n∑ i=1 ∞∑ j=1 pij = n∑ i=1 pi· = P (X ≤ xn) ∀xn • v.a. Y FY (ym) = F (+∞, ym) = P (X ≤ +∞, Y ≤ ym) = ∞∑ i=1 m∑ j=1 P (X = xi, Y = yj) = = ∞∑ i=1 m∑ j=1 pij = m∑ j=1 p·j = P (Y ≤ ym) ∀ym Ejemplo.- Sea la v.a. bidimensional (X, Y ), con función de probabilidad conjunta, P (X = xi) 0.44 0.36 0.20 1 0.20 0.50 0.18 0.12 P (Y = yj) 0.06 0.32 0.05 0.01 0.13 0.14 0.02 0.07 0.01 0.04 0.11 0.04 0 1 2 2 1 0 -1 HHHHHHHH xi yj Se cumple, ∑ i ∑ j P (X = xi, Y = yj) = 3∑ i=1 4∑ j=1 pij = 0.01 + · · ·+ 0.01 = 1 7 Variable aleatoria bidimensional y n-dimensional 69 Las funciones de probabilidad marginales son, • v.a. X xi 0 1 2 P (X = xi) 0.44 0.36 0.20 Se cumple, ∑ i P (X = xi) = 3∑ i=1 pi· = 0.44 + 0.36 + 0.20 = 1 • v.a. Y yj -1 0 1 2 P (Y = yj) 0.12 0.18 0.50 0.20 Se cumple, ∑ j P (Y = yj) = 4∑ j=1 p·j = 0.12 + 0.18 + 0.50 + 0.20 = 1 7.3. Variable aleatoriabidimensional continua Una v.a. bidimensional, (X, Y ), es continua cuando las v.a. que la componen, X e Y , son continuas. 7.3.1. Función de distribución y función de densidad Dada una v.a. bidimensional (X, Y ), la función de distribución conjunta viene dada por F (x, y) = P (X ≤ x, Y ≤ y) ∀x, y ∈ R La función de distribución conjunta verifica algunas de las propiedades t́ıpicas de la función de distribución unidimensional: (i) F (−∞,−∞) = F (x,−∞) = F (−∞, y) = 0 (ii) F (+∞,+∞) = 1 70 Estad́ıstica (iii) F es monótona creciente: Si x1 < x2 F (x1, y) ≤ F (x2, y) ∀y ∈ R Si y1 < y2 F (x, y1) ≤ F (x, y2) ∀x ∈ R En el caso de v.a. unidimensionales continuas, a la función de distribución está aso- ciada la función de densidad, que se obtiene derivando la primera. Para las v.a. bidimen- sionales continuas también hay una función de densidad conjunta, f(x, y), asociada a la función de distribución conjunta, de tal forma que F (x, y) = P (X ≤ x, Y ≤ y) = ∫ x −∞ ∫ y −∞ f(x, y) dxdy Veamos algunas relaciones importantes 1 f(x, y) ≥ 0 ∀x, y ∈ R 2 ∫ +∞ −∞ ∫ +∞ −∞ f(x, y) dydx = 1 3 P (a ≤ X ≤ b, c ≤ Y ≤ d) = ∫ b a ∫ d c f(x, y) dydx 4 ∂2F (x, y) ∂x ∂y = ∂2F (x, y) ∂y ∂x = f(x, y) ∀x, y ∈ R Las funciones de distribución marginales vienen dadas por, • v.a. X FX(x) = F (x,+∞) = P (X ≤ x, Y ≤ +∞) = ∫ x −∞ ∫ +∞ −∞ f(x, y) dydx = ∫ x −∞ fX(x) dx siendo fX(x) = ∫ +∞ −∞ f(x, y) dy ∀ x ∈ R la función de densidad marginal de X , que debe verificar ∫ +∞ −∞ fX(x) dx = 1 7 Variable aleatoria bidimensional y n-dimensional 71 • v.a. Y FY (y) = F (+∞, y) = P (X ≤ +∞, Y ≤ y) = ∫ y −∞ ∫ +∞ −∞ f(x, y) dxdy = ∫ y −∞ fY (y) dy siendo fY (y) = ∫ +∞ −∞ f(x, y) dx ∀ y ∈ R la función de densidad marginal de Y , que debe verificar ∫ +∞ −∞ fY (y) dy = 1 Ejemplo.- Sea (X, Y ) la v.a. bidimensional con función de densidad conjunta f(x, y) = 2 7 (x+ 6y) 0 ≤ x, y ≤ 1 • ∫ +∞ −∞ ∫ +∞ −∞ f(x, y) dydx = ∫ 1 0 ∫ 1 0 2 7 (x+ 6y) dydx = ∫ 1 0 2 7 (x+ 3) dx = 1 • Función de distribución conjunta F (x, y) = ∫ x −∞ ∫ y −∞ f(x, y) dydx = ∫ x 0 ∫ y 0 2 7 (x+ 6y) dydx = = ∫ x 0 2 7 (xy + 3y2) dx = 2 7 ( 1 2 x2y + 3xy2) = 1 7 xy(x+ 6y) 0 ≤ x, y ≤ 1 • Función de densidad marginal de X fX(x) = ∫ +∞ −∞ f(x, y) dy = ∫ 1 0 2 7 (x+ 6y) dy = 2 7 (x+ 3) 0 ≤ x ≤ 1 • Función de densidad marginal de Y fY (y) = ∫ +∞ −∞ f(x, y) dx = ∫ 1 0 2 7 (x+ 6y) dx = 1 7 (1 + 12y) 0 ≤ y ≤ 1 • Función de distribución marginal de X FX(x) = ∫ x −∞ ∫ +∞ −∞ f(x, y) dydx = ∫ x 0 fX(x) dx = 72 Estad́ıstica = ∫ x 0 2 7 (x+ 3) dx = 1 7 x(x+ 6) 0 ≤ x ≤ 1 • Función de distribución marginal de Y FY (y) = ∫ y −∞ ∫ +∞ −∞ f(x, y) dxdy = ∫ y 0 fY (y)dy = = ∫ y 0 2 7 ( 1 2 + 6y) dy = 2 7 ( 1 2 y + 3y2) = 1 7 y(1 + 6y) 0 ≤ y ≤ 1 • Se puede comprobar que fX(x) = F ′ X(x) 0 ≤ x ≤ 1 y fY (y) = F ′Y (y) 0 ≤ y ≤ 1 ∫ +∞ −∞ fX(x) dx = ∫ +∞ −∞ fY (y) dy = 1 7.4. Variable aleatoria bidimensional condicional Junto con las distribuciones marginales tenemos otras de gran importancia, las dis- tribuciones condicionales, que surgen cuando en la distribución conjunta se establece una condición sobre una de las variables. La distribución condicional expresa el comportamien- to probabiĺıstico de una variable aleatoria, cuando la otra está sujeta a ciertas condiciones. Partimos de la definición de probabilidad condicional de dos sucesos P (A/B) = P (A ∩ B) P (B) siempre que P (B) > 0. 7.4.1. Variable aleatoria discreta Sea (X, Y ) una v.a. bidimensional discreta con función de probabilidad conjunta P (X = xi, Y = yj) = pij Definimos la función de distribución de la variable Y condicionada por la variable X , {Y|X} como F (ym|xn) = P (Y ≤ ym|X=xn) = P (X = xn, Y ≤ ym) P (X = xn) = m∑ j=1 pnj pn· 7 Variable aleatoria bidimensional y n-dimensional 73 De manera análoga, se define la función de distribución de la variableX condicionada por la variable Y , {X|Y } como F (xn|ym) = P (X ≤ xn|Y=ym) = P (X ≤ xn, Y = ym) P (Y = ym) = n∑ i=1 pim p·m Como casos particulares, • P (Y ≤ ym|xr<X≤xs) = P (xr < X ≤ xs, Y ≤ ym) P (xr < X ≤ xs) = s∑ i=r+1 m∑ j=1 pij s∑ i=r+1 pi· • P (Y ≤ ym|X≤xn) = P (X ≤ xn, Y ≤ ym) P (X ≤ xn) = n∑ i=1 m∑ j=1 pij n∑ i=1 pi· 7.4.2. Variable aleatoria continua Sea (X, Y ) una v.a. bidimensional discreta con función de densidad conjunta f(x, y) −∞ ≤ x, y ≤ +∞ Definimos la función de distribución de la variable Y condicionada por la variable X , {Y|X} como 74 Estad́ıstica F (y|x) = P (Y ≤ y|X=x) = ĺım ε→0 P (Y ≤ y|x−ε<X≤x+ε) = = ĺım ε→0 P (x− ε < X ≤ x+ ε, Y ≤ y) P (x− ε < X ≤ x+ ε) = ĺımε→0 ∫ x+ε x−ε ∫ y −∞ f(x, y) dydx ∫ x+ε x−ε fX(x) dx = = ĺım ε→0 ∫ y −∞ ∫ x+ε x−ε f(x, y) dx 2ε dy ∫ x+ε x−ε fX(x) dx 2ε = ∫ y −∞ f(x, y) dy fX(x) = = ∫ y −∞ f(x, y) fX(x) dy = ∫ y −∞ f(y|x) dy ∀y ∈ R habiendo definido la función f(y|x) como f(y|x) = f(x, y) fX(x) ∀y ∈ R es decir, f(y|x) es la función de densidad de la variable aleatoria Y condicionada por el valor de la variable aleatoria X = x. De manera análoga, se define la función de distribución de la variableX condicionada por la variable Y , {X|Y } como F (x|y) = P (X ≤ x|Y=y) = ∫ x −∞ f(x, y) fY (y) dx = ∫ x −∞ f(x|y) dx ∀x ∈ R habiendo definido la función f(x|y) como f(x|y) = f(x, y) fY (y) ∀x ∈ R es decir, f(x|y) es la función de densidad de la variable aleatoria X condicionada por el valor de la variable aleatoria Y = y. Como casos particulares, • P (Y ≤ y|X≤x) = P (X ≤ x, Y ≤ y) P (X ≤ x) = ∫ x −∞ ∫ y −∞ f(x, y) dydx ∫ x −∞ fX(x) dx 7 Variable aleatoria bidimensional y n-dimensional 75 • P (Y ≤ y|a≤X≤b) = P (a ≤ X ≤ b, Y ≤ y) P (a ≤ X ≤ b) = ∫ b a ∫ y −∞ f(x, y) dydx ∫ b a fX(x) dx 7.5. Variables aleatorias bidimensionales independien- tes Cuando dos sucesos son independientes, se verifica que P (S1 ∩ S2) = P (S1)P (S2) o, también P (S1/S2) = P (S1) P (S2/S1) = P (S2) Utilizando el mismo razonamiento, dos variables aleatorias X e Y con función de probabilidad conjunta P (X = xi, Y = yj) = pij si son discretas, y función de densidad conjunta f(x, y) si son continuas, son independientes, si se verifica pij = pi· p·j ∀i, j v.a. discreta f(x, y) = fX(x)fY (y) ∀x, y v.a. continua TEOREMA 1. Si dos variables X e Y son independientes, cualquier par de variables que se obtengan cada una como función de una sola de las anteriores, Z = g(X) y W = h(Y ) son independientes. TEOREMA 2. Si dos experimentos son independientes, dos variables aleatorias definidas respectivamente a partir de los resultados de cada uno de los experimentos anteriores son independientes. 76 Estad́ıstica 7.6. Momentos de una variable aleatoria bidimensio- nal Dada una v.a. bidimensional (X, Y ), se pueden definir los momentos de orden r y s centrados en el origen o centrados en las medias. • Momento de orden r y s centrado en el origen mrs = E[X rY s] = ∑ i ∑ j xriy s j P (X = xi, Y = yj) ∫ +∞ −∞ ∫ +∞ −∞ xrysf(x, y) dxdy Los momentos centrados en el origen más utilizados son 2 Momentos de primer orden µX = m10 = E[X ] = ∑ i ∑ j xi P (X = xi, Y = yj) = ∑ i xi pi· ∫ +∞ −∞ ∫ +∞ −∞ xf(x, y) dxdy = ∫ +∞ −∞ xfX(x) dx µY = m01 = E[Y ] = ∑ i ∑ j yj P (X = xi, Y = yj) = ∑ j yj p·j ∫ +∞ −∞ ∫ +∞ −∞ yf(x, y) dxdy = ∫ +∞ −∞ yfY (y) dy Como puede comprobarse, los momentos de primer orden centrados en el origen m10 y m01 son, respectivamente, las medias, µX y µY , de las distribuciones marginales X e Y . 7 Variable aleatoria bidimensional y n-dimensional 77 2 Momentos de segundo orden m20 = E[X 2] = ∑ i ∑ j x2i P (X = xi, Y = yj) = ∑ i x2i pi· ∫ +∞ −∞ ∫ +∞ −∞ x2f(x, y) dxdy = ∫ +∞ −∞ x2fX(x) dx m02 = E[Y 2] = ∑ i ∑ j y2j P (X = xi, Y = yj) = ∑ j y2jp·j ∫ +∞ −∞ ∫ +∞ −∞ y2f(x, y) dxdy = ∫ +∞ −∞ y2fY (y) dy m11 = E[XY ] = ∑ i ∑ j xiyj P (X = xi, Y = yj) ∫ +∞ −∞ ∫ +∞ −∞ xyf(x, y) dxdy • Momento de orden r y s centrado en las medias Mrs = E[(X − µX)r(Y − µY )s] = ∑ i ∑ j (xi − µX)r(yj − µY )s P (X = xi, Y = yj) ∫ +∞ −∞ ∫ +∞ −∞ (x− µX)r(y − µY )sf(x, y) dxdy Los momentos centrados en las medias más utilizados son 2 Momentos de primer orden M10 = E[X − µX ] = ∑ i ∑ j (xi − µX)P (X = xi, Y = yj) = ∑ i (xi − µX) pi· = 0 ∫ +∞ −∞ ∫ +∞ −∞ (x− µX)f(x, y) dxdy = ∫ +∞ −∞ (x− µX)fX(x) dx = 0 M01 = E[Y − µY ] = ∑ i ∑ j (yj − µY )P (Y = xi, Y = yj) = ∑ i (yj − µY ) p·j = 0 ∫ +∞ −∞ ∫ +∞ −∞ (y − µY )f(x, y) dxdy = ∫ +∞ −∞ (y − µY )fY (y) dy = 0 2 Momentos de segundo orden 78 Estad́ıstica σ2X = M20 = E[(X − µX)2] = ∑ i ∑ j (xi − µX)2 P (X = xi, Y = yj) = ∑ i (xi − µX)2 pi· ∫ +∞ −∞ ∫ +∞ −∞ (x− µX)2f(x, y) dxdy = ∫ +∞ −∞ (x− µX)2fX(x) dx σ2Y = M02 = E[(Y − µY )2] = ∑ i ∑ j (yj − µY )2 P (Y = xi, Y = yj) = ∑ i (yj − µY )2 p·j ∫ +∞ −∞ ∫ +∞ −∞ (y − µY )2f(x, y) dxdy = ∫ +∞ −∞ (y − µY )2fY (y) dx σXY = M11 = E[(X − µX)(Y − µY )] = ∑ i ∑ j (xi − µX)(yj − µY )P (X = xi, Y = yj) ∫ +∞ −∞ ∫ +∞ −∞ (x− µX)(y − µY )f(x, y) dxdy Como puede comprobarse, los momentos de segundo orden centrados en las medias M20 y M02 son, respectivamente, las varianzas, σ 2 X y σ 2 Y , de las distribuciones marginales X e Y . El momento de segundo orden centrado en las medias M11 se denomina covarianza de la v.a. bidimensional (X, Y ) y la notaremos por σXY o Cov(X, Y ). 7.6.1. Propiedades de las varianzas y la covarianza Veamos, en primer lugar, un método alternativo para el cálculo de las varianzas y la covarianza. 2 Varianzas σ2X = E[(X − µX)2] = E[(X2 − 2µXX + µ2X ] = E[X2]− 2µXE[X ] + µ2X = = E[X2]− 2µ2X + µ2X = E[X2]− µ2X = E[X2]− E[X ]2 = m20 −m210 σ2Y = E[(Y − µY )2] = E[(Y 2 − 2µY Y + µ2Y ] = E[Y 2]− 2µYE[Y ] + µ2Y = = E[Y 2]− 2µ2Y + µ2Y = E[Y 2]− µ2Y = E[Y 2]− E[Y ]2 = m02 −m201 2 Covarianza 7 Variable aleatoria bidimensional y n-dimensional 79 σXY = E[(X − µX)(Y − µY )] = E[XY − µXY − µYX + µXµY ] = = E[XY ]− µXE[Y ]− µYE[X ] + µXµY = E[XY ]− µXµY − µY µX + µXµY = = E[XY ]− µXµY = E[XY ]− E[X ]E[Y ] = m11 −m10m01 Ahora, veamos algunas propiedades de las varianzas y la covarianza. Sea (X, Y ) una v.a. bidimensional 1 Var(aX + b) = a2Var(X) 2 Var(aX + bY ) = a2Var(X) + b2Var(Y ) + 2abCov(X, Y ) • E[aX + bY ] = aE[X ] + bE[Y ] = aµX + bµY • Var(aX + bY ) = E [((aX + bY )− E[(aX + bY )])2] = = E [((aX + bY )− (aµX + bµY ))2] = = E [((aX − aµX) + (bY − bµY ))2] = = E [(aX − aµX)2 + (bY − bµY )2 + 2(aX − aµX)(bY − bµY )] = = a2E[(X − µX)2] + b2E[(Y − µY )2] + 2abE[(X − µX)(Y − µY )] = = a2Var(X) + b2Var(Y ) + 2abCov(X, Y ) 3 Si X e Y son independientes, entonces Cov(X, Y ) = 0 Si X e Y son independientes, entonces • f(x, y) = fX(x)fY (y) • E[XY ] = ∫ +∞ −∞ ∫ +∞ −∞ xyf(x, y) dydx = ∫ +∞ −∞ ∫ +∞ −∞ xyfX(x)fY (y) dydx = = (∫ +∞ −∞ xfX(x) dx )(∫ +∞ −∞ yfY (y) dy ) = E[X ]E[Y ] • Cov(X, Y ) = E[XY ]− E[X ]E[Y ] = E[X ]E[Y ]− E[X ]E[Y ] = 0 80 Estad́ıstica 4 Si X e Y son independientes, entonces Var(aX + bY ) = a2Var(X) + b2Var(Y ) 5 Cov2(X, Y ) ≤ Var(X) Var(Y ) 7.6.2. Coeficiente de correlación lineal En el caṕıtulo 6, vimos que la varianza de una v.a. unidimensional nos da una idea del grado de dispersión de los valores que toma la variable respecto a su media. Es decir, la varianza es una medida de dispersión. Sin embargo, lo que generalmente se utiliza es la ráız cuadrada de la varianza, o sea la desviación t́ıpica, y aśı trabajar con las mismas unidades que la media. La covarianza, en cambio, es un momento que se refiere a una v.a. bidimensional, (X, Y ), y da una idea del grado de asociación lineal que existe entre ambas variables. Aśı, si Cov(X, Y ) > 0, hay una relación lineal positiva entre X e Y en el sentido de, a valores grandes de X le corresponden valores grandes de Y y viceversa; mientras que si Cov(X, Y ) < 0, hay una relación lineal negativa entre X e Y en el sentido de, a valores grandes de X le corresponden valores pequeños de Y , y viceversa. Si Cov(X, Y ) = 0, no hay relación lineal entre ellas. Para medir el grado de relación lineal entre dos variables, conviene trabajar con un parámetro adimensional. Para ello, se define el coeficiente de correlación lineal,ρ, como ρ = Cov(X, Y )√ Var(X)Var(Y ) = σXY σX σY también se utiliza el coeficiente de determinación lineal, ρ2 ρ2 = Cov2(X, Y ) Var(X)Var(Y ) = σ2XY σ2X σ 2 Y El concepto de asociación lineal se estudiará más adelante, por lo que, ahora, sólo nos detenemos en observar que −1 ≤ ρ ≤ 1 y 0 ≤ ρ2 ≤ 1 7 Variable aleatoria bidimensional y n-dimensional 81 7.7. Función caracteŕıstica de una variable aleatoria bidimensional Sea (X, Y ) una v.a. bidimensional con función de probabilidad conjunta dada por P (X = x, Y = y) si es discreta, o función de densidad conjunta f(x, y) si es continua. Se define la función caracteŕıstica conjunta como, ϕ(t1, t2) = E[e it1X+it2Y ] = ∑ x ∑ y eit1x+it2yP (X = x, Y = y) ∫ +∞ −∞ ∫ +∞ −∞ eit1x+it2yf(x, y) dxdy Algunas de las propiedades más importantes de la función caracteŕıstica son • ϕ(0, 0) = 1 • Se cumple, ∂rϕ(t1, t2) ∂tr−s1 ∂t s 2 = E[ir Xr−s Y s eit1X+it2Y ] Entonces, los momentos centrados en el origen se pueden calcular como, mr−s,s = E[X r−s Y s] = 1 ir ∂rϕ(t1, t2) ∂tr−s1 ∂t s 2 ∣∣∣∣ t1=0,t2=0 • Si ϕ(t1, t2) es la función caracteŕıstica conjunta de (X, Y ), entonces las funciones caracteŕısticas de las distribuciones marginales X e Y son ϕX(t) = E[e itX ] = ϕ(t, 0) ϕY (t) = E[e itY ] = ϕ(0, t) Si, además, X e Y son independientes, entonces ϕ(t1, t2) = ϕ(t1, 0)ϕ(0, t2) = ϕX(t1)ϕY (t2) • Si ϕ(t1, t2) es la función caracteŕıstica conjunta de (X, Y ), y Z = X + Y , entonces, ϕZ(t) = ϕ(t, t) 82 Estad́ıstica Si, además, X e Y son independientes, entonces ϕZ(t) = ϕ(t, t) = ϕX(t)ϕY (t) 7.8. Transformación de variables aleatorias bidimen- sionales 7.8.1. Una función de dos variables aleatorias Sean X e Y dos variables aleatorias con distribución conjunta conocida f(x, y). Consideremos una nueva variable aleatoria Z definida mediante la función Z = g(X, Y ). Definamos ∀z ∈ R el subconjunto de R2 Dz ≡ { (x, y) ∈ R2 tales que g(x, y) ≤ z } El suceso {Z ≤ z} es ahora {g(X, Y ) ≤ z} = {(X, Y ) ∈ Dz}, y la función de distribución de la variable Z es FZ(z) = P (Z ≤ z) = P ((X, Y ) ∈ Dz) = ∫ ∫ Dz f(x, y) dxdy 7.8.2. Dos funciones de dos variables aleaorias Supongamos ahora que dadas X e Y con distribución conjunta conocida f(x, y), queremos calcular la distribución de un par de variables Z y W dadas por Z = g(X, Y ) W = h(X, Y ) Definamos en subconjunto de R2 Dzw ≡ { (x, y) ∈ R2 tales que g(x, y) ≤ z , h(x, y) ≤ w } El suceso conjunto {Z ≤ z,W ≤ w} = {(X, Y ) ∈ Dzw}, y la función de distribución del par (Z,W ) es FZW (z, w) = P (Z ≤ z,W ≤ w) = P ((X, Y ) ∈ Dzw) = ∫ ∫ Dzw f(x, y) dxdy 7 Variable aleatoria bidimensional y n-dimensional 83 7.8.3. Variable aleatoria discreta Dada una v.a. bidimensional (X, Y ), con función de probabilidad conjunta P (X = xi, Y = yj) = pij 1 ≤ i, j ≤ +∞ definimos la transformación biuńıvoca U = u(X, Y ) V = v(X, Y ) La función de probabilidad conjunta de la nueva v.a. bidimensional (U, V ) será P (U = ur, V = vs) = P ((X, Y ) ∈ S) = ∑ (xi,yj)∈S P (X = xi, Y = yj) 1 ≤ r, s ≤ +∞ 7.8.4. Variable aleatoria continua Dada una v.a. bidimensional (X, Y ), con función de densidad conjunta f(x, y) −∞ ≤ x, y ≤ +∞ definimos la transformación biuńıvoca U = u(X, Y ) V = v(X, Y ) La función de densidad conjunta de la nueva v.a. bidimensional (U, V ) será g(u, v) = f(x(u, v), y(u, v))|J | −∞ ≤ u, v ≤ +∞ siendo J el jacobiano de la transformación,es decir J = ∣∣∣∣∣∣∣∣∣ ∂x ∂u ∂x ∂v ∂y ∂u ∂y ∂v ∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣∣∣∣∣∣ ∂u ∂x ∂u ∂y ∂v ∂x ∂v ∂y ∣∣∣∣∣∣∣∣∣∣ −1 84 Estad́ıstica 7.9. Variable aleatoria n-dimensional Todo lo que se ha visto para v.a. bidimensionales se puede extender al caso de n variables aleatorias. Dado un espacio probabiĺıstico (E,Ω, P ) y n variables aleatorias X1, X2, . . . , Xn definidas en él, el vector aleatorio (X1, X2, . . . , Xn), se denomina variable aleatoria n-dimensional. La función de densidad conjunta viene dada por P (X1 = x1, X2 = x2, . . . , Xn = xn) v.a. discreta f(x1, x2, . . . , xn) v.a. continua Las distribuciones marginales se definen como, P (Xr = xr) = ∑ x1 · · · ∑ xr−1 ∑ xr+1 · · · ∑ xn P (X1 = x1, . . . , Xn = xn) v.a. discreta fXr(xr) = ∫ +∞ −∞ · · · ∫ +∞ −∞ f(x1, . . . , xn) dx1 . . . dxr−1dxr+1 . . . dxn v.a. continua Las n variables aleatorias son independientes si se verifica P (X1 = x1, . . . , Xn = xn) = P (X1 = x1)× · · · × P (Xn = xn) ∀x1, . . . , xn fX1,...,Xn(x1, . . . , xn) = fX1(x1)× · · · × fXn(xn) ∀x1, . . . , xn 8 Distribuciones de probabilidad discretas Índice 8.1. Distribución de Bernoulli, B(1, p) . . . . . . . . . . . . . . . . . 86 8.2. Distribución Binomial, B(n, p) . . . . . . . . . . . . . . . . . . 86 8.2.1. Teorema de adición para distribuciones Binomiales . . . . . . . 88 8.2.2. Distribución de la proporción . . . . . . . . . . . . . . . . . . . 89 8.3. Distribución de Poisson, P(λ) . . . . . . . . . . . . . . . . . . . 89 8.3.1. Teorema de adición para distribuciones de Poisson . . . . . . . 90 8.3.2. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . 91 8.3.3. Aproximación de una Binomial por una Poisson . . . . . . . . . 92 8.4. Distribución Hipergeométrica, H(n,N,A) . . . . . . . . . . . 92 8.5. Distribución Geométrica, G(p) . . . . . . . . . . . . . . . . . . 94 8.6. Distribución Binomial Negativa, BN(r, p) . . . . . . . . . . . . 95 8.6.1. Teorema de adición para distribuciones Binomiales Negativas . 96 85 86 Estad́ıstica 8.1. Distribución de Bernoulli, B(1, p) Supongamos un experimento, llamado experimento de Bernoulli, en el que sólo se pueden dar dos resultados, éxito o fracaso. Generalmente, se asigna el valor 1 al suceso éxito, y el valor 0 al suceso fracaso. Si la probabilidad de éxito es p y la de fracaso es q = 1 − p, entonces, la función de probabilidad de la v.a. X asociada a este experimento es P (X = x) = pxq1−x x = 0, 1 • 1∑ x=0 P (X = x) = P (X = 0) + P (X = 1) = p+ q = 1 • Esperanza y Varianza E[X ] = 1∑ x=0 xP (X = x) = 0× P (X = 0) + 1× P (X = 1) = p Var(X) = E[X2]− (E[X ])2 = 1∑ x=0 x2P (X = x)− p2 = = 02 × P (X = 0) + 12 × P (X = 1)− p2 = p− p2 = p(1− p) = pq E[X ] = p Var(X) = pq • Función Caracteŕıstica ϕ(t) = E[eitX ] = 1∑ x=0 eitxP (X = x) = eit0P (X = 0) + eit1P (X = 1) = q + p eit ϕ(t) = q + p eit 8.2. Distribución Binomial, B(n, p) Si realizamos un experimento de Bernoulli n veces, siempre en las mismas condi- ciones, y nos interesamos por el número de éxitos obtenidos, tenemos una distribución Binomial B(n, p), con función de probabilidad P (X = x) = ( n x ) pxqn−x x = 0, 1, 2, . . . , n 8 Distribuciones de probabilidad discretas 87 • n∑ x=0 P (X = x) = n∑ x=0 ( n x ) pxqn−x = (p+ q)n = 1 • Función Caracteŕıstica ϕ(t) = E[eitX ] = n∑ x=0 eitxP (X = x) = n∑ x=0 ( n x ) (p eit)xqn−x = (p eit + q)n ϕ(t) = (p eit + q)n • Esperanza ϕ′(t) = npi eit(p eit + q)n−1 =⇒ ϕ′(0) = npi =⇒ E[X ] = ϕ ′(0) i = np E[X ] = np • Varianza ϕ′′(t) = npi2eit[(p eit + q)n−1 + (n− 1)p eit(p eit + q)n−2] ϕ′′(0) = npi2[1 + (n− 1)p] = i2[np+ (np)2 − np2] E[X2] = ϕ′′(0) i2 = np+ (np)2 − np2 Var(X) = E[X2]− (E[X ])2 = np+ (np)2 − np2 − (np)2 = np(1− p) = npq Var(X) = npq • Moda Buscamos el valor de x tal que P (X = x) ≥ P (X = y) ∀y = 0, 1, 2, . . . , n. Supongamos que x es la moda, entonces, P (X = x) > P (X = x− 1) =⇒ ( n x ) pxqn−x > ( n x− 1 ) px−1qn−x+1 =⇒ n! x! (n− x)!p xqn−x > n! (x− 1)! (n− x+ 1)!p x−1qn−x+1 =⇒ p x > q n− x+ 1 =⇒ 88 Estad́ıstica x < (n + 1)p Por otra parte, P (X = x) > P (X = x+ 1) =⇒ ( n x ) pxqn−x > ( n x+ 1 ) px+1qn−x−1 =⇒ n! x! (n− x)!p xqn−x > n! (x+ 1)! (n− x− 1)!p x+1qn−x−1 =⇒ q n− x > p x+ 1 =⇒ (n + 1)p− 1 < x Por tanto, (n+ 1)p− 1 < x < (n+ 1)p es decir, la moda es el número entero, x, no negativo, que se encuentra entre los valores (n+1)p−1 y (n+1)p. Si (n+1)p es un número entero no negativo, entonces la distribución tiene dos modas : x1 = (n+ 1)p− 1 x2 = (n+ 1)p 8.2.1. Teorema de adición para distribuciones Binomiales Sean X1 ≡ B(n1, p), . . . , Xr ≡ B(nr, p) r v.a. Binomiales independientes. Entonces la nueva variable aleatoria Y = X1 + · · ·+Xr ≡ B(n1 + · · ·+ nr, p) Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = (q + p e it)nk k = 1, 2, . . . , r ϕY (t) = E[e itY ] = E[eit(X1+···+Xr)] = E[eitX1 × · · · × eitXr ] = E[eitX1 ]× · · · × E[eitXr ] = = ϕX1(t)× · · · × ϕXr(t) = (p eit + q)n1 × · · · × (p eit + q)nr = = (p eit + q)n1+···+nr Pero, esta es la función caracteŕıstica de una distribución Binomial de parámetros n = n1 + · · ·+ nr y p. 8 Distribuciones de probabilidad discretas 89 8.2.2. Distribución de la proporción Si realizamos n veces un experimento de Bernoulli, podemos interesarnos por el número de éxitos, para lo cual tenemos la distribución Binomial, o podemos estar intere- sados en la proporción de éxitos. Sean • X ≡ Número de éxitos al realizar n veces un experimento de Bernoulli ≡ B(n, p) • Y ≡ Proporción de éxitos al realizar n veces un experimento de Bernoulli = X n La v.a. Y no sigue una distribución Binomial, pero está relacionada con ella por una constante, n. Además, se tiene ϕY (t) = E[e itY ] = E[eit X n ] = E[ei t n X ] = ϕX( t n ) = ( q + p ei t n )n E[Y ] = E [ X n ] = 1 n E[X ] = 1 n np = p Var(Y ) = Var ( X n ) = 1 n2 Var(X) = 1 n2 npq = pq n 8.3. Distribución de Poisson, P(λ) Sea X la v.a. que describe el número de eventos que ocurren por unidad de tiempo o espacio, y λ el número medio de estos eventos que ocurren por unidad de tiempo o espacio. Imponemos, además, la restricción de que los eventos deben ser independientes entre śı y ocurrir con una tasa constante. En ese caso, se dice que X sigue una distribución de Poisson de parámetro λ, y cada uno de los eventos se denomina suceso de Poisson. De forma más general, una v.a. sigue una distribución de Poisson, si su función de probabilidad es de la forma P (X = x) = λx x! e−λ x = 0, 1, 2, . . . • ∞∑ x=0 P (X = x) = ∞∑ x=0 λx x! e−λ = e−λ ∞∑ x=0 λx x! = e−λeλ = 1 • Función Caracteŕıstica ϕ(t) = E[eitX ] = ∞∑ x=0 eitxP (X = x) = e−λ ∞∑ x=0 (λeit)x x! = e−λeλe it = eλ(e it−1) ϕ(t) = eλ(e it−1) 90 Estad́ıstica • Esperanza ϕ′(t) = iλeiteλ(e it−1) =⇒ ϕ′(0) = λi =⇒ E[X ] = ϕ ′(0) i = λ E[X ] = λ • Varianza ϕ′′(t) = i2λeiteλ(e it−1)[1 + λeit] =⇒ ϕ′′(0) = i2(λ+ λ2) E[X2] = ϕ′′(0) i2 = λ+ λ2 =⇒ Var(X) = E[X2]− (E[X ])2 = λ+ λ2 − λ2 = λ Var(X) = λ • Moda Supongamos que la moda es x, entonces, P (X = x) > P (X = x− 1) =⇒ λ x x! e−λ > λx−1 (x− 1)! e −λ =⇒ x < λ P (X = x) > P (X = x+ 1) =⇒ λ x x! e−λ > λx+1 (x+ 1)! e−λ =⇒ x > λ− 1 Por tanto, λ− 1 < x < λ es decir, la moda es el número entero, x, no negativo, que se encuentra entre λ−1 y λ. Si λ es un número entero no negativo, entonces la distribución tiene dos modas : x1 = λ− 1 x2 = λ 8.3.1. Teorema de adición para distribuciones de Poisson Sean X1 ≡ P(λ1), . . . , Xn ≡ P(λn) n v.a. de Poisson independientes. Entonces la nueva variable aleatoria Y = X1 + · · ·+Xn ≡ P(λ1 + · · ·+ λn) Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, 8 Distribuciones de probabilidad discretas 91 ϕXk(t) = e λk(e it−1) k = 1,2, . . . , n ϕY (t) = E[e itY ] = E[eit(X1+···+Xn)] = E[eitX1 × · · · × eitXn ] = E[eitX1 ]× · · · × E[eitXn ] = = ϕX1(t)× · · · × ϕXn(t) = eλ1(e it−1) × · · · × eλn(eit−1) = = e(λ1+···+λn)(e it−1) Pero, esta es la función caracteŕıstica de una distribución de Poisson de parámetro λ = λ1 + · · ·+ λn. 8.3.2. Probabilidad condicional Sean X1 ≡ P(λ1) y X2 ≡ P(λ2), dos v.a. de Poisson independientes. Ya hemos visto que entonces X1 +X2 ≡ P(λ1 + λ2). Pero, si consideramos la v.a. condicionada X1|X1+X2 su función de probabilidad será P ( X1 = x|X1+X2=y ) = P (X1 = x,X1 +X2 = y) P (X1 +X2 = y) = P (X1 = x,X2 = y − x) P (X1 +X2 = y) = = P (X1 = x)P (X2 = y − x) P (X1 +X2 = y) = λx1 x! e−λ1 λy−x2 (y−x)!e −λ2 (λ1+λ2)y y! e−(λ1+λ2) = = y! x! (y − x)! λx1 λ y−x 2 (λ1 + λ2)y = ( y x ) ( λ1 λ1 + λ2 )x ( λ2 λ1 + λ2 )y−x Pero, esta es la función de probabilidad de una distribución Binomial de parámetros n = y, p = λ1 λ1+λ2 , es decir X1|X1+X2 ≡ B ( n = y, p = λ1 λ1 + λ2 ) 92 Estad́ıstica 8.3.3. Aproximación de una Binomial por una Poisson Originalmente, Poisson determinó la distribución que lleva su nombre como el ĺımite de una B(n, p) cuando n tiende a infinito y p tiende a cero, manteniendo constante la esperanza, np. Si hacemos que n→ ∞ bajo la condición de que λ = np = cte, entonces ĺım n→∞ np = λ =⇒ p = λ n −→ 0 Veamos qué ocurre al introducir estos ĺımites en la función de probabilidad de una B(n, p) ĺım n→∞ p→0 P (B(n, p) = x) = ĺım n→∞ p→0 ( n x ) pxqn−x = ĺım n→∞ ( n x )( λ n )x( 1− λ n )n−x = = ĺım n→∞ n! x! (n− x)! λx nx ( 1− λ n )n−x = λx x! ĺım n→∞ n! nx (n− x)! ( 1− λ n )n ( 1− λ n )x = = λx x! ( ĺım n→∞ n(n− 1) · · · [n− (x− 1)] nx ) ĺım n→∞ ( 1− λ n )n ĺım n→∞ ( 1− λ n )x = λx x! ĺım n→∞ ( 1− λ n )n = = λx x! ĺım n→∞ ( 1 + 1 n −λ )−n λ −λ = λx x! e−λ = P (P(λ) = x) Es decir, para valores grandes de n y pequeños de p, de forma que el producto np tenga un valor moderado, una Binomial B(n, p) se puede aproximar por una Poisson, P(λ), siendo λ = np. En general, si np ≥ 5 y p ≤ 0.1 =⇒ B(n, p) ∼= P(λ = np) 8.4. Distribución Hipergeométrica, H(n,N,A) En urna hay N bolas de las cuales, A son blancas y N−A son negras. La probabilidad de sacar una bola blanca es p = A/N . Extraemos n bolas, bien sacando todas a la vez o bien una a una sin reemplazamiento, y definimos la v.a. X como el número de bolas blancas entre las n extráıdas, entonces, 8 Distribuciones de probabilidad discretas 93 P (X = x) = ( A x )( N − A n− x ) ( N n ) x = 0, 1, 2, . . . , n NOTA.- Para algunos de estos valores de x, P (X = x) = 0. De hecho, debe ser máx{0, n−N + A} ≤ x ≤ mı́n{n,A} sin embargo, a lo largo del desarrollo, tomaremos 0 ≤ x ≤ n. • n∑ x=0 P (X = x) = 1( N n ) n∑ x=0 ( A x )( N − A n− x ) = 1( N n ) ( N n ) = 1 • Esperanza E[X ] = n∑ x=0 xP (X = x) = n∑ x=0 x ( A x )( N −A n− x ) ( N n ) = n∑ x=1 x ( A x )( N − A n− x ) ( N n ) = = n∑ x=1 x A! x! (A− x)! ( N − A n− x ) ( N n ) = A n∑ x=1 (A− 1)! (x− 1)! (A− x)! ( N −A n− x ) ( N n ) = = A n∑ x=1 ( A− 1 x− 1 )( N − A n− x ) ( N n ) = A n−1∑ y=0 ( A− 1 y )( (N − 1)− (A− 1) (n− 1)− y ) ( N n ) = = A n−1∑ y=0 ( A− 1 y )( (N − 1)− (A− 1) (n− 1)− y ) N n ( N − 1 n− 1 ) = nA N = np 94 Estad́ıstica E[X ] = n A N = np • Varianza Var(X) = N − n N − 1n A N ( 1− A N ) = (N − n)np(1− p) N − 1 8.5. Distribución Geométrica, G(p) Partimos de un experimento de Bernoulli, siendo p = P (éxito) y q = 1 − p = P (fracaso), y repetimos el experimento, siempre en las mismas condiciones, hasta que ocurre el primer éxito. De esta forma, definimos la v.a. X , como el número de fracasos hasta que se obtiene el primer éxito. Entonces, P (X = x) = p qx x = 0, 1, 2, . . . • ∞∑ x=0 P (X = x) = ∞∑ x=0 p qx = p ∞∑ x=0 qx = p 1 1− q = p 1 p = 1 • Función de distribución F (x) = x∑ k=0 P (X ≤ k) = x∑ k=0 p qk = p 1− qxq 1− q = 1− q x+1 • Función Caracteŕıstica ϕ(t) = E[eitX ] = ∞∑ x=0 eitxP (X = x) = p ∞∑ x=0 (q eit)x = p 1− q eit ϕ(t) = p 1− q eit • Esperanza ϕ′(t) = ipq eit (1− q eit)2 =⇒ ϕ ′(0) = ipq 1 (1− q)2 = q p i =⇒ E[X ] = ϕ ′(0) i = q p E[X ] = q p 8 Distribuciones de probabilidad discretas 95 • Varianza ϕ′′(t) = i2pq eit (1− q eit)2 + 2q eit(1− q eit) (1− q eit)4 ϕ′′(0) = i2pq (1− q)2 + 2q(1− q) (1− q)4 = i 2 q p2 (p+ 2q) E[X2] = ϕ′′(0) i2 = q p2 (p+ 2q) Var(X) = E[X2]− (E[X ])2 = qp+ 2q 2 p2 − q 2 p2 = qp+ q2 p2 = q(p+ q) p2 = q p2 Var(X) = q p2 8.6. Distribución Binomial Negativa, BN(r, p) Partimos de un experimento de Bernoulli, siendo p = P (éxito) y q = 1 − p = P (fracaso), y repetimos el experimento, siempre en las mismas condiciones, hasta que ocurre el n-ésimo éxito. De esta forma, definimos la v.a. X , como el número de fracasos hasta que se obtiene el n-ésimo éxito. Entonces, P (X = x) = ( x+ r − 1 x ) pr qx x = 0, 1, 2, . . . En general, si a ∈ R y n ∈ N, se define ( −a n ) = (−1)n ( a+ n− 1 n ) Utilizando esta expresión, tenemos P (X = x) = (−1)x ( −r x ) pr qx = ( −r x ) pr (−q)x x = 0, 1, 2, . . . expresión similar a la de una distribución Binomial. • ∞∑ x=0 P (X = x) = ∞∑ x=0 ( −r x ) pr (−q)x = pr (1− q)−r = 1 96 Estad́ıstica • Función Caracteŕıstica ϕ(t) = E[eitX ] = ∞∑ x=0 eitxP (X = x) = pr ∞∑ x=0 ( −r x ) (−q eit)x = ( p 1− q eit )r ϕ(t) = ( p 1− q eit )r • Esperanza ϕ′(t) = iprqr eit (1− q eit)r+1 =⇒ ϕ ′(0) = iprqr 1 (1− q)r+1 = i q p r =⇒ E[X ] = ϕ ′(0) i = q p r E[X ] = q p r • Varianza ϕ′′(t) = i2prqr eit (1− q eit)r+1 + (r + 1)q eit(1− q eit)r (1− q eit)2r+2 ϕ′′(0) = i2prqr (1− q)r+1 + (r + 1)q(1− q)r (1− q)2r+2 = i 2qr p + (r + 1)q p2 E[X2] = ϕ′′(0) i2 = qr p+ (r + 1)q p2 Var(X) = E[X2]− (E[X ])2 = rpq + r(r + 1)q 2 p2 − q 2r2 p2 = rqp+ rq2 p2 = rq(p+ q) p2 = q p2 r Var(X) = q p2 r 8.6.1. Teorema de adición para distribuciones Binomiales Ne- gativas Sean X1 ≡ BN(r1, p), . . . , Xn ≡ BN(rn, p) n v.a. Binomiales Negativas independien- tes. Entonces la nueva variable aleatoria Y = X1 + · · ·+Xn ≡ BN(r1 + · · ·+ rn, p) 8 Distribuciones de probabilidad discretas 97 Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = prk (1− q eit)rk k = 1, 2, . . . , n ϕY (t) = E[e itY ] = E[eit(X1+···+Xn)] = E[eitX1 × · · · × eitXn ] = E[eitX1 ]× · · · × E[eitXn ] = = ϕX1(t)× · · · × ϕXn(t) = pr1 (1− q eit)r1 × · · · × prn (1− q eit)rn = = pr1+···+rn (1− q eit)r1+···+rn Pero, esta es la función caracteŕıstica de una distribución Binomial Negativa de parámetros r = r1 + · · ·+ rn y p. 98 Estad́ıstica 9 Distribuciones de probabilidad continuas Índice 9.1. Distribución Uniforme, U(a, b) . . . . . . . . . . . . . . . . . . 100 9.2. Distribución Normal, N(µ, σ) . . . . . . . . . . . . . . . . . . . 101 9.2.1. Teorema de adición para distribuciones Normales . . . . . . . . 103 9.2.2. Distribución Normal estándar . . . . . . . . . . . . . . . . . . . 104 9.3. Distribución Log-Normal, Log-N(µ, σ) . . . . . . . . . . . . . . 105 9.4. Distribución χ2 de Pearson, χ2n . . . . . . . . . . . . . . . . . . 107 9.4.1. Teorema de adición para distribuciones χ2 de Pearson . . . . . 108 9.5. Distribución t-Student, tn . . . . . . . . . . . . . . . . . . . . . 109 9.6. Distribución F-Snedecor, Fn,m . . . . . . . . . . . . . . . . . . 110 9.7. Distribución Exponencial, Exp(λ) . . . . . . . . . . . . . . . . 111 9.7.1. Teorema de adición para distribuciones Exponenciales . . . . . 113 9.8. Distribución de Erlang Er(n, λ) . . . . . . . . . . . . . . . . . . 113 9.8.1. Teorema de adición para distribuciones de Erlang . . . . . . . . 115 9.9. Relación entre las distribuciones de Poisson, Exponencial y Erlang . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . 115 9.10. Distribución de Weibull, W(r, λ) . . . . . . . . . . . . . . . . . 117 9.11. Distribución Gamma, G(p, q) . . . . . . . . . . . . . . . . . . . 118 9.11.1. Teorema de adición para distribuciones Gamma . . . . . . . . . 119 9.12. Distribución Beta, B(p, q) . . . . . . . . . . . . . . . . . . . . . 120 9.12.1. Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 121 9.13. Relaciones entre distribuciones continuas . . . . . . . . . . . . 121 9.14. Distribución Normal Bidimensional . . . . . . . . . . . . . . . 123 99 100 Estad́ıstica 9.1. Distribución Uniforme, U(a, b) Una v.a. X se dice que sigue una distribución Uniforme, X ≡ U(a, b), si su función de densidad es de la forma f(x) = 1 b− a si a < x < b a b Figura 9.1: Función de densidad de una distribución U(a, b) • ∫ +∞ −∞ f(x) dx = ∫ b a 1 b− a dx = 1 • Función de Distribución F (x) = ∫ +∞ −∞ f(x) dx = ∫ x a 1 b− a dx = x− a b− a a ≤ x < b • Esperanza y Varianza E[X ] = ∫ +∞ −∞ xf(x) dx = ∫ b a x b− a = b+ a 2 E[X2] = ∫ +∞ −∞ x2f(x) dx = ∫ b a x2 b− a = b2 + a2 + ab 3 Var(X) = E[X2]− (E[X ])2 = b 2 + a2 + ab 3 − ( b+ a 2 )2 = (b− a)2 12 E[X ] = b+ a 2 Var(X) = (b− a)2 12 • Función Caracteŕıstica ϕ(t) = E[eitX ] = ∫ +∞ −∞ eitxf(x) dx = 1 b− a ∫ b a eitx dx = eibt − eiat i(b− a)t ∀t ∈ R ϕ(t) = eibt − eiat i(b− a)t 9 Distribuciones de probabilidad continuas 101 9.2. Distribución Normal, N(µ, σ) Una v.a. X se dice que sigue una distribución Normal, X ≡ N(µ, σ), si su función de densidad es de la forma f(x) = 1 σ √ 2π e − 1 2 ( x− µ σ )2 −∞ ≤ x ≤ +∞ Figura 9.2: Función de densidad de una distribución N(µ, σ) • ∫ +∞ −∞ f(x) dx = 1 σ √ 2π ∫ +∞ −∞ e− 1 2 ( x−µ σ ) 2 dx = 1√ 2π ∫ +∞ −∞ e− 1 2 u2 du = = 2√ 2π ∫ +∞ 0 e− 1 2 u2 du = 1√ π ∫ +∞ 0 z−1/2e−z dz = 1√ π Γ(1/2) = 1 • Función Caracteŕıstica ϕ(t) = E[eitX ] = ∫ +∞ −∞ eitxf(x) dx = 1 σ √ 2π ∫ +∞ −∞ eitxe− 1 2 ( x−µ σ ) 2 dx = = 1 σ √ 2π ∫ +∞ −∞ e− 1 2σ2 [(x−µ)2−2σ2itx] dx = 1 σ √ 2π ∫ +∞ −∞ e− 1 2σ2 [x2−2(µ+σ2it)x+µ2] dx = = 1 σ √ 2π ∫ +∞ −∞ e − 1 2σ2 [ (x−(µ+σ2it)) 2 +µ2−(µ+σ2it)2 ] dx = = e− µ2−(µ+σ2it)2 2σ2 σ √ 2π ∫ +∞ −∞ e − 1 2 x− (µ+ σ2it) σ 2 dx = 102 Estad́ıstica = e− σ4t2−2µσ2it 2σ2 σ √ 2π ∫ +∞ −∞ e− 1 2 u2σ du = eiµt− 1 2 σ2t2 σ √ 2π σ √ 2π = eiµt− 1 2 σ2t2 ϕ(t) = eiµt− 1 2 σ2t2 • Esperanza ϕ′(t) = (iµ− σ2t)eiµt− 12σ2t2 =⇒ ϕ′(0) = iµ =⇒ E[X ] = ϕ ′(0) i = µ E[X ] = µ • Varianza ϕ′′(t) = [−σ2 + (iµ− σ2t)2 ] eiµt− 12σ2t2 =⇒ ϕ′′(0) = −σ2 + i2µ2 E[X2] = ϕ′′(0) i2 = σ2 + µ2 Var(X) = E[X2]− (E[X ])2 = (σ2 + µ2)− µ2 = σ2 Var(X) = σ2 • Coeficiente de deformación ϕ′′′(0) = −3iσ2µ+ i3µ3 m3 = ϕ′′′(0) i3 = −ϕ ′′′(0) i = 3σ2µ+ µ3 M3 = ( 3 0 ) m3 − ( 3 1 ) m2µ+ ( 3 2 ) m1µ 2 − ( 3 3 ) µ3 = 0 D = M3 σ3 = 0 La distribución Normal es simétrica respecto a la media 9 Distribuciones de probabilidad continuas 103 • Coeficiente de curtosis ϕ(iv(0) = 3σ4 − 6i2σ2µ2 + i4µ4 m4 = ϕ(iv(0) i4 = 3σ4 + 6σ2µ2 + µ4 M4 = ( 4 0 ) m4 − ( 4 1 ) m3µ+ ( 4 2 ) m2µ 2 − ( 4 3 ) m1µ 3 + ( 4 4 ) µ4 = 3σ4 C = M4 σ4 − 3 = 0 La distribución Normal es mesocúrtica 9.2.1. Teorema de adición para distribuciones Normales Sean X1 ≡ N(µ1, σ1), . . . , Xn ≡ N(µn, σn), n v.a. Normales independientes. Enton- ces, la nueva variable aleatoria Y = b+ a1X1 + · · ·+ anXn ≡ N ( b+ a1µ1 + · · ·+ anµn, √ a21σ 2 1 + · · ·+ a2nσ2n ) Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = e iµkt− 12σ 2 k t2 k = 1, 2, . . . , n ϕY (t) = E[e itY ] = E [ ei(b+a1X1+···+anXn)t ] = E [ eibt × eia1tX1 × · · · × eiantXn ] = = eibt × E[eia1tX1 ]× · · · × E[eiantXn ] = = eibt × ϕX1(a1t)× · · · × ϕXn(ant) = = eibt × eia1µ1t− 12σ21a21t2 × · · · × eianµnt− 12σ2na2nt2 = = ei(b+a1µ1+···+anµn)t− 1 2 (a21σ 2 1+···+a2nσ2n)t2 104 Estad́ıstica Pero, esta es la función caracteŕıstica de una distribución Normal con media µ = b+ a1µ1 + · · ·+ anµn y varianza σ2 = a21σ21 + · · ·+ a2nσ2n. También se puede demostrar el teorema inverso, es decir, si la distribución de la suma de n variables aleatorias independientes es Normal, entonces cada una de las varia- bles sigue una distribución Normal. Por otra parte, la distribución Normal nunca puede obtenerse exactamente como suma de variables aleatorias no Normales. 9.2.2. Distribución Normal estándar Dentro de las distribuciones Normales, la más utilizada es la que tiene media µ = 0 y varianza σ2 = 1, llamada distribución Normal estándar, N(0, 1). • Función de densidad f(x) = 1√ 2π e− 1 2 x2 −∞ ≤ x ≤ +∞ • Función caracteŕıstica ϕ(t) = e− 1 2 t2 ∀t ∈ R • Como µ = 0, los momentos respecto a la media coinciden con los momentos respecto al origen, es decir, Mk = mk ∀k. • Como la distribución es simétrica, los momentos de orden impar son todos nulos, m2k+1 = 0 k = 0, 1, 2, . . . • Los momentos de orden par verifican m2k = (2k)! 2k k! k = 0, 1, 2, . . . En general, siempre podemos pasar de una N(µ, σ) a una N(0, 1) (lo que se llama tipificar la variable N(µ, σ)) y viceversa, por medio de una transformación lineal. 2 N(µ, σ) −→ N(0, 1) Sea Y ≡ N(µ, σ), entonces la nueva v.a. X = Y − µ σ ≡ N(0, 1) 9 Distribuciones de probabilidad continuas 105 2 N(0, 1) −→ N(µ, σ) Sea X ≡ N(0, 1), entonces la nueva v.a. Y = µ+ σX ≡ N(µ, σ) 9.3. Distribución Log-Normal, Log-N(µ, σ) Sea X ≡ N(µ, σ). Si realizamos la transformación Y = eX la distribución de la nueva v.a., llamada distribución Log-Normal, Log-N(µ, σ), es, GY (y) = P (Y ≤ y) = P (eX ≤ y) = P (X ≤ Ly) = FX(Ly) gY (y) = G ′ Y (y) = F ′ X(Ly) 1 y = fX(Ly) 1 y Por tanto, la función de densidad de una Log-N(µ, σ) es g(y) = 1 yσ √ 2π e− 1 2( Ly−µ σ ) 2 y ≥ 0 Figura 9.3: Función de densidad de una distribución Log-N(µ, σ) • ∫ +∞ −∞ g(y) dy = ∫ +∞ 0 1 yσ √ 2π e− 1 2( Ly−µ σ ) 2 dy = ∫ +∞ −∞ 1 σ √ 2π e− 1 2 ( x−µ σ ) 2 dx = 1 106 Estad́ıstica • Esperanza E[Y ] = ∫ +∞ −∞ yg(y) dy = 1 σ √ 2π ∫ +∞ 0 e− 1 2( Ly−µ σ ) 2 dy = = 1 σ √ 2π ∫ +∞ −∞ e− 1 2( x−µ σ ) 2 ex dx = 1 σ √ 2π ∫ +∞ −∞ e− 1 2σ2 [(x−µ)2−2σ2x] dx = = 1 σ √ 2π ∫ +∞ −∞ e− 1 2σ2 [(x−(µ+σ2))2+µ2−(µ+σ2)2] dx = = e− 1 2σ2 (µ2−(µ+σ2)2) σ √ 2π ∫ +∞ −∞ e − 1 2 [ x−(µ+σ2) σ ]2 dx = = eµ+ 1 2 σ2 σ √ 2π ∫ +∞ −∞ e− 1 2 u2σ du = eµ+ 1 2 σ2 σ √ 2π σ √ 2π = eµ+ 1 2 σ2 E[Y ] = e µ+ 1 2 σ2 • Varianza E[Y 2] = ∫ +∞ −∞ y2g(y) dy = 1 σ √ 2π ∫ +∞ 0 ye− 1 2( Ly−µ σ ) 2 dy = = 1 σ √ 2π ∫ +∞ −∞ e− 1 2( x−µ σ ) 2 e2x dx = 1 σ √ 2π ∫ +∞ −∞ e− 1 2σ2 [(x−µ)2−4σ2x] dx = = 1 σ √ 2π ∫ +∞ −∞ e− 1 2σ2 [(x−(µ+2σ2))2+µ2−(µ+2σ2)2] dx = = e− 1 2σ2 (µ2−(µ+2σ2)2) σ √ 2π ∫ +∞ −∞ e − 1 2 [ x−(µ+2σ2) σ ]2 dx = = e2µ+2σ 2 σ √ 2π ∫ +∞ −∞ e− 1 2 u2σ du = e2µ+2σ 2 σ √ 2π σ √ 2π = e2µ+2σ 2 Var(Y ) = E[Y 2]− E[Y ]2 = e2µ+2σ2 − e2µ+σ2 = e2µ+σ2(eσ2 − 1) Var(Y ) = ( eσ 2 − 1 ) e2µ+ σ 2 9 Distribuciones de probabilidad continuas 107 9.4. Distribución χ2 de Pearson, χ2n Sean X1, . . . , Xn, n v.a. independientes e idénticamente distribuidas según una N(0, 1). Entonces, la variable aleatoria X = X21 + · · ·+X2n = [N(0, 1)]2 + · · ·+ [N(0, 1)]2 ≡ χ2n sigue una distribución χ2 de Pearson con n grados de libertad, χ2n, con función de densidad f(x) = 1 2n/2 Γ (n 2 ) xn2−1 e−x2 x ≥ 0 Figura 9.4: Función de densidad de una distribución χ2n • ∫ +∞ −∞ f(x) dx = 1 2n/2 Γ (n 2 ) ∫ +∞ 0 x n 2 −1 e− x 2 dx = = 1 2n/2 Γ (n 2 ) ∫ +∞ 0 2 n 2 −1 u n 2 −1 e−u 2 du = 1 Γ (n 2 ) Γ (n 2 ) = 1 • Función caracteŕıstica ϕ(t) = E[eitX ] = ∫ +∞ −∞ eitxf(x) dx = 1 2n/2 Γ (n 2 ) ∫ +∞ 0 eitx x n 2 −1 e− x 2 dx = = 1 2n/2 Γ (n 2 ) ∫ +∞ 0 x n 2 −1 e−( 1 2 −it)x dx = 108 Estad́ıstica = 1 2n/2 Γ (n 2 ) ∫ +∞ 0 ( 2 1− 2it )n 2 −1 u n 2 −1 e−u 2 1− 2it du = = 1 Γ (n 2 ) ( 1 1− 2it)n 2 Γ (n 2 ) = ( 1 1− 2it )n 2 ϕ(t) = (1− 2it)−n/2 • Esperanza ϕ′(t) = in(1 − 2it)−1−n/2 =⇒ ϕ′(0) = in =⇒ E[X ] = ϕ ′(0) i = n E[X ] = n • Varianza ϕ′′(t) = i2n(n + 2)(1− 2it)−2−n/2 =⇒ ϕ′′(0) = i2n(n+ 2) E[X2] = ϕ′′(0) i2 = n2 + 2n Var(X) = E[X2]− (E[X ])2 = n2 + 2n− n2 = 2n Var(X) = 2n 9.4.1. Teorema de adición para distribuciones χ2 de Pearson Sean X1 ≡ χ2n1 , . . . , Xr ≡ χ2nr , r variables aleatorias χ2 de Pearson independientes. Entonces la nueva variable aleatoria Y = X1 + · · ·+Xr ≡ χ2n1+···+nr Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = (1− 2it)−nk/2 k = 1, 2, . . . , r 9 Distribuciones de probabilidad continuas 109 ϕY (t) = E[e itY ] = E[eit(X1+···+Xr)] = E[eitX1 ]× · · · × E[eitXr ] = = ϕX1(t)× · · · × ϕXr(t) = (1− 2it)−n1/2 × · · · × (1− 2it)−nr/2 = = (1− 2it)−n1+···+nr2 Pero, esta es la función caracteŕıstica de una distribución χ2 de Pearson con n = n1 + · · ·+ nr grados de libertad. 9.5. Distribución t-Student, tn Sean Y,X1, . . . , Xn, n+1 v.a. independientes e idénticamente distribuidas según una N(0, 1). Entonces, la variable aleatoria X = Y√ X21 + · · ·+X2n n = N(0, 1)√ χ2n n ≡ tn sigue una distribución t-Student con n grados de libertad, tn, con función de densidad f(x) = Γ ( n + 1 2 ) √ nπ Γ (n 2 ) ( 1 + x2 n )−n+1 2 x ∈ R Figura 9.5: Función de densidad de una distribución tn • ∫ +∞ −∞ f(x) dx = 1 =⇒ ∫ +∞ −∞ ( 1 + x2 n )−n+1 2 dx = √ nπ Γ (n 2 ) Γ ( n + 1 2 ) 110 Estad́ıstica • Esperanza E[X ] = ∫ +∞ −∞ xf(x) dx = Γ ( n+ 1 2 ) √ nπ Γ (n 2 ) ∫ +∞ −∞ x ( 1 + x2 n )−n+1 2 dx = 0 pues el integrando es una función impar. E[X ] = 0 (n > 1) • Varianza E[X2] = ∫ +∞ −∞ x2f(x) dx = Γ ( n + 1 2 ) √ nπ Γ (n 2 ) ∫ +∞ −∞ x2 ( 1 + x2 n )−n+1 2 dx = = Γ ( n+ 1 2 ) √ nπ Γ (n 2 ) n n− 1 ∫ +∞ −∞ ( 1 + x2 n )−n−1 2 dx = = Γ ( n+ 1 2 ) √ nπ Γ (n 2 ) n n− 1 √ nπ Γ ( n− 2 2 ) Γ ( n− 1 2 ) = n n− 2 Var(X) = E[X2]− E[X ]2 = n n− 2 Var(X) = n n− 2 (n > 2) 9.6. Distribución F-Snedecor, Fn,m Sean X1, . . . , Xn e Y1, . . . , Ym, n+m v.a. independientes e idénticamente distribuidas según una N(0, 1). Entonces, la variable aleatoria X = X21 + · · ·+X2n n Y 21 + · · ·+ Y 2m m = χ2n n χ2m m ≡ Fn,m 9 Distribuciones de probabilidad continuas 111 sigue una distribución F-Snedecor con n y m grados de libertad, Fn,m, con función de densidad f(x) = nn/2mm/2 Γ ( n +m 2 ) Γ (n 2 ) Γ (m 2 ) xn2 −1 (m+ nx)−n+m2 x ≥ 0 Figura 9.6: Función de densidad de una distribución Fn,m • Esperanza E[X ] = m m− 2 (m > 2) • Varianza Var[X ] = 2m2 (n+m− 2) n (m− 2)2 (m− 4) (m > 4) • Si X ≡ Fn,m =⇒ 1 X ≡ Fm,n 9.7. Distribución Exponencial, Exp(λ) Una v.a. X se dice que sigue una distribución Exponencial de parámetro λ > 0, X ≡ Exp(λ), si su función de densidad es de la forma f(x) = λ e−λx x ≥ 0 112 Estad́ıstica Figura 9.7: Función de densidad de una distribución Exp(λ) • ∫ +∞ −∞ f(x) dx = ∫ +∞ 0 λ e−λx dx = 1 • Función de distribución F (x) = ∫ x −∞ f(x) dx = ∫ x 0 λ e−λx dx = 1− e−λx • Función caracteŕıstica ϕ(t) = E[eitX ] = ∫ +∞ −∞ eitxf(x) dx = ∫ +∞ 0 λ e−(λ−it)x dx = λ λ− it ϕ(t) = λ λ− it • Esperanza ϕ′(t) = λi (λ− it)2 =⇒ ϕ ′(0) = i λ =⇒ E[X ] = ϕ ′(0) i = 1 λ E[X ] = 1 λ • Varianza ϕ′′(t) = 2λi2 (λ− it)3 ϕ′′(0) = 2i2 λ2 9 Distribuciones de probabilidad continuas 113 E[X2] = ϕ′′(0) i2 = 2 λ2 Var(X) = E[X2]− (E[X ])2 = 2 λ2 − 1 λ2 = 1 λ2 Var[X ] = 1 λ2 9.7.1. Teorema de adición para distribuciones Exponenciales Sean X1 ≡ Exp(λ), . . . , Xn ≡ Exp(λ), n v.a. Exponenciales independientes. Enton- ces la nueva variable aleatoria Y = X1 + · · ·+Xn ≡ Er(n, λ) Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = λ λ− it k = 1, 2, . . . , n ϕY (t) = E[e itY ] = E[eit(X1+···+Xn)] = E[eitX1 × · · · × eitXn ] = E[eitX1 ]× · · · × E[eitXn ] = = ϕX1(t)× · · · × ϕXn(t) = λ λ− it × · · · × λ λ− it = ( λ λ− it )n Pero, esta es la función caracteŕıstica de una distribución de Erlang de parámetros n y λ (Sec. 9.8). 9.8. Distribución de Erlang Er(n, λ) Una v.a. X se dice que sigue una distribución de Erlang de parámetros n y λ > 0, X ≡ Er(n, λ), si su función de densidad es de la forma f(x) = λn Γ(n) xn−1 e−λx x ≥ 0 • ∫ +∞ −∞ f(x) dx = λn Γ(n) ∫ +∞ 0 xn−1 e−λx dx = λn Γ(n) ∫ +∞ 0 (u λ )n−1 e−u 1 λ du = = 1 Γ(n) ∫ +∞ 0 un−1 e−u du = 1 Γ(n) Γ(n) = 1 114 Estad́ıstica Figura 9.8: Función de densidad de una distribución Er(n, λ) • Función caracteŕıstica ϕ(t) = E[eitX ] = ∫ +∞ −∞ eitxf(x) dx = λn Γ(n) ∫ +∞ 0 xn−1 e−(λ−it)x dx = = λn Γ(n) ∫ +∞ 0 ( u λ− it )n−1 e−u 1 λ− it du = λn Γ(n) 1 (λ− it)n ∫ +∞ 0 un−1 e−u du = = λn Γ(n) 1 (λ− it)n Γ(n) = ( λ λ− it )n ϕ(t) = ( λ λ− it )n • Esperanza ϕ′(t) = nλni (λ− it)n+1 =⇒ ϕ ′(0) = ni λ =⇒ E[X ] = ϕ ′(0) i = n λ E[X ] = n λ • Varianza ϕ′′(t) = n(n + 1)λni2 (λ− it)n+2 ϕ′′(0) = n(n+ 1)i2 λ2 9 Distribuciones de probabilidad continuas 115 E[X2] = ϕ′′(0) i2 = n(n+ 1) λ2 Var(X) = E[X2]− (E[X ])2 = n(n+ 1) λ2 − n 2 λ2 = n λ2 Var[X ] = n λ2 9.8.1. Teorema de adición para distribuciones de Erlang Sean X1 ≡ Er(n1, λ), . . . , Xr ≡ Er(nr, λ), r v.a. de Erlang independientes. Entonces la nueva variable aleatoria Y = X1 + · · ·+Xr ≡ Er(n1 + · · ·+ nr, λ) Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = ( λ λ− it )nk k = 1, 2, . . . , r ϕY (t) = E[e itY ] = E[eit(X1+···+Xr)] = E[eitX1 × · · · × eitXr ] = E[eitX1 ]× · · · × E[eitXr ] = = ϕX1(t)× · · · × ϕXr(t) = ( λ λ− it )n1 × · · · × ( λ λ− it )nr = ( λ λ− it )n1+···+nr Pero, esta es la función caracteŕıstica de una distribución de Erlang de parámetros n = n1 + · · ·+ nr y λ. 9.9. Relación entre las distribuciones de Poisson, Ex- ponencial y Erlang En la sección 8.3, definimos la v.a. de Poisson, P(λ), como la variable que cuenta el número de eventos que ocurren por unidad de tiempo o espacio, siendo λ el número medio de estos eventos que ocurren por unidad de tiempo o espacio. Lógicamente, el número medio de eventos que ocurren en t unidades de tiempo o espacio será (λ× t), por tanto, la v.a. que cuenta el número de eventos que ocurren en t unidades de tiempo o espacio sigue una distribución de Poisson, P(λ× t), de parámetro (λ× t). Aśı, sean 116 Estad́ıstica • X ≡ P(λ) ≡ Número de eventos de Poisson que ocurren en una unidad de tiempo P (X = x) = P (ocurran x eventos en una unidad de tiempo) = = λx x! e−λ x = 0, 1, 2, . . . • Xt ≡ P(λt) ≡ Número de eventos de Poisson que ocurren en t unidades de tiempo P (Xt = x) = P (ocurran x eventos en t unidades de tiempo) = = (λt)x x! e−λt x = 0, 1, 2, . . . Supongamos que estamos interesados en saber cuándo ocurre el primero de estos eventos de Poisson; es decir, sea • Y ≡ Tiempo transcurrido hasta que ocurre el primer evento de Poisson GY (t) = P (Y ≤ t) = = P (el primer evento ocurra antes de t unidades de tiempo) = = 1− P (Y ≥ t) = = 1− P (el primer evento ocurra pasadas t unidades de tiempo) = = 1− P (en t unidades de tiempo ocurran 0 eventos de Poisson) = = 1− P (Xt = 0) = 1− e−λt (λt)0 0! = 1− e−λt Pero, esta es la función de distribución de una Exponencial de parámetro λ. Por tanto, Y ≡ Exp(λ) 9 Distribuciones de probabilidad continuas 117 Supongamos ahora, que estamos interesados en saber cuándo ocurre el n-ésimo de estos eventos de Poisson; es decir, sea • Z ≡ Tiempo transcurrido hasta que ocurre el n-ésimo evento de Poisson Como los sucesos de Poisson ocurren de forma independiente, una vez que ocurre un suceso de Poisson, ese instante es el origen de tiempos para el suceso siguiente, es decir Z ≡ Tiempo transcurrido hasta que ocurre eln-ésimo evento de Poisson ≡ ≡ Tiempo transcurrido hasta que ocurre el 1er evento de Poisson+ +Tiempo transcurrido entre el 1o y el 2o eventos de Poisson+ +Tiempo transcurrido entre el 2o y el 3o eventos de Poisson+ + · · ·+ Tiempo transcurrido entre el (n− 1)o y el no eventos de Poisson ≡ ≡ Exp(λ) + Exp(λ) + Exp(λ) + · · ·+ Exp(λ) ≡ Er(n, λ) Por tanto, Z ≡ Er(n, λ) 9.10. Distribución de Weibull, W(r, λ) Sea X una v.a. con distribución Exponencial de parámetro λ, es decir, X ≡ Exp(λ). Se dice que la variable aleatoria Y sigue una distribución de Weibull de parámetros r > 0 y λ, Y ≡ W(r, λ), si es Y = X1/r Veamos algunas propiedades de la distribución de Weibull • Función de densidad GY (y) = P (Y ≤ y) = P (X1/r ≤ y) = P (X ≤ yr) = FX(yr) gY (y) = G ′ Y (y) = F ′ X(y r)ryr−1 = fX(y r)ryr−1 Por tanto, 118 Estad́ıstica gY (y) = λ r y r−1e−λy r y ≥ 0 • Esperanza E[Y ] = E[X1/r] = ∫ +∞ −∞ x1/rfX(x) dx = λ ∫ +∞ 0 x1/re−λx dx = = λ Γ ( 1 + 1 r ) λ1+ 1 r = λ− 1 r Γ ( 1 + 1 r ) E[Y ] = λ−1/r Γ ( 1 + 1 r ) • Varianza E[Y 2] = E[X2/r] = ∫ +∞ −∞ x2/rfX(x) dx = λ ∫ +∞ 0 x2/re−λx dx = = λ Γ ( 1 + 2 r ) λ1+ 2 r = λ− 2 r Γ ( 1 + 2 r ) Var(Y ) = E[Y 2]− (E[Y ])2 = λ− 2r [ Γ ( 1 + 2 r ) − Γ2 ( 1 + 1 r )] Var(Y ) = λ−2/r [ Γ ( 1 + 2 r ) − Γ2 ( 1 + 1 r )] 9.11. Distribución Gamma, G(p, q) Una v.a. X se dice que sigue una distribución Gamma de parámetros p > 0 y q > 0, X ≡ G(p, q), si su función de densidad es de la forma f(x) = qp Γ(p) xp−1 e−qx x ≥ 0 Como se puede comprobar, la distribución de Erlang es un caso particular de la distribución Gamma, para p = n y q = λ. Es decir, Er(n, λ) = G(p = n, q = λ). Por tanto los cálculos son los mismos y no los vamos a repetir, sólo citaremos los resultados. • Función caracteŕıstica ϕ(t) = ( q q − it )p 9 Distribuciones de probabilidad continuas 119 Figura 9.9: Función de densidad de una distribución G(p, q) • Esperanza y Varianza E[X ] = p q Var[X ] = p q2 9.11.1. Teorema de adición para distribuciones Gamma Sean X1 ≡ G(p1, q), . . . , Xn ≡ G(pn, q), n v.a. Gamma independientes. Entonces la nueva variable aleatoria Y = X1 + · · ·+Xn ≡ G(p1 + · · ·+ pn, q) Para demostrarlo, utilizamos las funciones caracteŕısticas de las variables Xk, y el hecho de que son independientes, ϕXk(t) = ( q q − it )pk k = 1, 2, . . . , n ϕY (t) = E[e itY ] = E[eit(X1+···+Xn)] = E[eitX1 × · · · × eitXn ] = E[eitX1 ]× · · · × E[eitXn ] = = ϕX1(t)× · · · × ϕXn(t) = ( q q − it )p1 × · · · × ( q q − it )pn = ( q q − it )p1+···+pn Pero, esta es la función caracteŕıstica de una distribución Gamma de parámetros p = p1 + · · ·+ pn y q. 120 Estad́ıstica 9.12. Distribución Beta, B(p, q) Una v.a. X se dice que sigue una distribución Beta de parámetros p > 0 y q > 0, X ≡ B(p, q), si su función de densidad es de la forma f(x) = 1 β(p, q) xp−1 (1− x)q−1 0 ≤ x ≤ 1 Figura 9.10: Función de densidad de una distribución B(p, q) • ∫ +∞ −∞ f(x) dx = 1 β(p, q) ∫ 1 0 xp−1 (1− x)q−1 dx = 1 β(p, q) β(p, q) = 1 • Esperanza E[X ] = ∫ +∞ −∞ xf(x) dx = 1 β(p, q) ∫ 1 0 xp (1− x)q−1 dx = 1 β(p, q) β(p+ 1, q) = = Γ(p+ q) Γ(p)Γ(q) Γ(p+ 1)Γ(q) Γ(p+ q + 1) = Γ(p+ q) Γ(p) pΓ(p) (p+ q)Γ(p+ q) = p p+ q E[X ] = p p+ q • Varianza E[X2] = ∫ +∞ −∞ x2f(x) dx = 1 β(p, q) ∫ 1 0 xp+1 (1− x)q−1 dx = = 1 β(p, q) β(p+ 2, q) = Γ(p+ q) Γ(p)Γ(q) Γ(p+ 2)Γ(q) Γ(p+ q + 2) = 9 Distribuciones de probabilidad continuas 121 = Γ(p+ q) Γ(p) (p+ 1)pΓ(p) (p+ q + 1)(p+ q)Γ(p+ q) = (p+ 1)p (p+ q + 1)(p+ q) Var(X) = E[X2]− (E[X ])2 = (p+ 1)p (p+ q + 1)(p+ q) − ( p p+ q )2 = = pq (p+ q + 1) (p+ q)2 Var(X) = pq (p+ q + 1) (p+ q)2 9.12.1. Transformaciones • Sean X1 ≡ G(p1, 1) y X2 ≡ G(p2, 1) dos v.a. Gamma independientes, entonces X1 X1 +X2 ≡ B(p1, p2) • Sea X ≡ Fn,m una v.a. F-Snedecor, entonces ( 1 + n m X )−1 ≡ B(m/2, n/2) nX m+ nX ≡ B(n/2, m/2) 9.13. Relaciones entre distribuciones continuas En la figura 9.13 se muestra un croquis de las relaciones que existen entre las distintas distribuciones continuas estudiadas en este caṕıtulo. 122 Estad́ıstica N(0,1) t F G(p,q) B(p,q) U(0,1) U(a,b)W(r, Log-N( µ,σ )N( µ,σ) χ Exp(λ) λ) Er(n, a=0 λ)n m,n n 2 m=1 n=2 r=1 p=1 q=1 n=1 p=n q= n n µ=0 σ=1 µ= p=n /2 q= 1/2 λ σ 2 = p2 q q a + (b-a) χ 2 m χ n 2 n ( e Ln 1/r pq caso particular transformacion distribucion limite ver distribucion Beta ) −λ Ln m X X X X X 1 21 + X + + X1 n X X X + + X 1 n 22 X b=1 Figura 9.11: Relaciones entre distribuciones continuas 9 Distribuciones de probabilidad continuas 123 9.14. Distribución Normal Bidimensional Una v.a. bidimensional (X, Y ) se dice que sigue una distribución Normal Bidimen- sional, si su función de densidad conjunta, definida en R2, es de la forma f(x, y) = 1 2πσXσY √ 1− ρ2 × exp { − 1 2(1− ρ2) [( x− µX σX )2 − 2ρ ( x− µX σX )( y − µY σY ) + ( y − µY σY )2]} siendo µX = E[X ] σ 2 X = Var(X) µY = E[Y ] σ 2 Y = Var(Y ) ρ = Cov(X, Y )√ Var(X) √ Var(Y ) = σXY σXσY Coeficiente de correlación lineal de (X, Y ) • Función caracteŕıstica ϕ(t1, t2) = E[e it1X+it2Y ] = ei(µX t1+µY t2)− 1 2 (σ2 X t21+2ρσXσY t1t2+σ 2 Y t22) • Distribuciones marginales ϕX(t) = ϕ(t, 0) = e iµX t− 12σ 2 X t 2 =⇒ X ≡ N(µX , σX) ϕY (t) = ϕ(0, t) = e iµY t− 12σ 2 Y t 2 =⇒ Y ≡ N(µY , σY ) Por tanto, las funciones de densidad marginales son fX(x) = ∫ +∞ −∞ f(x, y) dy = 1 σX √ 2π e − 1 2 ( x−µX σX )2 x ∈ R fY (y) = ∫ +∞ −∞ f(x, y) dy = 1 σY √ 2π e − 1 2 ( y−µY σY )2 y ∈ R Es decir, si (X, Y ) es una v.a. Normal Bidimensional, entonces X e Y son v.a. Normales unidimensionales. En general, lo contrario no es cierto. O sea, si X e Y son v.a. 124 Estad́ıstica Normales unidimensionales, la v.a. (X, Y ) no siempre es una Normal Bidimensional. Lo vemos con un ejemplo Ejemplo.- Sea (X, Y ) una v.a. bidimensional con función de densidad conjunta f(x, y) = 1 2 [ ρ 2π √ 1− ρ2 e − 1 2(1−ρ2) (x2−2ρxy+y2) + + ρ 2π √ 1− ρ2 e − 1 2(1−ρ2) (x2+2ρxy+y2) ] (x, y) ∈ R2 Claramente, (X, Y ) no es Normal Bidimensional, sin embargo, las distribuciones marginales de X e Y son fX(x) = ∫ +∞ −∞ f(x, y) dy = 1√ 2π e− x2 2 x ∈ R fY (y) = ∫ +∞ −∞ f(x, y) dy = 1√ 2π e− y2 2 y ∈ R es decir, X ≡ N(0, 1) e Y ≡ N(0, 1). • Distribuciones condicionadas f(x|y) = f(x, y) fY (y) = 1√ 2πσX √ 1− ρ2 e − 1 2σ2 X (1−ρ2) [ x− ( µX+ρ σX σY (y−µY ) )]2 f(y|x) = f(x, y) fX(x) = 1√ 2πσY √ 1− ρ2 e − 1 2σ2 Y (1−ρ2) [ y− ( µY +ρ σY σX (x−µX) )]2 Por tanto, X|Y ≡ N(µ, σ) con µ = µX + ρ σX σY (y − µY ) σ = σX √ 1− ρ2 Y |X ≡ N(µ, σ) con µ = µY + ρ σY σX (x− µX) σ = σY √ 1− ρ2 Como se puede comprobar, si ρ = 0, entonces X|Y ≡ N(µX , σX) Y |X ≡ N(µY , σY ) 9 Distribuciones de probabilidad continuas 125 • Combinación lineal de v.a. Normales Sea (X, Y ) una v.a. Normal Bidimensional, entonces la variable aleatoria Z = aX + bY ≡ N ( aµX + bµY , √ a2σ2X + 2abρσXσY + b 2σ2Y ) Vamos a demostrarlo utilizando la función caracteŕıstica. ϕZ(t) = E[e itZ ] = E[eit(aX+bY )] = E[ei(at)X+i(bt)Y )] = = ϕ(at, bt) = ei(aµX+bµY )t− 1 2 (a2σ2X+2abρσXσY +b 2σ2Y )t 2 Pero, esta es la función caracteŕıstica de una distribución Normal de parámetros µ = aµX + bµY y σ 2 = a2σ2X + 2abρσXσY + b 2σ2Y . Como se puede comprobar fácilmente, si ρ = 0, entonces Z = aX + bY ≡ N ( aµX + bµY , √ a2σ2X + b 2σ2Y ) • Independencia de v.a. Normales Sea (X, Y ) una v.a. Normal Bidimensional, entonces se cumple X e Y son independientes ⇐⇒ ρ = 0 2 Si X e Y son independientes =⇒ Cov(X, Y ) = 0 =⇒ ρ = 0. (Esto es válido para cualquier v.a. bidimensional (X, Y )) 2 En sentido contrario, si ρ = 0 =⇒ f(x, y) = 1 2πσXσY e − 1 2 [( x−µX σX )2 + ( y−µY σY )2] = 1√ 2π σX e − 1 2 ( x−µX σX )2 × 1√ 2π σY e − 1 2 ( y−µY σY )2 = fX(x) fY (y) Por tanto, f(x, y) = fX(x) fY (y), y X e Y son independientes.• Resumen de las propiedades de la v.a. Normal Bidimensional 2 Si (X, Y ) es Normal Bidimensional =⇒ X e Y son Normales Unidimensionales. 2 Si X e Y son Normales Unidimensionales independientes =⇒ (X, Y ) es Normal Bidimensional. 126 Estad́ıstica 2 Si X e Y son Normales Unidimensionales no independientes =⇒/ (X, Y ) es Normal Bidimensional. 2 Si (X, Y ) es Normal Bidimensional =⇒ Z = aX + bY es Normal Unidimensional. 2 Si (X, Y ) es Normal Bidimensional =⇒ X|Y e Y |X son Normales Unidimensionales. 2 Si (X, Y ) es Normal Bidimensional =⇒ X e Y son independientes ⇐⇒ ρ = 0. 10 Convergencia de sucesiones de variables aleatorias Índice 10.1. Convergencia en ley . . . . . . . . . . . . . . . . . . . . . . . . . 128 10.2. Problema central del ĺımite . . . . . . . . . . . . . . . . . . . . 129 10.2.1. Teorema de Levy-Lindeberg . . . . . . . . . . . . . . . . . . . . 129 10.2.2. Teorema de Lindeberg . . . . . . . . . . . . . . . . . . . . . . . 129 10.3. Aproximaciones a la distribución Normal . . . . . . . . . . . . 130 10.3.1. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . 130 10.3.2. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . 131 10.3.2.1. Corrección de Yates . . . . . . . . . . . . . . . . . . . 131 10.3.3. Distribución χ2 de Pearson . . . . . . . . . . . . . . . . . . . . 132 10.3.4. Distribución t-Student . . . . . . . . . . . . . . . . . . . . . . . 132 127 128 Estad́ıstica 10.1. Convergencia en ley Sea {Fn} una sucesión de funciones de distribución. Se dice que {Fn} converge en ley o en distribución a la función de distribución F , si ĺım n→∞ Fn(x) = F (x) ∀x ∈ CF siendo CF el conjunto de puntos de continuidad de F . La notación será {Fn} L−→ F Ejemplo.- Sea Fn(x) = 0 x < 0 nx 0 ≤ x < 1 n 1 x ≥ 1 n =⇒ ĺım n→∞ Fn(x) = G(x) = { 0 x ≤ 0 1 x > 0 pero, G no es una función de distribución (no es continua por la derecha en x = 0), por tanto, {Fn} no converge en ley a G. En cambio, si consideramos F (x) = { 0 x < 0 1 x ≥ 0 F es función de distribución, y {Fn} converge en ley a F , pues ĺım n→∞ Fn(x) = F (x) ∀x ∈ R− {0} pero 0 ∈/CF , por tanto ĺım n→∞ Fn(x) = F (x) ∀x ∈ CF Consideremos ahora una sucesión de v.a., {Xn}, con funciones de distribución {Fn} y funciones caracteŕısticas {ϕn}. Y, sea X una v.a. con función de distribución F y función caracteŕıstica ϕ. Entonces • Se dice que {Xn} converge en ley a la v.a. X , si {Fn} converge en ley a F , y se notará por {Xn} L−→ X • Si {Fn} converge en ley a F , entonces {ϕn} converge puntualmente a ϕ, es decir ĺım n→∞ ϕn(t) = ϕ(t) ∀t ∈ R • Si {ϕn} converge puntualmente a una función ψ continua en 0, entonces ψ es la función caracteŕıstica asociada a una v.a. Y con función de distribución G, y se cumple que {Fn} converge en ley a G. 10 Convergencia de sucesiones de variables aleatorias 129 10.2. Problema central del ĺımite Dada una sucesión de v.a., {Xn}, definidas sobre el mismo espacio probabiĺıstico, se dice que verifica el problema central del ĺımite, si se cumple n∑ k=1 Xk − E [ n∑ k=1 Xk ] √√√√Var ( n∑ k=1 Xk ) L−→ N(0, 1) 10.2.1. Teorema de Levy-Lindeberg Sea {Xn} una sucesión de v.a. independientes e idénticamente distribuidas, con E[Xn] = µ < +∞ y Var(Xn) = σ2 < +∞. Entonces, {Xn} verifica el problema central del ĺımite. Es decir n∑ k=1 Xk =⇒ E [ n∑ k=1 Xk ] = n∑ k=1 E[Xk] = nµ Var ( n∑ k=1 Xk ) = n∑ k=1 Var(Xk) = nσ 2 y, se cumple n∑ k=1 Xk − E [ n∑ k=1 Xk ] √√√√Var ( n∑ k=1 Xk ) = n∑ k=1 Xk − nµ σ √ n L−→ N(0, 1) o, lo que es lo mismo n∑ k=1 Xk L−→ N(nµ, σ √ n ) 10.2.2. Teorema de Lindeberg Sea {Xn} una sucesión de v.a. independientes tales que : 130 Estad́ıstica i) Yn = n∑ i=1 Xi ii) E[Xn] = µn < +∞ ∀n ∈ N iii) ∃ k ≥ 3 tal que Mk(Xn) = E[(Xn − µn)k] < +∞ ∀n ∈ N iv) ĺım n→∞ n∑ i=1 Mk(Xi) σk(Yn) = ĺım n→∞ n∑ i=1 E[(Xi − µi)k] [√ Var(Yn) ]k = 0 Entonces, {Xn} verifica el problema central del ĺımite. Si k = 3, el Teorema de Lindeberg se conoce como Teorema de Liapunov. 10.3. Aproximaciones a la distribución Normal 10.3.1. Distribución Binomial Sea {Xn} una sucesión de v.a. independientes e idénticamente distribuidas según una B(1, p), es decir, Xn ≡ B(1, p) ∀n ∈ N. Entonces, n∑ k=1 Xk ≡ B(n, p) =⇒ E [ n∑ k=1 Xk ] = np Var ( n∑ k=1 Xk ) = npq y, se cumple n∑ k=1 Xk − E [ n∑ k=1 Xk ] √√√√Var ( n∑ k=1 Xk ) = B(n, p)− np√ npq L−→ N(0, 1) Es decir, para un n suficientemente grande se cumple que B(n, p)− np√ npq ∼= N(0, 1) =⇒ B(n, p) ∼= N(np,√npq ) En la práctica, esta aproximación es buena cuando np(1− p) > 5. 10 Convergencia de sucesiones de variables aleatorias 131 10.3.2. Distribución de Poisson Puesto que la distribución Binomial se comporta en el ĺımite como una Poisson, también ésta última se puede aproximar por una Normal. En la práctica, si λ > 5 entonces se puede utilizar la siguiente aproximación P(λ) ∼= N(λ, √ λ ) 10.3.2.1. Corrección de Yates Cuando una variable aleatoria discreta se aproxima por una variable aleatoria con- tinua, como es el caso de la Binomial o la Poisson por la Normal, surge un problema a la hora de calcular probabilidades. Por ejemplo, sabemos que P (x1 ≤ B(n, p) ≤ x2) 6= P (x1 < B(n, p) ≤ x2) P (B(n, p) = x) 6= 0 sin embargo, P ( x1 ≤ N(np, √ npq ) ≤ x2 ) = P ( x1 < N(np, √ npq ) ≤ x2 ) P ( N(np, √ npq ) = x ) = 0 Para resolver este problema se aplica la corrección de Yates, que consiste en ampliar o reducir el intervalo de integración de la v.a. continua, para asegurar la inclusión o exclusión de los ĺımites de la v.a. discreta. De forma general, si X es una v.a. discreta, e Y una v.a. continua tal que X ∼= Y , entonces P (X = x) ≃ P (x− 0.5 ≤ Y ≤ x+ 0.5) P (x1 < X ≤ x2) ≃ P (x1 + 0.5 ≤ Y ≤ x2 + 0.5) P (x1 ≤ X ≤ x2) ≃ P (x1 − 0.5 ≤ Y ≤ x2 + 0.5) P (x1 < X < x2) ≃ P (x1 + 0.5 ≤ Y ≤ x2 − 0.5) P (x1 ≤ X < x2) ≃ P (x1 − 0.5 ≤ Y ≤ x2 − 0.5) 132 Estad́ıstica 10.3.3. Distribución χ2 de Pearson Como la distribución Chi-cuadrado con n grados de libertad se define como la suma de n v.a. independientes e idénticamente distribuidas, cuando n ≥ 30 se puede utilizar la siguiente aproximación √ 2χ2n ∼= N (√ 2n− 1, 1 ) 10.3.4. Distribución t-Student Teniendo en cuenta que una distribución t-Student con n grados de libertad se define como el cociente tn = N(0, 1)√ χ2n n y, que la distribución χ2n se puede aproximar por una Normal, cuando n ≥ 30 se puede utilizar la siguiente aproximación tn ∼= N ( 0, √ n n− 2 ) 11 Regresión y correlación Índice 11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 11.2. Regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 11.2.1. Método de los mı́nimos cuadrados . . . . . . . . . . . . . . . . 134 11.2.2. Método de la distribución condicional . . . . . . . . . . . . . . 136 11.2.3. Regresión Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 137 11.2.3.1. Método de los mı́nimos cuadrados . . . . . . . . . . . 137 11.2.3.2. Método de la distribución condicional . . . . . . . . . 138 11.3. Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 11.3.1. Coeficiente de correlación lineal . . . . . . . . . . . . . . . . . . 140 133 134 Estad́ıstica 11.1. Introducción Sea (X, Y ) una v.a. bidimensional. Algo que nos podemos preguntar es si existe algún tipo de relación entre las dos variables que forman el par, es decir, si existe alguna función que las relaciona. Por supuesto, el hecho de que exista alguna relación entre ellas implica que no son independientes. Tenemos pues dos objetivos, 1.- Determinar la función Y = h1(X) que mejor expresa el comportamiento de la v.a. Y para cada valor que pueda tomar X . Esta función se conoce como curva de regresión de Y sobre X . Igualmente, se puededeterminar la función X = h2(Y ) que mejor expresa el comportamiento de la v.a. X para cada valor que pueda tomar Y . Esta función se conoce como curva de regresión de X sobre Y . 2.- Medir el grado de asociación que pueda existir entre las dos v.a. Este parámetro se conoce como coeficiente de correlación. La regresión tiene dos significados. Uno, surge de la distribución conjunta de las dos v.a., y es el que vamos a estudiar en este caṕıtulo. El otro, que estudiaremos más adelante, es emṕırico, y nace de la necesidad de ajustar una función a un conjunto de datos. 11.2. Regresión En la regresión de Y sobre X , como ya se ha dicho, se quiere encontrar una función Y = h1(X) que mejor exprese el comportamiento de la v.a. Y para cada valor que pueda tomar X . Para ello, podemos utilizar dos métodos 11.2.1. Método de los mı́nimos cuadrados Este método consiste en encontrar la función Y = h1(X) de forma que el error cuadrático medio (ECM) sea mı́nimo, siendo ECM = E [ (Y − h1(X))2 ] Este método tiene el inconveniente de que es necesario conocer a priori la forma de la función h1. Ejemplo 1.- Dada una v.a. bidimensional (X, Y ), con función de densidad conjunta f(x, y) = 4 9 x2(x+ y) 0 ≤ x ≤ 1; 0 ≤ y ≤ 3 11 Regresión y correlación 135 De las variables X e Y se sabe que existe una relación del tipo Y = aX + b X Se pide, calcular los valores de a y b que mejor ajustan este tipo de relación. ECM = E [ (Y − h1(X))2 ] = E [( Y − aX − b X )2] Para calcular el mı́nimo de ECM, tenemos que derivar respecto de a y b ∂ECM ∂a = E [ 2(Y − aX − b X )(−X) ] = 2 ( −E[XY ] + aE[X2] + b ) = 0 ∂ECM ∂b = E [ 2(Y − aX − b X )(− 1 X ) ] = 2 ( −E [ Y X ] + a+ bE [ 1 X2 ]) = 0 entonces, aE[X2] + b = E[XY ] a + bE [ 1 X2 ] = E [ Y X ] =⇒ a = E [ Y X ] − E[XY ]E [ 1 X2 ] 1− E[X2]E [ 1 X2 ] b = E[XY ]− E [ Y X ] E[X2] 1− E[X2]E [ 1 X2 ] • E[X2] = ∫ +∞ −∞ ∫ +∞ −∞ x2f(x, y) dxdy = 4 9 ∫ 1 x=0 ∫ 3 y=0 x4(x+ y) dydx = 28 45 • E [ 1 X2 ] = ∫ +∞ −∞ ∫ +∞ −∞ 1 x2 f(x, y) dxdy = 4 9 ∫ 1 x=0 ∫ 3 y=0 (x+ y) dydx = 8 3 • E [ Y X ] = ∫ +∞ −∞ ∫ +∞ −∞ y x f(x, y) dxdy = 4 9 ∫ 1 x=0 ∫ 3 y=0 xy(x+ y) dydx = 8 3 • E[XY ] = ∫ +∞ −∞ ∫ +∞ −∞ xyf(x, y) dxdy = 4 9 ∫ 1 x=0 ∫ 3 y=0 x3y(x+ y) dydx = 7 5 Por tanto, 136 Estad́ıstica a = 144 89 b = 35 89 y, la relación entre las dos variables es de la forma Y = 144 89 X + 35 89X 11.2.2. Método de la distribución condicional Para cada valor x que toma la variable X , el comportamiento de la variable Y viene definido por la v.a. condicionada Y |X=x, con función de densidad condicionada f(y|x). El criterio de este método consiste en definir la función h1 de tal forma que asigne a cada valor x del campo de variación de la variable X , el valor medio o esperanza de la variable Y condicionado a ese valor x. Es decir, y = h1(x) = E [Y |X=x] = ∫ +∞ −∞ yf(y|x) dy Ejemplo 2.- Dada la v.a. bidimensional (X, Y ) con función de densidad conjunta f(x, y) = x+ y 0 ≤ x, y ≤ 1 Se pide, calcular la curva de regresión de Y sobre X . Primero, tenemos que calcular la función de densidad condicional f(y|x) • fX(x) = ∫ +∞ −∞ f(x, y) dy = ∫ 1 0 (x+ y) dy = x+ 1 2 0 ≤ x ≤ 1 • f(y|x) = f(x, y) fX(x) = 2(x+ y) 2x+ 1 0 ≤ y ≤ 1 Ahora, h1(x) = E [Y |X=x] = ∫ +∞ −∞ yf(y|x) dy = ∫ 1 0 2y(x+ y) 2x+ 1 dy = 3x+ 2 6x+ 3 Por tanto, la relación entre las dos variables es de la forma Y = 3X + 2 6X + 3 11 Regresión y correlación 137 11.2.3. Regresión Lineal Un caso particular de curva de regresión de Y sobre X se da cuando la curva que relaciona las dos variables es una recta del tipo Y = h1(X) = a + bX 11.2.3.1. Método de los mı́nimos cuadrados ECM = E[(Y − h1(X)2] = E[(Y − a− bX)2] ∂ECM ∂a = E [2(Y − a− bX)(−1)] = 2 (−E[Y ] + a+ bE[X ]) = 0 ∂ECM ∂b = E [2(Y − a− bX)(−X)] = 2 ( −E[XY ] + aE[X ] + bE[X2] ) = 0 entonces, a+ bE[X ] = E[Y ] aE[X ] + bE[X2] = E[XY ] =⇒ b = E[XY ]− E[X ]E[Y ] E[X2]− (E[X ])2 = Cov(X, Y ) Var(X) a = E[Y ]− bE[X ] Por tanto, la recta de regresión lineal de Y sobre X es Y = a+ bX , con b = Cov(X, Y ) Var(X) = σXY σ2X a = E[Y ]− bE[X ] = µY − bµX o, expresado de otra forma Y = a+ bX = µY − bµX + bX = µY + b(X − µX) =⇒ Y − µY = σXY σ2X (X − µX) De igual forma, la recta de regresión lineal de X sobre Y es X = a′ + b′Y , con 138 Estad́ıstica b′ = Cov(X, Y ) Var(Y ) = σXY σ2Y a′ = E[X ]− b′E[Y ] = µX − b′µY o, expresado de otra forma X = a′ + b′Y = µX − b′µY + b′Y = µX + b′(Y − µY ) =⇒ X − µX = σXY σ2Y (Y − µY ) • Los coeficientes b y b′ (las pendientes de las rectas de regresión de Y sobre X y de X sobre Y , respectivamente), se llaman coeficientes de regresión lineal. Siempre tienen el mismo signo, por tanto, o las dos rectas son crecientes o las dos rectas son decrecientes, siempre que Cov(X, Y ) 6= 0. • El punto de intersección de las dos rectas de regresión se denomina centro de gravedad de la v.a. bidimensional (X, Y ). 11.2.3.2. Método de la distribución condicional Si al aplicar el método de la distribución condicional para obtener la curva de re- gresión de Y sobre X obtenemos una recta, entonces y = E[Y |X=x] = a+ bx Es decir, E[Y |X=x] = ∫ +∞ −∞ yf(y|x) dy = ∫ +∞ −∞ y f(x, y) fX(x) dy = = 1 fX(x) ∫ +∞ −∞ yf(x, y) dy = a+ bx =⇒ ∫ +∞ −∞ yf(x, y) dy = afX(x) + bxfX(x) Entonces, 11 Regresión y correlación 139 ∫ +∞ −∞ ∫ +∞ −∞ yf(x, y) dydx = ∫ +∞ −∞ afX(x) dx+ ∫ +∞ −∞ bxfX(x) dx ∫ +∞ −∞ ∫ +∞ −∞ xyf(x, y) dydx = ∫ +∞ −∞ axfX(x) dx+ ∫ +∞ −∞ bx2fX(x) dx =⇒ E[Y ] = a+ bE[X ] E[XY ] = aE[X ] + bE[X2] Y, despejando, b = E[XY ]− E[X ]E[Y ] E[X2]− (E[X ])2 = Cov(X, Y ) Var(X) a = E[Y ]− bE[X ] Por tanto, los coeficientes de la recta obtenidos con el método de la distribución condicional coinciden con los obtenidos con el método de los mı́nimos cuadrados. 11.3. Correlación Ligado al concepto de regresión (relación entre dos variables X e Y ), está el de correlación (grado de relación entre las variables X e Y ). Es decir, al calcular la curva de regresión de Y sobre X , Y = h1(X), en realidad estamos calculando una función que, con el criterio que hayamos escogido, mejor ajusta los valores de la variable Y para un valor dado de la variable X . Ahora, debemos cuantificar cómo es de bueno ese ajuste. Una forma bastante lógica de cuantificar la bondad del ajuste consiste en medir la diferencia entre el verdadero valor de la variable Y , y el valor asignado por la curva de regresión, h1(X). Para que las diferencias positivas no se cancelen con las negativas, generalmente se recurre al estudio de las diferencias al cuadrado. Aśı, se define la varianza residual, σ2R, como la media cuadrática de estos errores σ2R = E [ (Y − h1(X))2 ] Como se puede comprobar, coincide con el error cuadrático medio. Partiendo de σ2R, Pearson definió el coeficiente general de correlación como 140 Estad́ıstica ρG = √ 1− σ 2 R σ2Y mientras que ρ2G se denomina coeficiente general de determinación. En cualquier caso, se cumple 0 ≤ ρ2G ≤ 1 −1 ≤ ρG ≤ 1 11.3.1. Coeficiente de correlación lineal Ya que generalmente la regresión que más se utiliza es la lineal, vamos a estudiar con más profundidad el coeficiente de correlación lineal. Si partimos de la recta de regresión de Y sobre X calculada en la sección 11.2.3, Y = h1(X) = µY + σXY σ2X (X − µX) La varianza residual será σ2R = E [ (Y − h1(X))2 ] = E [( Y − µY − σXY σ2X (X − µX) )2] = = E [ (Y − µY )2 ] + σ2XY σ4X E [ (X − µX)2 ] − 2σXY σ2X E[(Y − µY )(X − µX)] = = σ2Y + σ2XY σ4X σ2X − 2 σXY σ2X σXY = σ 2 Y − σ2XY σ2X Y, el coeficiente de correlación lineal es ρ = √ 1− σ 2 R σ2Y = √√√√√ 1− σ2Y − σ2XY σ2X σ2Y = √ 1− 1 + σ 2 XY σ2Xσ 2 Y = = σXY σXσY= Cov(X, Y )√ Var(X) Var(Y ) que, como se puede comprobar, coincide con el estudiado en la sección 7.6.2. Además, el coeficiente de determinación lineal viene dado por 11 Regresión y correlación 141 ρ2 = σ2XY σ2Xσ 2 Y = Cov2(X, Y ) Var(X) Var(Y ) Veamos algunas propiedades de estos coeficientes. • Como ocurre de forma general, 0 ≤ ρ2 ≤ 1 y − 1 ≤ ρ ≤ 1 • Los coeficientes de regresión lineal, b y b′, y el coeficiente de correlación lineal, ρ, tie- nen el mismo signo, pues éste sólo depende del signo de Cov(X, Y ). Si Cov(X, Y ) > 0, entonces las rectas de regresión son crecientes y el coeficiente de correlación lineal es positivo. Si Cov(X, Y ) < 0, entonces las rectas de regresión son decrecientes y el coeficiente de correlación lineal es negativo. • Como b = σXY σ2X y b′ = σXY σ2Y , entonces, ρ = √ b b′ • Como b = σXY σ2X = σXY σXσY σY σX = ρ σY σX b′ = σXY σ2Y = σXY σXσY σY σY = ρ σX σY las rectas de regresión también se pueden escribir como, Y − µY = ρ σY σX (X − µX) X − µX = ρ σX σY (Y − µY ) 142 Estad́ıstica 12 Distribuciones de muestreo Índice 12.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 12.2. Definición de estad́ıstico . . . . . . . . . . . . . . . . . . . . . . 145 12.3. Estad́ıstico media muestral . . . . . . . . . . . . . . . . . . . . . 145 12.3.1. Población Madre Normal . . . . . . . . . . . . . . . . . . . . . 145 12.3.2. Población Madre no Normal . . . . . . . . . . . . . . . . . . . . 146 12.4. Estad́ıstico (n − 1)s2 σ2 . . . . . . . . . . . . . . . . . . . . . . . . 146 12.5. Estad́ıstico x̄ − µ s/ √ n . . . . . . . . . . . . . . . . . . . . . . . . . . 147 12.5.1. Población Madre Normal . . . . . . . . . . . . . . . . . . . . . 147 12.5.2. Población Madre no Normal . . . . . . . . . . . . . . . . . . . . 148 12.6. Estad́ıstico varianza muestral . . . . . . . . . . . . . . . . . . . 148 12.6.1. Población Madre Normal . . . . . . . . . . . . . . . . . . . . . 148 12.6.2. Población Madre no Normal . . . . . . . . . . . . . . . . . . . . 149 12.7. Estad́ıstico desviación t́ıpica muestral . . . . . . . . . . . . . . 150 12.8. Estad́ıstico diferencia de medias muestrales . . . . . . . . . . . 152 12.9. Estad́ıstico cociente de varianzas muestrales . . . . . . . . . . 153 12.10.Estad́ıstico proporción muestral . . . . . . . . . . . . . . . . . . 154 12.11.Estad́ıstico elemento que ocupa el lugar r . . . . . . . . . . . . 155 12.11.1.Estad́ıstico máximo valor de una muestra . . . . . . . . . . . . 155 12.11.2.Estad́ıstico mı́nimo valor de una muestra . . . . . . . . . . . . 156 12.11.3.Estad́ıstico recorrido de una muestra . . . . . . . . . . . . . . . 156 12.11.4.Estimación de cuantiles . . . . . . . . . . . . . . . . . . . . . . 157 143 144 Estad́ıstica 12.1. Introducción Consideremos una población de la que necesitamos analizar alguna caracteŕıstica. Lo ideal seŕıa estudiar todos y cada uno de los elementos de esa población, pero esto, en la gran mayoŕıa de las ocasiones resulta dif́ıcil, caro e incluso, a veces, imposible. Ello obliga a elegir un determinado número de elementos (muestra) de la población, analizar en ellos la caracteŕıstica antes mencionada y, de los resultados obtenidos, inferir lo que sucede en la totalidad de la población. Esto nos lleva a la Teoŕıa de Muestras. A la población objeto del estudio le damos el nombre de Población Madre (P.M.). Consideramos ésta en su totalidad, y por un método aleatorio elegimos n elementos, obteniendo lo que se llama una muestra de tamaño n. Ahora bien, los n elementos se pueden extraer de dos maneras: • Todos a la vez (o uno a uno sin reemplazamiento), con lo cual el número de muestras posibles de tamaño n que se pueden obtener está determinado por ( N n ) , siendo N el número total de elementos de la Población Madre. Además, el número de muestras posibles, considerando todos los tamaños, es finito: ( N 1 ) + ( N 2 ) + · · ·+ ( N N ) = 2N − 1 Esto dará lugar al estudio de unas consecuencias que quedarán reflejadas en la llamada Teoŕıa de Muestras de Población Finita. • La muestra de tamaño n se obtiene sacando los elementos uno a uno, con reempla- zamiento. A este tipo de muestra le daremos el nombre de muestra aleatoria simple (m.a.s.) de tamaño n. En este caso, no importa el tamaño N de la P.M., que incluso pudiera ser N < n. Ahora, el número de muestras posibles, considerando todos los tamaños, es infinito. Esto dará lugar al estudio de unas consecuencias que quedarán reflejadas en la llamada Teoŕıa de Muestras de Población Infinita. En general, mientras no se especifique lo contrario, a lo largo de este curso considera- remos siempre que, por defecto, la muestra se ha obtenido con reemplazamiento. Es decir, se trata de una m.a.s. Sólo en el caṕıtulo 14 daremos una descripción de los resultados referentes a las muestras obtenidas sin reemplazamiento. 12 Distribuciones de muestreo 145 12.2. Definición de estad́ıstico Consideremos, en un espacio unidimensional, una Población Madre definida por su función de densidad f(x). De ella, extraemos una m.a.s. de tamaño n, {x1, x2, . . . , xn}. Cada uno de los valores xi son extracciones aleatorias e independientes obtenidas de una P.M. intacta (extracción con reemplazamiento). Los posibles valores de cada una de las extracciones, xi, es una variable aleatoria, Xi. Por tanto, con este procedimiento hemos construido una variable aleatoria n-dimensional X = (X1, X2, . . . , Xn), donde todas las v.a. son independientes e idénticamente distribuidas con la misma distribución que la v.a. asociada a la P.M. Es decir, si la P.M. sigue una distribución N(µ, σ), entonces cada Xi ≡ N(µ, σ). LLamaremos Estad́ıstico a cualquier función de las n variables aleatorias, T (X) = T (X1, X2, . . . , Xn) El estudio de la teoŕıa de muestras que haremos en este curso estará dedicado a obtener la distribución de la variable aleatoria T (X), cuando T (X) sea cierto tipo de función conocida. Incurriendo en un abuso de notación, utilizaremos la expresión xi para referirnos tanto a la v.a. Xi, como a un valor de la misma, xi. 12.3. Estad́ıstico media muestral x̄ = 1 n n∑ i=1 xi 12.3.1. Población Madre Normal Dada una m.a.s., {x1, . . . , xn}, de una P.M.≡ N(µ, σ), sabemos que xi ≡ N(µ, σ) y que las n v.a. son independientes. Entonces, la v.a. x̄ también sigue una distribución Normal, por ser combinación lineal de v.a. Normales. Además, E[x̄] = E [ 1 n n∑ i=1 xi ] = 1 n n∑ i=1 E[xi] = 1 n n∑ i=1 µ = µ Var(x̄) = Var ( 1 n n∑ i=1 xi ) = 1 n2 n∑ i=1 Var(xi) = 1 n2 n∑ i=1 σ2 = σ2 n Por tanto, si la Población Madre es N(µ, σ) el estad́ıstico media es 146 Estad́ıstica x̄ ≡ N (µ, σ/√n ) 12.3.2. Población Madre no Normal Dada una m.a.s., {x1, . . . , xn} de una P.M.≡ ?(µ, σ) sabemos que xi ≡ ? (µ, σ) y que las n v.a. son independientes. Entonces, se puede aplicar el Teorema de Levi-Lindeberg. n∑ i=1 xi − E [ n∑ i=1 xi ] √√√√Var ( n∑ i=1 xi ) = nx̄− nµ√ nσ2 = x̄− µ σ/ √ n −→ N(0, 1) Por tanto, si n > 30 =⇒ x̄ ∼= N (µ, σ/√n ) si n < 30 =⇒ x̄ ≡ ? (µ, σ/√n ) 12.4. Estad́ıstico (n − 1)s2 σ2 Dada una m.a.s., {x1, . . . , xn}, de una P.M.≡ N(µ, σ), definimos la varianza mues- tral, s2, como s2 = 1 n− 1 n∑ i=1 (xi − x̄)2 Entonces, 12 Distribuciones de muestreo 147 (n− 1)s2 σ2 = 1 σ2 n∑ i=1 (xi − x̄)2 = 1 σ2 n∑ i=1 [(xi − µ)− (x̄− µ)]2 = = 1 σ2 [ n∑ i=1 (xi − µ)2 + n∑ i=1 (x̄− µ)2 − 2(x̄− µ) n∑ i=1 (xi − µ) ] = = 1 σ2 [ n∑ i=1 (xi − µ)2 + n(x̄− µ)2 − 2n(x̄− µ)2 ] = = 1 σ2 [ n∑ i=1 (xi − µ)2 − n(x̄− µ)2 ] = = n∑ i=1 ( xi − µ σ )2 − ( x̄− µ σ/ √ n )2 Pero, xi ≡ N(µ, σ) =⇒ xi − µ σ ≡ N(0, 1) =⇒ n∑ i=1 ( xi − µ σ )2 ≡ χ2n x̄ ≡ N(µ, σ/√n ) =⇒ x̄− µ σ/ √ n ≡ N(0, 1) =⇒ ( x̄− µ σ/ √ n )2 ≡ χ21 y, aunque en general la diferencia de dos v.a. Chi-cuadrado no sigue una distribuciónChi-cuadrado, en este caso especial se puede demostrar que (n− 1)s2 σ2 ≡ χ2n−1 12.5. Estad́ıstico x̄ − µ s/ √ n 12.5.1. Población Madre Normal Dada una m.a.s., {x1, . . . , xn}, de una P.M.≡ N(µ, σ), sabemos que x̄ ≡ N ( µ, σ√ n ) =⇒ x̄− µ σ/ √ n ≡ N(0, 1) 148 Estad́ıstica Por otra parte, (n− 1)s2 σ2 ≡ χ2n−1 entonces, dividiendo, x̄− µ σ/ √ n√ (n− 1)s2 σ2 1 n− 1 = N(0, 1)√ χ2n−1 n− 1 = x̄− µ s/ √ n ≡ tn−1 Por tanto, x̄− µ s/ √ n ≡ tn−1 12.5.2. Población Madre no Normal Aunque la P.M. no sea Normal, si el tamaño de muestra es suficientemente grande, se puede hacer la aproximación σ2 ≃ s2 y aplicar el Teorema de Levy-Lindeberg. Aśı, si n > 30 =⇒ x̄− µ s/ √ n ∼= N(0, 1) si n < 30 =⇒ — 12.6. Estad́ıstico varianza muestral s2 = 1 n − 1 n∑ i=1 (xi − x̄)2 12.6.1. Población Madre Normal Dada una m.a.s., {x1, . . . , xn}, de una P.M.≡ N(µ, σ), tenemos X = (n− 1)s2 σ2 ≡ χ2n−1 =⇒ s2 = σ2 n− 1X entonces, E[s2] = σ2 n− 1E[X ] = σ2 n− 1(n− 1) = σ 2 Var(s2) = σ4 (n− 1)2Var(X) = σ4 (n− 1)22(n− 1) = 2σ4 n− 1 12 Distribuciones de muestreo 149 Por tanto, si n > 100 =⇒ s2 ∼= N ( σ2, σ2 √ 2 n− 1 ) si n < 100 =⇒ s2 ≡ ? ( σ2, σ2 √ 2 n− 1 ) 12.6.2. Población Madre no Normal Aunque la P.M. no sea Normal, utilizando el desarrollo del apartado 12.4, llegamos a s2 = 1 n− 1 n∑ i=1 (xi − µ)2 − n n− 1(x̄− µ) 2 y, por tanto E[s2] = 1 n− 1 n∑ i=1 E[(xi − µ)2]− n n− 1E[(x̄− µ) 2] Pero, E[xi] = µ =⇒ E[(xi − µ)2] = Var(xi) = σ2 E[x̄] = µ =⇒ E[(x̄− µ)2] = Var(x̄) = σ 2 n entonces, E[s2] = n n− 1 σ 2 − n n− 1 σ2 n = σ2 Operando se puede demostrar también que Var(s2) = σ4 ( 2 n− 1 + CAp n ) siendo CAp el coeficiente de apuntamiendo o curtosis de la población que, en caso de ser desconocido, se puede aproximar por el coeficiente de curtosis de la muestra. Por tanto s2 ∼= ? ( σ2, σ2 √ 2 n− 1 + CAp n ) 150 Estad́ıstica 12.7. Estad́ıstico desviación t́ıpica muestral s = [ 1 n − 1 n∑ i=1 (xi − x̄)2 ] 1/2 Dada una m.a.s., {x1, . . . , xn}, de una P.M.≡ N(µ, σ), sea X = n− 1 σ2 s2 ≡ χ2n−1 =⇒ fX(x) = 1 2 n−1 2 Γ ( n− 1 2 ) xn−32 e−x2 , x > 0 Hacemos el cambio de variable Y = σ2 n− 1X , es decir, Y = s 2. Entonces gY (y) = 1 2 n−1 2 Γ ( n− 1 2 ) ( n− 1 σ2 y )n−3 2 e− n−1 2σ2 y n− 1 σ2 , y > 0 Hacemos el cambio de variable T = √ Y , es decir, T = s. Entonces hT (t) = 1 2 n−1 2 Γ ( n− 1 2 ) ( n− 1 σ2 t2 )n−3 2 e− n−1 2σ2 t2 n− 1 σ2 2t , t > 0 y, operando hT (t) = 2 ( n− 1 2 )n−1 2 σn−1Γ ( n− 1 2 ) tn−2 e−n−12σ2 t2 , t > 0 Entonces, 12 Distribuciones de muestreo 151 E[T ] = ∫ ∞ 0 t hT (t) dt = 2 ( n− 1 2 )n−1 2 σn−1Γ ( n− 1 2 ) ∫ ∞ 0 tn−1 e− n−1 2σ2 t2 dt = = 2 ( n− 1 2 )n−1 2 σn−1Γ ( n− 1 2 ) ∫ ∞ 0 ( σ √ 2u√ n− 1 )n−1 e−u σ√ 2 √ n− 1 1 2 √ u du = = σ √ 2 n− 1 1 Γ ( n− 1 2 ) ∫ ∞ 0 u n 2 −1e−u du = = σ √ 2 n− 1 Γ (n 2 ) Γ ( n− 1 2 ) donde, para calcular la integral hemos realizado el cambio √ u = √ n− 1√ 2σ Por otra parte, E[T 2] = E[s2] = σ2 Y, por último, la varianza de T viene dada por Var(T ) = E[T 2]− (E[T ])2 = 1− 2 n− 1 Γ2 (n 2 ) Γ2 ( n− 1 2 ) σ 2 Por tanto, la distribución del estad́ıstico s es si n > 100 =⇒ s ∼= N ( σ, σ √ 1 2(n− 1) ) si n < 100 =⇒ s ≡ ? σ √ 2 n− 1 Γ (n 2 ) Γ ( n− 1 2 ) , σ √√√√√√1− 2 n− 1 Γ2 (n 2 ) Γ2 ( n− 1 2 ) 152 Estad́ıstica 12.8. Estad́ıstico diferencia de medias muestrales De dos Poblaciones Normales P.M.= X ≡ N (µx, σx) y P.M.= Y ≡ N (µy, σy) extraemos dos muestras independientes, {x1, x2, . . . , xn} y {y1, y2, . . . , ym}, de tamaños n y m, con medias y varianzas x̄ = 1 n n∑ i=1 xi s 2 x = 1 n− 1 n∑ i=1 (xi − x̄)2 ȳ = 1 m m∑ i=1 yi s 2 y = 1 m− 1 m∑ i=1 (yi − ȳ)2 Definimos el estad́ıstico diferencia de medias como x̄− ȳ = 1 n n∑ i=1 xi − 1 m m∑ i=1 yi • Si σx y σy son conocidos x̄ ≡ N (µx, σx/ √ n ) =⇒ (x̄− ȳ)− (µx − µy)√ σ2x n + σ2y m ≡ N (0, 1) ȳ ≡ N (µy, σy/ √ m ) • Si σx y σy son desconocidos ◦ si σ2x = σ2y = σ2 (x̄− ȳ)− (µx − µy) σ √ 1 n + 1 m ≡ N (0, 1) =⇒ (x̄− ȳ)− (µx − µy) Sp √ 1 n + 1 m ≡ tn+m−2 (n− 1)s2x + (m− 1)s2y σ2 ≡ χ2n+m−2 donde Sp = √ (n− 1)s2x + (m− 1)s2y n +m− 2 12 Distribuciones de muestreo 153 ◦ si σ2x 6= σ2y (x̄− ȳ)− (µx − µy)√ s2x n + s2y m ∼= tγ donde, γ = (A+B)2 A2 n− 1 + B2 m− 1 A = s2x n , B = s2y m 12.9. Estad́ıstico cociente de varianzas muestrales De dos Poblaciones Normales P.M.= X ≡ N (µx, σx) y P.M.= Y ≡ N (µy, σy) extraemos dos muestras independientes, {x1, x2, . . . , xn} y {y1, y2, . . . , ym}, de tamaños n y m, con medias y varianzas x̄ = 1 n n∑ i=1 xi s 2 x = 1 n− 1 n∑ i=1 (xi − x̄)2 ȳ = 1 m m∑ i=1 yi s 2 y = 1 m− 1 m∑ i=1 (yi − ȳ)2 Definimos el estad́ıstico cociente de varianzas como s2x s2y = 1 n− 1 n∑ i=1 (xi − x̄)2 1 m− 1 m∑ i=1 (yi − ȳ)2 Del apartado 12.4 sabemos que (n− 1)s2x σ2x ≡ χ2n−1 (m− 1)s2y σ2y ≡ χ2m−1 entonces, como χ2n−1/(n−1) χ2m−1/(m−1) ≡ Fn−1,m−1, s2x/σ 2 x s2y/σ 2 y ≡ Fn−1,m−1 154 Estad́ıstica 12.10. Estad́ıstico proporción muestral Partimos de una P.M. Binomial de parámetro p, es decir, p es la proporción de éxitos de la Población. Extraemos una m.a.s. {x1, . . . , xn} y asignamos los valores xi = { 1 si es éxito 0 si es fracaso es decir, cada v.a. xi ≡ B(1, p) Sean las v.a. X ≡ número de éxitos de la muestra p̂ ≡ proporción de éxitos de la muestra Entonces, X = n∑ i=1 xi ≡ B(n, p) y p̂ = 1 n n∑ i=1 xi = X n E[p̂] = E [ 1 n n∑ i=1 xi ] = 1 n n∑ i=1 E[xi] = 1 n np = p Var(p̂) = Var ( 1 n n∑ i=1 xi ) = 1 n2 n∑ i=1 Var(xi) = 1 n2 np(1− p) = p(1− p) n Aplicando el Teorema de Levy-Lindeberg n∑ i=1 xi − E [ n∑ i=1 xi ] √√√√Var ( n∑ i=1 xi ) = np̂− np√ np = p̂− p√ p(1− p) n −→ N(0, 1) Por tanto, si n > 30 =⇒ p̂ ∼= N ( p, √ p(1− p) n ) y X ∼= N ( np, √ np(1− p) ) si n < 30 =⇒ p̂ ≡ ? ( p, √ p(1− p) n ) y X ≡ B(n, p) 12 Distribuciones de muestreo 155 12.11. Estad́ıstico elemento que ocupa el lugar r En ocasiones no estamos interesados en estimar un parámetro de la población sino, por ejemplo, el valor máximo o mı́nimo que puede tomar. Aśı, podemos interesarnos por la temperatura máxima en vez de por la temperatura media. De esta forma surge el estad́ıstico que estima el lugar que ocupa un elemento de la muestra, al ordenarla de forma creciente. Sea X la v.a. continua asociada a una P.M. con funciones de distribución y densidad F (x) y f(x), respectivamente. Extraemos una m.a.s. {x1, . . . , xn} y la ordenamos en forma creciente, quedando de la forma {u1, . . . , un}, con u1 ≤ u2 ≤ · · · ≤ ur ≤ · · · ≤ un ur−1 ur ur + dur ur+1 r − 1 elementos 1 elemento n− r elementos g(ur)dur = [P (X < ur)] r−1 P (ur < X ≤ ur + dur) [P (X > ur)]n−r PRnr−1,1,n−r g(ur)dur = n! (r − 1)! 1! (n− r)! [F (ur)] r−1 f(ur)dur [1− F (ur)]n−r Por tanto, g(ur) = n! (r − 1)! 1! (n− r)! [F (ur)] r−1 f(ur) [1− F (ur)]n−r ur ∈ R 12.11.1. Estad́ıstico máximo valor de una muestra Sea X la v.a. continua asociada a una P.M. con funciones de distribución y densidad F (x) y f(x), respectivamente. Extraemos una m.a.s. {x1, . . . , xn} y la ordenamos en forma creciente, quedando de la forma {u1, . . . , un}, con u1 ≤ u2 ≤ · · · ≤ ur ≤ · · · ≤ un Utilizando el mismo razonamiento que en la Sec. 12.11, el valor máximo de la muestra viene dado por un, por tanto, g(un) = n [F (un)] n−1 f(un) un ∈ R 156 Estad́ıstica 12.11.2. Estad́ıstico mı́nimo valor de una muestra Sea X la v.a. continua asociada a una P.M. con funciones de distribución y densidad F (x) y f(x), respectivamente. Extraemos una m.a.s. {x1, . . . , xn} y la ordenamos en forma creciente, quedando de la forma {u1, . . . , un}, con u1 ≤ u2 ≤ · · · ≤ ur ≤ · · · ≤ un Utilizando el mismo razonamiento que en la Sec. 12.11, el valor mı́nimo de la muestra viene dado por u1, por tanto, g(u1) =n f(u1) [1− F (u1)]n−1 u1 ∈ R 12.11.3. Estad́ıstico recorrido de una muestra Sea X la v.a. continua asociada a una P.M. con funciones de distribución y densidad F (x) y f(x), respectivamente. Extraemos una m.a.s. {x1, . . . , xn} y la ordenamos en forma creciente, quedando de la forma {u1, . . . , un}, con u1 ≤ u2 ≤ · · · ≤ ur ≤ · · · ≤ un Aśı, se define el recorrido de una muestra como R = max{xi} −min{xi} = un − u1 Utilizando el mismo razonamiento que en la Sec. 12.11, se puede obtener la función de densidad conjunta, g(ui, uj), del lugar que ocupan dos elementos de la muestra, con i < j g(ui, uj)duiduj = [P (X < ui)] i−1 × P (ui < X ≤ ui + dui)× [P (ui < X < uj)]j−i−1× ×P (uj < X ≤ uj + duj)× [P (X > uj)]n−j × PRni−1,1,j−i−1,1,n−j Por tanto, g(ui, uj) = n! (i− 1)! (j − i− 1)! (n− j)! × [F (ui)] i−1 × f(ui)× ×[F (uj)− F (ui)]j−i−1 × f(uj)× [1− F (uj)]n−j ui ≤ uj Como R = un − u1, entonces, un = R + u1, y en particular g(u1, un) = n! (n− 2)! [F (un)− F (u1)] n−2f(u1)f(un) −∞ ≤ u1 ≤ un ≤ +∞ 12 Distribuciones de muestreo 157 por lo que g(u1, R) = n(n− 1) [F (R+ u1)− F (u1)]n−2f(u1)f(R + u1) y la función de densidad de R será la marginal de g(u1, R), es decir gR(R) = ∫ +∞ −∞ g(u1, R) du1 = ∫ +∞ −∞ n(n− 1) [F (R+ u1)− F (u1)]n−2f(u1)f(R + u1) du1 Mientras que la función de distribución de R se puede expresar como GR(R) = ∫ R 0 (∫ +∞ −∞ g(u1, R) du1 ) = n ∫ +∞ −∞ [F (R + u1)− F (u1)]n−1 f(u1) du1 12.11.4. Estimación de cuantiles Sea X la v.a. continua asociada a una P.M. con funciones de distribución y densidad F (x) y f(x), respectivamente. Extraemos una m.a.s. {x1, . . . , xn} y la ordenamos en forma creciente, quedando de la forma {u1, . . . , un}, con u1 ≤ u2 ≤ · · · ≤ ur ≤ · · · ≤ un. Definimos el estimador, x̂p, del p-cuantil poblacional, xp, como el p-cuantil de la muestra, es decir x̂p = u[np]+1 Si np ∈/Z 1 2 (unp + unp+1) Si np ∈ Z donde los corchetes, [ ], indican la parte entera. Si f(xp) > 0, el estimador p-cuantil tiene una distribución asintóticamente Normal, con E[x̂p] ≃ xp y Var(x̂p) ≃ p(1− p) nf 2(xp) Ejemplo.- Dada una P.M.≡ N(µ, σ) con función de densidad dada por f(x) = 1√ 2πσ exp { −1 2 ( x− µ σ )2} x ∈ R Un estimador de la mediana poblacional, Me, seŕıa la mediana muestral, x̃. Si la muestra es suficientemente grande, entonces 158 Estad́ıstica E[x̃] ≃ Me = µ Var(x̃) ≃ p(1− p) nf 2(Me) = 0.5× 0.5 n ( 1√ 2πσ )2 = πσ2 2n donde hemos utilizado el hecho de que en una distribución Normal, Me = µ. Aśı, x̃ ∼= N ( µ, σ √ π 2n ) 13 Estimación puntual y estimación por intervalo Índice 13.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 13.2. Propiedades deseables de los estimadores puntuales . . . . . 163 13.2.1. Estimador suficiente . . . . . . . . . . . . . . . . . . . . . . . . 163 13.2.2. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . . 164 13.2.3. Error cuadrático medio . . . . . . . . . . . . . . . . . . . . . . 165 13.2.4. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . . 166 13.2.5. Estimador eficiente . . . . . . . . . . . . . . . . . . . . . . . . . 167 13.2.5.1. Teorema (Cota de Cramér-Rao) . . . . . . . . . . . . 168 13.3. Métodos de estimación puntual . . . . . . . . . . . . . . . . . . 170 13.3.1. Método de máxima verosimilitud . . . . . . . . . . . . . . . . . 170 13.3.2. Propiedades de los estimadores de máxima verosimilitud . . . . 172 13.3.3. Método de los momentos . . . . . . . . . . . . . . . . . . . . . 173 13.4. Estimación por intervalo de confianza . . . . . . . . . . . . . . 174 13.4.1. Intervalo de confianza para la media . . . . . . . . . . . . . . . 176 13.4.1.1. P.M.≡ N(µ, σ) con σ conocido . . . . . . . . . . . . 176 13.4.1.2. P.M.≡ N(µ, σ) con σ desconocido . . . . . . . . . . 177 13.4.1.3. P.M.≡ ?(µ, σ) con σ conocido y n > 30 . . . . . . . 178 13.4.1.4. P.M.≡ ?(µ, σ) con σ conocido y n < 30 . . . . . . . 178 13.4.1.5. P.M.≡ ?(µ, σ) con σ desconocido y n > 30 . . . . . 179 13.4.1.6. P.M.≡ ?(µ, σ) con σ desconocido y n < 30 . . . . . 179 13.4.2. Intervalo de confianza para la varianza . . . . . . . . . . . . . . 179 13.4.2.1. P.M.≡ N(µ, σ) con µ desconocido . . . . . . . . . . 179 159 160 13.4.3. Intervalo de confianza para la diferencia de medias . . . . . . . 180 13.4.3.1. P.M. Normales con σx y σy conocidas . . . . . . . . . 181 13.4.3.2. P.M. Normales con σ2x = σ 2 y = σ 2 desconocida . . . 181 13.4.3.3. P.M. Normales con σ2x 6= σ2y desconocidas . . . . . . 182 13.4.4. Intervalo de confianza para el cociente de varianzas . . . . . . . 182 13.4.5. Intervalo de confianza para la proporción poblacional . . . . . . 183 13.4.5.1. P.M. Binomial y n > 30 . . . . . . . . . . . . . . . . 184 13.5. Intervalo de confianza asintótico . . . . . . . . . . . . . . . . . 185 13 Estimación puntual y estimación por intervalo 161 13.1. Introducción En el caṕıtulo anterior hemos calculado la distribución de algunos estad́ısticos y men- cionado brevemente que los estad́ısticos se utilizan para estimar los valores de parámetros desconocidos de una población. En este caṕıtulo se examinará con detalle el concepto de estimación de parámetros mediante la especificación de las propiedades deseables de los estimadores (estad́ısticos), y el desarrollo de técnicas apropiadas para implementar el pro- ceso de estimación. Se utilizará el punto de vista de la teoŕıa de muestras, que considera a un parámetro poblacional como una cantidad fija (nunca una v.a.), pero desconocida. La estimación de un parámetro de la población involucra el uso de los datos mues- trales en conjunción con algún estad́ıstico. Existen dos formas de realizar la estimación: la estimación puntual y la estimación por intervalo. En la primera, se busca un estimador que, con base en los datos muestrales, dé origen a una estimación univaluada del valor del parámetro poblacional, y que recibe el nombre de valor estimado. Para la segunda, se determina un intervalo en el que, en forma probable, se encuentra el valor del parámetro. Este intervalo recibe el nombre de intervalo de confianza. Antes de entrar en materia, vamos a ver algunas definiciones que serán de utilidad. En general, el planteamiento del problema es el siguiente • En una P.M. definida por su función de distribución F (x, θ) existe un parámetro, θ, cuyo valor es desconocido. • Para poder asignar un valor a dicho parámetro θ, extraemos una muestra aleatoria de tamaño n, X = {x1, . . . , xn}. • Con los datos de la muestra, construimos un estad́ıstico, Θ̂ = T (X), que supone una simplificación de la información proporcionada por la muestra. FUNCIóN DE VEROSIMILITUD DE LA MUESTRA Puesto que las n variables aleatorias de la muestra constituyen una v.a. n-dimensional, {x1, . . . , xn}, se llama función de verosimilitud de la muestra a la función de densidad de dicha v.a. n-dimensional, y se denota por L(x1, . . . , xn, θ). ∗ Si la P.M. es una v.a. continua con función de densidad f(x, θ), y la muestra es aleatoria simple; entonces las n v.a. son independientes e idénticamente distribuidas según la distribución de la P.M. Por tanto, L(x1, . . . , xn, θ) = f(x1, θ)× · · · × f(xn, θ) 162 Estad́ıstica ∗ Si la P.M. es una v.a. discreta, sea como sea la muestra aleatoria, con o sin reem- plazamiento, L(x1, . . . , xn, θ) = P (de que salga la muestra obtenida) ESTIMACIÓN PUNTUAL Una estimación puntual, θ̂, de un parámetro poblacional θ, es un valor único del estad́ıstico Θ̂. Por ejemplo, el valor x̄ del estad́ıstico media muestral, X̄, calculado a partir de una muestra de tamaño n, es una estimación puntual del parámetro media poblacional µ. ESTIMADOR El estad́ıstico que se utiliza para obtener una estimación puntual es un estimador. Por ejemplo, el estad́ıstico varianza muestral, s2, que es una función de la muestra alea- toria, es un estimador de σ2. ESTIMADOR SUFICIENTEEstimador suficiente es el que proporciona la máxima información posible sobre el parámetro poblacional, θ, una vez determinado el tamaño n de la muestra. ESTIMADOR CONSISTENTE Se dice que un estad́ıstico, Θ̂, es un estimador consistente del parámetro θ si P (|Θ̂− θ| ≤ ǫ) = 1 cuando n→ ∞ ESTIMADOR INSESGADO Se dice que un estad́ıstico, Θ̂, es un estimador insesgado del parámetro θ si E[Θ̂] = θ ESTIMADOR SESGADO Se dice que un estad́ıstico, Θ̂, es un estimador sesgado del parámetro θ si E[Θ̂] = θ + b(θ) y b(θ) recibe el nombre de sesgo. ESTIMADOR EFICIENTE Si se consideran todos los posibles estimadores insesgados de un parámetro poblacio- nal, θ, aquél que tenga la varianza más pequeña se dirá que es el estimador más eficiente. 13 Estimación puntual y estimación por intervalo 163 13.2. Propiedades deseables de los estimadores pun- tuales 13.2.1. Estimador suficiente Un estad́ıstico T (X) es suficiente, si el conocimiento pormenorizado de los elementos de la muestra no añade ninguna información sobre θ que no proporcione la simplificación T (X). Una definición más técnica seŕıa que un estad́ıstico T (X) es suficiente respecto al parámetro θ, si la función de distribución de la muestra, condicionada por un valor del estad́ıstico (o sea, F (X|T (X)=t)) no depende de θ. Ejemplo.- De una P.M. Binomial, desconocemos la proporción de éxitos. Es decir, θ = p es desconocido. Extraemos una m.a.s. de tamaño n = 50, {x1, . . . , x50}, de tal forma que xi = { 1 si es éxito 0 si es fracaso Construyo dos estad́ısticos T1(X) = 50∑ i=1 xi T2(X) = máx {xi} Con los datos de la muestra obtenemos los valores de los estad́ısticos t1 = T1(x) = 50∑ i=1 xi = 35 t2 = T2(x) = máx {xi} = 1 En el primer caso, el hecho de que t1 = 35 significa que en la muestra han apare- cido exactamente 35 éxitos de 50 casos muestreados. Para realizar una estimación de la proporción de éxitos de la población, me basta con este dato, podŕıa suponer de forma razonable que p ≈ 35/50. No necesito conocer cuáles de los elementos muestreados son éxitos. Es decir, no necesito conocer de forma pormenorizada el valor de cada uno de los elementos de la muestra. En el segundo caso, sin embargo, el hecho de que t2 = 1 significa que en la muestra ha aparecido al menos un éxito entre los 50 casos muestreados. En este caso, el conocimiento 164 Estad́ıstica pormenorizado de los valores de la muestra śı añadiŕıa información, y bastante, sobre el posible valor de p. Claramente, T1(X) es un estimador suficiente del parámetro p, mientras que T2(X) no lo es. 13.2.2. Estimador consistente Como hemos visto en el ejemplo anterior, los valores obtenidos con las muestras nos van a servir para estimar el verdadero valor del parámetro θ desconocido. Aśı pues, es razonable pensar que un buen estimador debe ser capaz de aproximarse mejor al valor del parámetro a medida que aumenta el tamaño de la muestra. Siguiendo con el ejemplo de la P.M. binomial, si en vez de una muestra de tamaño n = 50, saco una muestra de tamaño n = 5000, es de esperar que la proporción de éxitos en esta segunda muestra se aproxime más al verdadero valor de p que los 35/50 obtenidos con la primera muestra. Sea T (X) un estimador de θ, y sean T1(X), . . . , Tn(X) una secuencia de estimadores que representan a T con distintos tamaños de muestra 1, . . . , n, respectivamente. Se dice que T es un estimador consistente para θ si ĺım n→∞ P (|Tn − θ| ≤ ε) = 1 Ejemplo.- Tenemos una P.M. con distribución no Normal y media desconocida, es decir, θ = µ. Extraemos muestras de distintos tamaños, y construimos los estad́ısticos Tn(X) = x̄n = 1 n n∑ i=1 xi n = 1, 2, 3, . . . De cada una de estas v.a. sabemos que E[x̄n] = µ y Var(x̄n) = σ 2/n. Por el teorema de Chebychev, P ( |x̄n − E[x̄n]| ≤ k √ Var(x̄n) ) ≥ 1− 1 k2 =⇒ P ( |x̄n − µ| ≤ kσ/ √ n ) ≥ 1− 1 k2 tomando k = √ n σ ε, P (|x̄n − µ| ≤ ε) ≥ 1− σ2 nε2 =⇒ ĺım n→∞ P (|x̄n − µ| ≤ ε) = 1 Es decir, cuanto mayor es el tamaño de la muestra, más se aproxima el valor de la media muestral al valor de la media poblacional. Por tanto, la media muestral es un estimador consistente de la media poblacional. 13 Estimación puntual y estimación por intervalo 165 13.2.3. Error cuadrático medio Puesto que un estimador, Θ̂, se utiliza para estimar el valor de un parámetro de la población, θ, es conveniente que el valor esperado del estimador coincida con el valor del parámetro que va a estimar. Para que las diferencias negativas no se cancelen con las positivas, se define el Error Cuadrático Medio (ECM) como, ECM = E [ (Θ̂− θ)2 ] Si desarrollamos esta expresión, teniendo en cuenta que Θ̂ es una v.a. (función de los elementos de la muestra) y θ es una constante (parámetro desconocido de la P.M.), ECM = E [ (Θ̂− θ)2 ] = E [( (Θ̂− E[Θ̂])− (θ − E[Θ̂]) )2] = = E [( Θ̂− E[Θ̂] )2] + E [( θ − E[Θ̂] )2] − 2(θ − E[Θ̂])E [ Θ̂− E[Θ̂] ] = = Var(Θ̂) + ( θ − E[Θ̂] )2 − 0 Es decir, ECM = E [ (Θ̂− θ)2 ] = Var(Θ̂) + ( θ − E[Θ̂] )2 El ECM es la suma de dos cantidades no negativas, una es la varianza del estimador y la otra es el cuadrado del sesgo del estimador. Estas dos cantidades están relacionadas con las propiedades deseables de un estimador. Por una parte, la varianza (dispersión) de un estimador debe ser lo más pequeña posible y, por otra, el valor esperado del estimador debe coincidir con el valor del parámetro a estimar. Por tanto, el problema de encontrar el mejor estimador de θ se puede plantear, de forma simplificada, en términos de encontrar el estimador que tenga el ECM más pequeño de entre todos los estimadores factibles de θ. Sin embargo, en realidad el problema es mucho más complicado. Aun si fuese práctico calcular el ECM de un gran número de estimadores, para la mayoŕıa de los parámetros poblacionales no existe ningún estimador que minimice el ECM para todos los posibles valores de θ. Es decir, un estimador, Θ̂1, puede tener un ECM mı́nimo para algunos valores de θ, mientras que otro estimador, Θ̂2, tendrá la misma propiedad para otros valores de θ. 166 Estad́ıstica Ejemplo.- De una P.M. se extrae una m.a.s. {x1, . . . , xn}, de la cual se sabe que E[xi] = µ y Var(xi) = σ 2 ∀i = 1, n. Consideramos dos estimadores de la media Θ̂1 = x̄ = 1 n n∑ i=1 xi Θ̂2 = 1 n + 1 n∑ i=1 xi Entonces E[Θ̂1] = 1 n n∑ i=1 E[xi] = µ Var(Θ̂1) = 1 n2 n∑ i=1 Var(xi) = σ2 n =⇒ ECM(Θ̂1) = σ2 n E[Θ̂2] = 1 n + 1 n∑ i=1 E[xi] = n n+ 1 µ Var(Θ̂2) = 1 (n+ 1)2 n∑ i=1 Var(xi) = n (n+ 1)2 σ2 =⇒ ECM(Θ̂2) = µ2 + nσ2 (n + 1)2 Si n = 10 y σ2 = 100, entonces, ECM(Θ̂1) = 10 ECM(Θ̂2) = µ2 + 1000 121 Al igualar ambas expresiones y resolver para µ, se tiene que si µ < √ 210 =⇒ ECM(Θ̂1) > ECM(Θ̂2) si µ > √ 210 =⇒ ECM(Θ̂1) < ECM(Θ̂2) Por esta razón, se deben examinar criterios adicionales para la selección de los esti- madores de θ, aun cuando el error cuadrático medio es el concepto más importante. 13.2.4. Estimador insesgado Se dice que un estimador Θ̂ es un estimador insesgado del parámetro θ, si cumple que E[Θ̂] = θ 13 Estimación puntual y estimación por intervalo 167 para todos los posibles valores de θ. De esta forma, para cualquier estimador insesgado, Θ̂, se cumple que ECM=Var(Θ̂). Como vimos en el caṕıtulo anterior, sea como sea la P.M., la esperanza de la media muestral coincide con la media poblacional. Por tanto, la media de la muestra, x̄, es un estimador insesgado de µ. Si un estimador no es insesgado, se dice que es sesgado, y se llama sesgo a la función (no v.a.) b(θ) = E[Θ̂]− θ. El sesgo puede ser positivo, lo cual implica que el estimador en cuestión está sobrevalorando, en media, el valor de θ; o puede ser negativo, lo cual implica que el estimador en cuestión está infravalorando, en media, el valor de θ. Ejemplo.- De una P.M.≡ N(µ, σ) extraemos una m.a.s., {x1, . . . ,xn}, y construimos dos estimadores de la varianza, Θ̂1 = s 2 = 1 n− 1 n∑ i=1 (xi − x̄)2 Θ̂2 = 1 n n∑ i=1 (xi − x̄)2 En la sección 12.4 vimos que, si la población es Normal, entonces (n − 1)s2/σ2 ≡ χ2n−1. Por tanto, E[Θ̂1] = E[s 2] = σ2 n− 1 E[χ 2 n−1] = σ 2 E[Θ̂2] = n− 1 n E[Θ̂1] = n− 1 n σ2 = σ2 − 1 n σ2 Por tanto, la varianza muestral, Θ̂1 = s 2 = ∑ (xi − x̄)2/(n − 1) es un estimador insesgado de la varianza de la población, σ2. En cambio, Θ̂2 = ∑ (xi − x̄)2/n es un estimador sesgado de σ2. Además, el sesgo de Θ̂2 es b(θ) = −θ/n < 0, es decir, el estimador Θ̂2 está infravalorando, en media, el verdadero valor de la varianza de la población σ 2. Esta es la razón por la cual se define la varianza muestral con el dividendo igual a n− 1 en vez de igual a n. Por último, hay que señalar que el hecho de que s2 sea un estimador insesgado de σ2, no implica que s sea un estimador insesgado de σ (ver Sec. 12.7). 13.2.5. Estimador eficiente Sin perder de vista el hecho de que estamos buscando aquellos estimadores con ECM mı́nimo, si consideramos los estimadores insesgados, para ellos se cumple ECM=Var(Θ̂). Por tanto, el problema se reduce a encontrar un estimador insesgado que tenga varianza mı́nima. En general, se dice que el estimador Θ̂ es un estimador insesgado de varianza 168 Estad́ıstica mı́nima uniforme de θ, si es insesgado (E[Θ̂] = θ), y Var(Θ̂) es menor que la varianza de cualquier otro estimador de θ para todos los posibles valores de θ. La varianza de un estimador insesgado es la cantidad más importante para decidir cómo de bueno es el estimador para estimar θ. Por ejemplo, si Θ̂1 y Θ̂2 son dos estimadores insesgados de θ, se dice que Θ̂1 es más eficiente que Θ̂2 si Var(Θ̂1) ≤Var(Θ̂2), cumpliéndose la desigualdad en el sentido estricto para algún valor de θ. Es muy común utilizar el cociente Var(Θ̂1)/Var(Θ̂2) para determinar la eficiencia relativa de Θ̂1 respecto a Θ̂2. Si los estimadores son sesgados, las eficiencias relativas se calculan con los respectivos errores cuadráticos medios. Pero, dicho todo esto, seguimos teniendo un problema. Una vez que tenemos un estimador y conocemos su varianza, ¿cómo podemos saber si existe otro estimador con una varianza más pequeña? Para resolverlo, recurrimos al siguiente teorema. 13.2.5.1. Teorema (Cota de Cramér-Rao) Dada una P.M. con función de densidad f(x, θ) y una muestra aleatoria simple de tamaño n, {x1, . . . , xn}, si Θ̂ es un estimador de θ, entonces se cumple Var(Θ̂) ≥ (1 + b ′(θ))2 E [( ∂LnL(x1, . . . , xn, θ) ∂θ ])2 = (1 + b′(θ))2 nE [( ∂Lnf(x, θ) ∂θ )2] = − (1 + b′(θ))2 nE [ ∂2Lnf(x, θ) ∂2θ ] siendo b(θ) el sesgo de Θ̂ y L(x1, . . . , xn, θ) la función de verosimilitud de la muestra. La primera expresión a la derecha de la desigualdad se conoce como cota de Cramér- Rao. El resto de igualdades representan distintas versiones, generalmente más sencillas de calcular, de dicha cota. Lo primero que debemos observar es que, si el estimador es insesgado, entonces b(θ) = 0. La cota de Cramér-Rao establece un ĺımite inferior para la varianza de cualquier estimador de θ. Esto no implica necesariamente que deba existir un estimador de θ cuya varianza coincida con la cota de Cramér-Rao. Es decir, es posible encontrar un estimador de θ que tenga la varianza más pequeña posible de entre todos los estimadores de θ, pero cuya varianza sea más grande que el ĺımite inferior establecido por la cota de Cramér-Rao. Este estimador, en el caso de que además fuera insesgado, seguiŕıa siendo un estimador insesgado de varianza mı́nima uniforme para θ. Un estimador cuya varianza coincide con la cota de Cramér-Rao se dice que es un estimador eficiente. Si, además, es insesgado, se llama estimador de eficiencia absoluta o 13 Estimación puntual y estimación por intervalo 169 completa. De esta forma, un estimador de θ de eficiencia absoluta es el mejor estimador de θ que se puede encontrar. Ejemplo.-De una P.M.≡ N(µ, σ), con σ conocido y θ = µ desconocido, se extrae una m.a.s. de tamaño n, {x1, . . . , xn}. Como estimador de la media de la población, utilizamos la media muestral Θ̂ = x̄ = 1 n n∑ i=1 xi de la que sabemos que su distribución es x̄ ≡ N(µ, σ/√n ). Por tanto, E[x̄] = µ = θ =⇒ es insesgado =⇒ b(θ) = 0 Var(x̄) = σ2 n Vamos a calcular la cota de Cramér-Rao (CCR) de los estimadores insesgados de la media de una población Normal. CCR = 1 nE [( ∂Lnf(x, θ) ∂θ )2] = −1 nE [ ∂2Lnf(x, θ) ∂2θ ] Como P.M.≡ N(µ, σ), su función de densidad es de la forma f(x, θ) = 1 σ √ 2π e− 1 2σ2 (x−θ)2 entonces Lnf(x, θ) = Ln ( 1 σ √ 2π ) − 1 2σ2 (x− θ)2 ∂Lnf(x, θ) ∂θ = 1 σ2 (x− θ) ∂2Lnf(x, θ) ∂2θ = − 1 σ2 E [ ∂2Lnf(x, θ) ∂2θ ] = E [ − 1 σ2 ] = − 1 σ2 Por tanto, CCR = −1 nE [ ∂2Lnf(x, θ) ∂2θ ] = σ 2 n Es decir, Var(x̄) = CCR 170 Estad́ıstica y, además, x̄ es insesgado. Entonces, la media muestral de una población Normal es un estimador de eficiencia absoluta de la media poblacional. Por último, hay que señalar que, como se ha visto en este ejemplo, para calcular la cota de Cramér-Rao es necesario conocer la distribución de la P.M. 13.3. Métodos de estimación puntual En las secciones anteriores hemos comentado ampliamente las propiedades que debe tener un buen estimador. Incluso hemos visto, a través de los ejemplos, que un estima- dor de la media poblacional podŕıa ser la media muestral, un estimador de la varianza poblacional podŕıa ser la varianza muestral, y un estimador de la proporción de éxitos de la población podŕıa ser la proporción de éxitos de la muestra. Pero, ¿qué ocurre si el parámetro θ de la población no es ni su media, ni su varianza ni su proporción de éxitos? Por ejemplo, si la P.M. tiene una función de densidad f(x, θ) = θ (1 + x)1+θ x ≥ 0, θ > 0 En este caso, θ no es ninguno de los parámetros “conocidos”, por tanto, en un principio, no tenemos ninguna pista sobre cómo podŕıa ser un estimador de θ. En esta sección vamos a dar dos métodos para obtener un estimador de cualquier parámetro poblacional θ. 13.3.1. Método de máxima verosimilitud La idea en la que se basa este método es muy sencilla y, además, bastante lógica. Si de una población cualquiera he obtenido una muestra en particular, es razonable pensar que la muestra obtenida es la que mayor probabilidad teńıa de salir. Veamos esta idea con un ejemplo Ejemplo.- Una urna contiene bolas rojas y blancas con una proporción de bolas rojas, p, desconocida. Extraemos 10 bolas con reemplazamiento (m.a.s. de tamaño n = 10) con el resultado de 3 bolas rojas y 7 blancas. Parece lógico pensar que el hecho de que en la muestra aparezcan 3 bolas rojas de 10 es porque, según la proporción real de bolas rojas que hay en la urna, es más probable que salgan 3 rojas a que salgan 5 ó 9. Es decir, la muestra que ha salido es la que mayor probabilidad teńıa de salir. Vamos a trasladar este razonamiento a números. La probabilidad de que salga la muestra que ha salido (o sea, la función de verosimilitud de la muestra) es L(p) = p3 (1− p)7 PR103,7 = p3 (1− p)7 10! 3! 7! 13 Estimación puntual y estimación por intervalo 171 Para calcular el valor de p que hace que esta probabilidad sea máxima, basta con derivar respecto de p e igualar a 0. ∂L(p) ∂p = [ 3p2 (1− p)7 − 7p3 (1− p)6 ] 10! 3! 7! = p2 (1− p)6 [3− 10p] 10! 3! 7! = 0 Entonces, se pueden dar 3 casos • p = 0 imposible, pues hay al menos una bola roja • p = 1 imposible, pues hay al menos una bola blanca • p = 3/10 además, ∂ 2L(p) ∂2p ∣∣∣∣ p=3/10 < 0 Es decir, si en la muestra han salido 3 bolas rojas de las 10 muestreadas, el valor de p que hace de esta muestra la más probable es p = 3/10. Ahora, vamos a generalizar este ejemplo al caso de una P.M. cualquiera, con función de densidad f(x, θ), siendo θ un parámetro cualquiera de la población. Extraemos una m.a.s. de tamaño n, {x1, . . . , xn}. Lafunción de verosimilitud de la muestra, por ser muestra extráıda con reemplazamiento, viene dada por L(x1, . . . , xn, θ) = f(x1, θ)× · · · × f(xn, θ) La máxima verosimilitud puede obtenerse derivando L con respecto a θ e igualando a cero. Para ello, es conveniente tomar primero logaritmos y luego derivar, ya que la función logaritmo es estrictamente creciente. Aśı, obtenemos θ en términos de los xi. El método puede generalizarse para el caso en que existan varios parámetros pobla- cionales a estimar. Ahora, se toman las derivadas parciales respecto a cada uno de los parámetros, se igualan a cero y se resuelven las ecuaciones resultantes. Ejemplo.- De una P.M. con función de densidad f(x, θ) = θ (1 + x)1+θ x ≥ 0, θ > 0 extraemos una m.a.s. de tamaño n, {x1, . . . , xn}, para calcular un estimador, Θ̂, de θ. La función de verosimilitud de la muestra es L(x1, . . . , xn, θ) = f(x1, θ)× · · · × f(xn, θ) = θn n∏ i=1 (1 + xi) 1+θ 172 Estad́ıstica Antes de derivar, tomamos logaritmos LnL(x1, . . . , xn, θ) = Lnθ n − Ln n∏ i=1 (1 + xi) 1+θ = nLnθ − (1 + θ) n∑ i=1 Ln(1 + xi) ∂LnL(x1, . . . , xn, θ) ∂θ = n θ − n∑ i=1 Ln(1 + xi) = 0 =⇒ Θ̂ = n n∑ i=1 Ln(1 + xi) ∂2LnL(x1, . . . , xn, θ) ∂2θ ∣∣∣∣ θ=Θ̂ = − n Θ̂2 < 0 Por tanto, el estimador de máxima verosimilitud (EMV) de θ viene dado por Θ̂ = n n∑ i=1 Ln(1 + xi) Hay que señalar que no siempre es posible aplicar el método de máxima verosimilitud para calcular un estimador (ver Sec. 13.3.2). 13.3.2. Propiedades de los estimadores de máxima verosimilitud En esta sección vamos a enumerar una serie de propiedades o teoremas que verifican los estimadores de máxima verosimilitud (EMV), comenzando con una definición sobre las condiciones en las que se puede aplicar el método de máxima verosimilitud. • Condiciones de regularidad de Fisher-Wolfowitz 1.- La P.M. de la que procede la muestra tiene un campo de variación que no depende del parámetro θ, y, por tanto, la muestra tampoco. 2.- La función de verosimilitud de la muestra admite, por lo menos, las derivadas de primer y segundo orden respecto del parámetro θ. 3.- Las operaciones de derivación e integración (o suma, en el caso de v.a. discretas) son intercambiables. • Bajo condiciones de regularidad, los EMV son consistentes. • Si un parámetro θ posee un estimador suficiente, Θ̂, entonces el EMV de θ es fun- ción de Θ̂. Esto no implica que todos los EMV sean suficientes, pues no todos los parámetros poblacionales poseen un estimador suficiente. 13 Estimación puntual y estimación por intervalo 173 • Los EMV no siempre son insesgados, pero śı son asintóticamente insesgados, es decir ĺım n→∞ b(θ) = 0 • Bajo condiciones de regularidad, si existe un estimador eficiente de θ, éste coincide con el obtenido por el método de máxima verosimilitud. De nuevo, esto no implica que todos los EMV sean eficientes. • Bajo condiciones de regularidad, los EMV son asintóticamente eficientes y asintóti- camente Normales. Es decir, si Θ̂ es el EMV de θ, entonces ĺım n→∞ Θ̂ ≡ N ( θ, 1√ I(θ) ) siendo I(θ) = E [( ∂LnL(x1, . . . , xn, θ) ∂θ )2] • Si Θ̂ es el EMV de θ, entonces g(Θ̂) es el EMV de g(θ), siempre que g sea continua y biuńıvoca. 13.3.3. Método de los momentos Este método consiste en igualar los momentos de la distribución de la P.M., con los correspondientes momentos muestrales, teniendo en cuenta que, para una m.a.s. de tamaño n, {x1, . . . , xn}, el momento centrado en el origen de orden r es mr = 1 n n∑ i=1 xri Ejemplo.- De una P.M. con función de densidad f(x, θ) = θ (1 + x)1+θ x ≥ 0, θ > 0 extraemos una m.a.s. de tamaño n, {x1, . . . , xn}, para calcular un estimador, Θ̂, de θ. Los momentos de primer orden de la población y la muestra son, E[P.M.] = ∫ +∞ −∞ xf(x, θ) dx = ∫ +∞ 0 x θ (1 + x)1+θ dx = 1 θ − 1 (θ > 1) m1 = 1 n n∑ i=1 xi 174 Estad́ıstica e, igualando, 1 θ − 1 = 1 n n∑ i=1 xi =⇒ Θ̂ = n n∑ i=1 xi + 1 Como se puede comprobar, el estimador obtenido por el método de máxima verosi- militud puede no coincidir con el obtenido por el método de los momentos. 13.4. Estimación por intervalo de confianza En lugar de hacer una estimación puntual del parámetro poblacional θ, se pretende dar un intervalo en el que se tiene cierta probabilidad (confianza) de que se encuentre el verdadero valor de θ. Es decir, un intervalo de confianza del parámetro θ es de la forma θ̂ − e < θ < θ̂ + e donde, generalmente, θ̂ es una estimación puntual de θ, obtenida con el estimador puntual Θ̂. Se llama amplitud del intervalo o margen de error, al tamaño del intervalo, 2e. Cuando calculamos un intervalo para un parámetro poblacional θ, también debemos dar una medida de la bondad de la estimación, es decir, la probabilidad de que el valor del parámetro θ se encuentre realmente dentro del intervalo construido. Aśı, si P (θ̂ − e < θ < θ̂ + e) = 1− α decimos que el intervalo (θ̂ − e, θ̂ + e) es un intervalo de confianza del (1 − α)100%. La fracción (1 − α) recibe el nombre de coeficiente de confianza o grado de confianza; y los puntos extremos, θ̂ − e y θ̂ + e, se llaman ĺımites de confianza. Se llama nivel de significación (N.S.) a la probabilidad de que el verdadero valor de θ esté fuera del intervalo de confianza, es decir N.S. = α100% De esta forma, tenemos distintos niveles de significación, según el grado de confianza obtenido. Algunos de ellos tienen nombre propio, por ejemplo • Confianza Casi Significativa Confianza = 1− α = 95% N.S. = α = 5% 13 Estimación puntual y estimación por intervalo 175 • Confianza Significativa Confianza = 1− α = 99% N.S. = α = 1% • Confianza Muy Significativa Confianza = 1− α = 99.5% N.S. = α = 0.5% Por último, se habla de seguridad estad́ıstica cuando se trabaja con un intervalo de confianza del tipo θ̂ − 3σΘ̂ < θ < θ̂ + 3σΘ̂ siendo σΘ̂ la desviación t́ıpica del estad́ıstico Θ̂. En las secciones siguientes vamos a construir el intervalo de confianza de varios parámetros poblacionales tales como la media, la varianza o la proporción de éxitos, siguiendo siempre el mismo esquema: 1.- Se definirá la distribución de la P.M. 2.- Se definirá un estimador puntual, Θ̂, del parámetro poblacional θ. Si es posible, estimador insesgado. 3.- Cuando sea posible, se definirá la distribución de la v.a. Θ̂. En cualquier caso, se contará con la media y la varianza del estimador, µΘ̂=E(Θ̂) y σ 2 Θ̂ =Var(Θ̂). 4.- Fijado un nivel de confianza, (1− α)100%, se construirá un intervalo de confianza, partiendo de el hecho de que P (|Θ̂− θ| ≤ k) = 1− α Cuando la distribución de Θ̂ sea conocida, buscaremos en las tablas apropiadas el valor de k y, cuando la distribución de Θ̂ sea desconocida, calcularemos k aplicando el teorema de Chebychev. 176 Estad́ıstica 13.4.1. Intervalo de confianza para la media Dada un P.M. con media µ, como estimador puntual de la media de la población, se utiliza la media de la muestra x̄ = 1 n n∑ i=1 xi 13.4.1.1. P.M.≡ N(µ, σ) con σ conocido Si tenemos una muestra de tamaño n, entonces el estad́ıstico media muestral sigue una distribución x̄ ≡ N(µ, σ/√n ). Tipificando la variable, x̄− µ σ/ √ n ≡ N(0, 1) entonces, P ( −zα/2 < x̄− µ σ/ √ n < zα/2 ) = 1− α es decir P ( x̄− σ√ n zα/2 < µ < x̄+ σ√ n zα/2 ) = 1− α siendo zα/2, el número real que deja un área de α/2 unidades a su derecha en una N(0, 1) (Fig. 13.1). Por tanto, una estimación puntual de la media poblacional µ, se obtiene seleccio- nando una muestra aleatoria simple de tamaño n, y calculando su media x̄. Mientras que un intervalo de confianza del (1− α)100% para la media poblacional viene dado por x̄− σ√ n zα/2 < µ < x̄+ σ√ n zα/2 La semiamplitud del intervalo es e = σ√ n zα/2 Si e es un dato del problema, podemos determinar el tamaño de la muestra adecuado al nivel de confianza pedido, por medio de la expresión n = (σ e zα/2 )2 13 Estimación puntual y estimaciónpor intervalo 177 Figura 13.1: P (−zα/2 < N(0, 1) < zα/2) = 1− α 13.4.1.2. P.M.≡ N(µ,σ) con σ desconocido Si x̄ y s son la media y la desviación t́ıpica de una muestra aleatoria simple de tamaño n obtenida de una población Normal con varianza σ2 desconocida, entonces x̄− µ s/ √ n ≡ tn−1 entonces, P ( −tα/2 < x̄− µ s/ √ n < tα/2 ) = 1− α es decir P ( x̄− s√ n tα/2 < µ < x̄+ s√ n tα/2 ) = 1− α siendo tα/2, el número real que deja un área de α/2 unidades a su derecha en una tn−1 (Fig. 13.2). Por tanto, un intervalo de confianza del (1 − α)100% para la media poblacional viene dado por x̄− s√ n tα/2 < µ < x̄+ s√ n tα/2 178 Estad́ıstica Figura 13.2: P (−tα/2 < tn−1 < tα/2) = 1− α 13.4.1.3. P.M.≡ ?(µ, σ) con σ conocido y n > 30 Aun cuando la forma de la P.M. sea desconocida o no Normal, si el tamaño de la muestra es suficientemente grande, n > 30, sabemos que x̄− µ σ/ √ n ∼= N(0, 1) y, por tanto, un intervalo de confianza del (1 − α)100% para la media poblacional viene dado por x̄− σ√ n zα/2 < µ < x̄+ σ√ n zα/2 13.4.1.4. P.M.≡ ?(µ, σ) con σ conocido y n < 30 Del estad́ıstico media muestral sólo sabemos que su esperanza es E[x̄] = µ y su varianza es Var(x̄) = σ2/n, pero no conocemos su distribución, por lo que sólo podemos aplicar el Teorema de Chebychev. P ( x̄− σ√ n k < µ < x̄+ σ√ n k ) ≥ 1− αk 13 Estimación puntual y estimación por intervalo 179 siendo αk = 1/k 2. Por tanto, un intervalo de confianza del (1 − αk)100% para la media poblacional viene dado por x̄− σ√ n k < µ < x̄+ σ√ n k 13.4.1.5. P.M.≡ ?(µ, σ) con σ desconocido y n > 30 Si x̄ y s son la media y la desviación t́ıpica de una muestra aleatoria simple de tamaño n > 30 obtenida de una población desconocida o no Normal, con varianza σ2 desconocida, entonces se puede aproximar σ2 ≃ s2 y, x̄− µ s/ √ n ∼= N(0, 1) y, por tanto, un intervalo de confianza del (1− α)100% para µ es x̄− s√ n zα/2 < µ < x̄+ s√ n zα/2 13.4.1.6. P.M.≡ ?(µ, σ) con σ desconocido y n < 30 Es el único caso en el que no poseemos herramientas suficientes para obtener un intervalo de confianza válido para la media. En cualquier caso, como estimación puntual de µ, siempre es válida la media muestral, sea cual sea el tamaño de la muestra. 13.4.2. Intervalo de confianza para la varianza 13.4.2.1. P.M.≡ N(µ,σ) con µ desconocido Dada un P.M.≡ N(µ, σ) con media µ desconocida, como estimador puntual de la varianza de la población, se utiliza la varianza de la muestra s2 = 1 n− 1 n∑ i=1 (xi − x̄)2 En la sección 12.4, comprobamos que (n− 1)s2 σ2 ≡ χ2n−1 Entonces, se puede escribir P ( χ21−α/2 < (n− 1)s2 σ2 < χ2α/2 ) = 1− α 180 Estad́ıstica Figura 13.3: P (χ21−α/2 < χ 2 n−1 < χ 2 α/2) = 1− α o bien P ( (n− 1)s2 χ2α/2 < σ2 < (n− 1)s2 χ21−α/2 ) = 1− α donde χ21−α/2 y χ 2 α/2 son los valores de la distribución χ 2 n−1 que dejan áreas de 1− α/2 y α/2, respectivamente, a su derecha (Fig. 13.3) Por tanto, un intervalo de confianza del (1 − α)100% para la varianza muestral de una población Normal viene dado por (n− 1)s2 χ2α/2 < σ2 < (n− 1)s2 χ21−α/2 13.4.3. Intervalo de confianza para la diferencia de medias Suponemos dos poblaciones, X e Y , con distribuciones X ≡ N(µx, σx) e Y ≡ N(µy, σy). De cada una de ellas extraemos una muestra de tamaños n y m, respectivamen- te. El estad́ıstico media de la primera muestra será x̄ ≡ N (µx, σx/ √ n), y el estad́ıstico media de la segunda muestra será ȳ ≡ N (µy, σy/ √ m) 13 Estimación puntual y estimación por intervalo 181 Una estimación puntual de la diferencia de medias, (µx − µy), viene dada por la diferencia de las medias de las muestras, x̄− ȳ = 1 n n∑ i=1 xi − 1 m m∑ i=1 yi Para obtener un intervalo de confianza, debemos tener en cuenta si las varianzas son conocidas. 13.4.3.1. P.M. Normales con σx y σy conocidas En este caso, (x̄− ȳ)− (µx − µy)√ σ2x n + σ2y m ≡ N(0, 1) Entonces, un intervalo de confianza del (1− α)100% para la diferencia de medias es (x̄− ȳ)− √ σ2x n + σ2y m zα/2 < µx − µy < (x̄− ȳ) + √ σ2x n + σ2y m zα/2 13.4.3.2. P.M. Normales con σ2x = σ 2 y = σ 2 desconocida En este caso, hemos visto que (x̄− ȳ)− (µx − µy) Sp √ 1 n + 1 m ≡ tn+m−2 siendo Sp = √ (n− 1)s2x + (m− 1)s2y n+m− 2 Entonces, un intervalo de confianza del (1−α)100% para la diferencia de medias es (x̄− ȳ)− Sp √ 1 n + 1 m tα/2 < (µx − µy) < (x̄− ȳ) + Sp √ 1 n + 1 m tα/2 siendo tα/2, el número real que deja un área de α/2 unidades a su derecha en una tn+m−2. 182 Estad́ıstica 13.4.3.3. P.M. Normales con σ2x 6= σ2y desconocidas En este caso, hemos visto que (x̄− ȳ)− (µx − µy)√ s2x n + s2y m ∼= tγ siendo γ = (A+B)2 A2 n− 1 + B2 m− 1 A = s2x n , B = s2y m Entonces, un intervalo de confianza del (1−α)100% para la diferencia de medias es (x̄− ȳ)− √ s2x n + s2y m tα/2 < (µx − µy) < (x̄− ȳ) + √ s2x n + s2y m tα/2 siendo tα/2, el número real que deja un área de α/2 unidades a su derecha en una tγ 13.4.4. Intervalo de confianza para el cociente de varianzas Suponemos dos poblaciones, X e Y , con distribuciones X ≡ N(µx, σx) e Y ≡ N(µy, σy). De cada una de ellas extraemos una muestra de tamaños n y m, respecti- vamente. Sean s2x y s 2 y las varianzas de las muestras. Una estimación puntual del cociente de varianzas, σ2x/σ 2 y , viene dada por el cociente de las varianzas de las muestras s2x s2y = 1 n−1 n∑ i=1 (xi − x̄)2 1 m−1 m∑ i=1 (yi − ȳ)2 Para obtener un intervalo de confianza, consideramos el estad́ıstico s2x/σ 2 x s2y/σ 2 y ≡ Fn−1,m−1 Entonces, P ( f1−α/2(n− 1, m− 1) < s2x/σ 2 x s2y/σ 2 y < fα/2(n− 1, m− 1) ) = 1− α siendo f1−α/2(n− 1, m− 1) y fα/2(n− 1, m− 1), los números reales que dejan un área de 1− α/2 y α/2 unidades a su derecha, respectivamente, en una Fn−1,m−1 (Fig. 13.4). O bien, 13 Estimación puntual y estimación por intervalo 183 Figura 13.4: P (f1−α/2 < Fn−1,m−1 < fα/2) = 1− α P ( s2x s2y 1 fα/2(n− 1, m− 1) < σ2x σ2y < s2x s2y 1 f1−α/2(n− 1, m− 1) ) = 1− α Utilizando las propiedades de la distribución F-Snedecor, también se puede escribir como P ( s2x s2y 1 fα/2(n− 1, m− 1) < σ2x σ2y < s2x s2y fα/2(m− 1, n− 1) ) = 1− α Entonces un intervalo de confianza del (1 − α)100% para el cociente de varianzas poblacionales viene dado por s2x s2y 1 fα/2(n− 1, m− 1) < σ2x σ2y < s2x s2y fα/2(m− 1, n− 1) 13.4.5. Intervalo de confianza para la proporción poblacional Partimos de una P.M. Binomial de parámetro p, es decir, p es la proporción de éxitos de la Población. Extraemos una m.a.s. {x1, . . . , xn} y asignamos los valores xi = { 1 si es éxito 0 si es fracaso 184 Estad́ıstica es decir, cada v.a. xi ≡ B(1, p) Sean las v.a. X ≡ número de éxitos de la muestra p̂ ≡ proporción de éxitos de la muestra Una estimación puntual de la proporción de éxitos de la población viene dada por la proporción de éxitos de la muestra p̂ = 1 n n∑ i=1 xi Para encontrar un intervalo de confianza, tenemos en cuenta el tamaño de la muestra. 13.4.5.1. P.M. Binomial y n > 30 Si el tamaño de la muestra es suficientemente grande, entonces p̂ ≃ N ( p, √ p(1− p) n ) y, P −zα/2 < p̂− p√ p(1− p) n < zα/2 = 1− α Por tanto, P ( p̂− √ p(1− p) n zα/2 < p < p̂+ √ p(1− p) n zα/2 ) = 1− α Podŕıamos decir que un intervalo de confianza del (1− α)100% para la proporción de éxitos de la población viene dado por p̂− √ p(1− p) n zα/2 < p < p̂+ √ p(1− p) n zα/2 pero esto no sirve de mucho pues como no conocemos el valor de p, no se pueden calcular los ĺımites del intervalo. Para resolver este problema se puede proceder de dos formas. 13 Estimación puntual y estimación por intervalo 185 • Una solución consiste en aproximar el valor de p por el valor de la proporción muestral. Por tanto, un intervalo de confianza del (1 − α)100% para la proporción de éxitos de la población viene dado por p̂− √ p̂(1− p̂) n zα/2 < p < p̂+ √ p̂(1− p̂) n zα/2 • Otro método consisteen utilizar como valor aproximado del producto p(1 − p), su máximo valor posible. Aśı, y = p(1− p) ⇒ y′ = 1− 2p = 0 ⇒ p = 1 2 ⇒ p(1− p) = 1 4 Entonces, un intervalo de confianza del (1 − α)100% para la proporción de éxitos viene dado por p̂− √ 1 4n zα/2 < p < p̂+ √ 1 4n zα/2 13.5. Intervalo de confianza asintótico Si θ es cualquier parámetro de una población, Θ̂MV es su estimador de máxima verosimilitud y θ̂MV es su estimación de máxima verosimilitud entonces, Θ̂MV es asintóti- camente Normal con parámetros µΘ̂MV = E[Θ̂MV] −→ θ σ2 Θ̂MV = Var(Θ̂MV) −→ −1 ∂2LnL(x1, . . . , xn; θ) ∂θ2 ∣∣∣∣ θ=θ̂MV donde LnL(x1, . . . , xn; θ) es el logaritmo neperiano de la función de verosimilitud de la muestra. Por tanto, si la muestra es suficientemente grande, podemos construir un inter- valo de confianza para el parámetro θ de la forma habitual, teniendo en cuenta que Θ̂MV − µΘ̂MV σΘ̂MV ∼= N(0, 1) entonces P ( −zα/2 < Θ̂MV − µΘ̂MV σΘ̂MV < zα/2 ) = 1− α 186 Estad́ıstica es decir, θ̂MV − zα/2σΘ̂MV < θ < θ̂MV + zα/2σΘ̂MV Un inconveniente de este método general es que la convergencia de la distribución de Θ̂MV hacia la Normal puede ser muy lenta y entonces el intervalo de confianza será poco preciso. Esto no ocurre cuando θ es un parámetro de centralización. Ejemplo.- Vamos a obtener el intervalo de confianza asintótico del parámetro λ de una población Exponencial Dada la P.M. = X ≡ Exp(λ), entonces f(x, λ) = λe−λx µ = E[X ] = 1 λ σ2 = Var(X) = 1 λ2 i) Obtenemos el estimador de máxima verosimilitud de λ La función de verosimilitud de una muestra de tamaño n es L(x1, . . . , xn;λ) = f(x1, λ)× · · · × f(xn, λ) = λn e−λ ∑ xi Obtenemos el logaritmo neperiano LnL(x1, . . . , xn;λ) = nLnλ− λ ∑ xi Entonces ∂LnL ∂λ = n λ −∑ xi = 0 =⇒ n− λ ∑ xi = 0 =⇒ λ̂MV = n∑ xi = 1 x̄ ii) Realizamos las aproximaciones E[λ̂MV] ≃ λ Var(λ̂MV) ≃ −1 ∂2LnL ∂λ2 ∣∣∣∣ λ=λ̂MV = −1 − n λ2 ∣∣∣ λ=λ̂MV = 1 nx̄2 iii) Si el tamaño de la muestra es suficientemente grande, un intervalo de confianza del (1− α)% para el parámetro λ de una población Exponencial es 1 x̄ − zα/2 1 x̄ √ n < λ < 1 x̄ + zα/2 1 x̄ √ n 14 Teoŕıa de muestras de población finita Índice 14.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 14.2. Distribuciones de muestreo . . . . . . . . . . . . . . . . . . . . 189 14.2.1. Estad́ıstico media muestral . . . . . . . . . . . . . . . . . . . . 189 14.2.2. Estad́ıstico varianza muestral . . . . . . . . . . . . . . . . . . . 191 14.2.3. Estad́ıstico proporción muestral . . . . . . . . . . . . . . . . . . 193 14.3. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . 194 14.3.1. Intervalo de confianza para la media poblacional . . . . . . . . 194 14.3.1.1. P.M.≡ ?(µ, σ) con σ conocido . . . . . . . . . . . . . 195 14.3.1.2. P.M.≡ ?(µ, σ) con σ desconocido . . . . . . . . . . . 195 14.3.2. Intervalo de confianza para la proporción poblacional . . . . . . 195 187 188 Estad́ıstica 14.1. Introducción A lo largo de este caṕıtulo supondremos que la muestra aleatoria se ha realizado sin reemplazamiento o, lo que es equivalente, se han extráıdo los n elementos a la vez. Es importante resaltar dos cosas: • Si la muestra se extrae sin reemplazamiento, las v.a. {x1, . . . , xn} que representan a la muestra no son independientes, pues cada extracción depende de las extracciones anteriores y, además, no están idénticamente distribuidas, pues en cada extracción la configuración de la población es distinta. Por tanto, por muy grande que sea el tamaño de la muestra, en ningún caso estaremos en condiciones de aplicar el Teorema de Levy-Lindeberg. Es decir, en ningún caso podremos aproximar la distribución del estad́ıstico muestral por una distribución Normal. Por otra parte, el conocimiento de la distribución poblacional es, en la mayoŕıa de los casos, irrelevante. • Aunque la diferencia teórica entre la teoŕıa de población infinita y población finita radica en el método de extracción de la muestra (con o sin reemplazamiento), en la práctica, casi todas las muestras se realizan sin reemplazamiento. Al fin y al cabo seŕıa una pérdida de tiempo y de dinero inspeccionar dos veces el mismo elemento de la población. ¿Cómo se diferencian entonces en la práctica? Veamos un ejemplo. Supongamos que queremos estimar la proporción de éxitos, p1 y p2, de dos po- blaciones. En el primer caso, la población la constituyen los 34 millones de es- pañoles con derecho a voto. Extraemos una muestra aleatoria, sin reemplazamien- to, de 1000 personas. Extraemos el primer elemento, lo examinamos, y lo deja- mos fuera. Cuando vamos a extraer el segundo elemento, la población consta de 34.000.000− 1 ≃ 34.000.000 elementos y la proporción de éxitos de la “nueva” po- blación es ≃ p1, por tanto, podemos considerar que x1 y x2 provienen de la misma P.M. y, además, son independientes. Cuando vamos a extraer el tercer elemento, la población consta de 34.000.000 − 2 ≃ 34.000.000 elementos y la proporción de éxitos de la “nueva” población es ≃ p1, por tanto, podemos considerar que x1, x2 y x3 provienen de la misma P.M. y, además, son independientes. Y aśı sucesivamente. Por tanto, en este caso, no importa cómo se haya extráıdo la muestra, pues siempre podremos considerar que {x1, . . . , x1000} son independientes y están idénticamen- te distribuidas. En el segundo caso, supongamos que tenemos que inspeccionar un lote de 50 piezas. Extraemos una muestra aleatoria, sin reemplazamiento, de 20 piezas. Claramente, ahora cada extracción realizada modifica la composición de la 14 Teoŕıa de muestras de población finita 189 población, tanto en tamaño como en proporción de piezas defectuosas, y, por tanto, {x1, . . . , x20} no son independientes ni están idénticamente distribuidas. Como conclusión, en la práctica, lo que diferencia una muestra con reemplazamiento de otra sin reemplazamiento, es la relación entre el tamaño de la población y el tamaño de la propia muestra. Un criterio de uso generalizado es considerar como m.a.s. toda muestra que cumpla la relación n/N < 0.10. A lo largo de este caṕıtulo supondremos que la muestra la componen n v.a. que no son independientes ni están idénticamente distribuidas. La nomenclatura empleada a lo largo de este caṕıtulo es la siguiente • Población Madre formada por N elementos {X1, X2, . . . , XN} • Media Poblacional µ = 1 N N∑ i=1 Xi • Varianza Poblacional σ2 = 1 N N∑ i=1 (Xi − µ)2 • Muestra sin reemplazamiento formada por n elementos {x1, x2, . . . , xn} • Media Muestral x̄ = 1 n n∑ i=1 xi • Varianza Muestral s2 = 1 n− 1 n∑ i=1 (xi − x̄)2 14.2. Distribuciones de muestreo 14.2.1. Estad́ıstico media muestral x̄ = 1 n n∑ i=1 xi Si llamamos η = x̄ y {z1, . . . , zm} a los posibles valores que puede tomar η, entonces m = ( N n ) y P (η = zi) = 1( N n ) 190 Estad́ıstica Por tanto, E[η] = m∑ i=1 ziP (η = zi) = 1( N n ) m∑ i=1 zi = 1( N n )(z1 + · · ·+ zm) = = 1( N n ) ( N − 1 n− 1 ) (X1 + · · ·+XN) n = ( N − 1 n− 1 ) ( N n ) 1 n N∑ i=1 Xi = = n N 1 n N∑ i=1 Xi = 1 N N∑ i=1 Xi = µ Es decir, E[x̄] = µ Para calcular la varianza, Var(η) = E [ (η − µη)2 ] = E[η2]− (E[η])2 Pero • E[η2] = m∑ i=1 z2i P (η = zi) = 1( N n ) m∑ i=1 z2i = = 1( N n ) 1 n2 [( N − 1 n− 1 ) N∑ i=1 X2i + 2 ( N − 2 n− 2 ) ∑ i<j XiXj ] = = 1 nN N∑ i=1 X2i + 2 n− 1 Nn(N − 1) ∑ i<j XiXj • (E[η])2 = µ2 = ( 1 N N∑ i=1 Xi )2 = 1 N2 ( N∑ i=1 X2i + 2 ∑ i<j XiXj ) 14 Teoŕıa de muestras de población finita 191 Entonces Var(η) = ( 1 nN − 1 N2 ) N∑ i=1 X2i + 2 ( n− 1 Nn(N − 1) − 1 N2 )∑ i<j XiXj = = N − n nN2 N∑ i=1 X2i − 2 N − n nN2(N − 1) ∑ i<j XiXj = = N − n n(N − 1) [ N − 1 N2 N∑ i=1 X2i − 2 N2 ∑ i<j XiXj ] = = N − n n(N − 1) [( 1 N − 1 N2 ) N∑ i=1 X2i − 2 N2 ∑ i<j XiXj] = = N − n n(N − 1) [ 1 N N∑ i=1 X2i − 1 N2 ( N∑ i=1 X2i + 2 ∑ i<j XiXj )] = = N − n n(N − 1) [ 1 N N∑ i=1 X2i − X̄2 ] = N − n n(N − 1) 1 N N∑ i=1 ( Xi − X̄ )2 = = N − n n(N − 1)σ 2 Es decir, Var(x̄) = N − n n(N − 1)σ 2 Además, cuando N es grande con respecto a n, entonces N−n N−1 → 1 y la varianza del estad́ıstico media es igual que en el caso de población infinita. Por tanto, x̄ ≡ ? ( µ, σ √ N − n n(N − 1) ) 14.2.2. Estad́ıstico varianza muestral s2 = 1 n− 1 n∑ i=1 (xi − x̄)2 192 Estad́ıstica Si llamamos η = s2 y {z1, . . . , zm} a los posibles valores que puede tomar η, entonces m = ( N n ) y z1 = 1 n− 1 ∑ (Xi − x̄1)2 −→ x̄1 = 1 n ∑ Xi −→ P (η = z1) = 1( N n ) z2 = 1 n− 1 ∑ (Xi − x̄2)2 −→ x̄2 = 1 n ∑ Xi −→ P (η = z2) = 1( N n ) ... zm = 1 n− 1 ∑ (Xi − x̄m)2 −→ x̄m = 1 n ∑ Xi −→ P (η = zm) = 1( N n ) donde cada zi es de la forma zi = 1 n− 1 ∑ (Xi − x̄i)2 = 1 n− 1 (∑ X2i − nx̄2i ) Entonces, 14 Teoŕıa de muestras de población finita 193 E[η] = m∑ i=1 ziP (η = zi) = z1 + · · ·+ zm( N n ) = = 1( N n ) 1 n− 1 [( N − 1 n− 1 ) N∑ i=1 X2i − n m∑ i=1 x̄2i ] = = 1( N n ) 1 n− 1 [( N − 1 n− 1 ) N∑ i=1 X2i − − n 1 n2 (( N − 1 n− 1 ) N∑ i=1 X2i + 2 ( N − 2 n− 2 ) ∑ i<j XiXj )] = = n N 1 n− 1 n− 1 n N∑ i=1 X2i − 2 n(n− 1) N(N − 1) 1 n− 1 1 n ∑ i<j XiXj = = 1 N N∑ i=1 X2i − 2 N(N − 1) ∑ i<j XiXj = N N − 1σ 2 Por tanto, E[s2] = N N − 1σ 2 14.2.3. Estad́ıstico proporción muestral Tenemos una P.M. ≡ B(1, p) de N elementos, {X1, . . . , Xi}, entre los cuales hay A éxitos y (N − A) fracasos; siendo p = P (éxito) = proporción de éxitos de la P.M. = A N q = P (fracaso) = proporción de fracasos de la P.M. = 1− p por tanto, µ = E[P.M.] = p y σ2 = Var(P.M.) = p(1− p) 194 Estad́ıstica Sacamos una muestra aleatoria sin reemplazamiento, {x1, . . . , xn}, entre los cuales hay a éxitos y (n− a) fracasos; siendo p̂ = P (éxito) = proporción de éxitos de la muestra = a n q̂ = P (fracaso) = proporción de fracasos de la muestra = 1− p̂ A cada elemento de la muestra le asignamos el valor xi = 1 si es éxito 0 si es fracaso entonces p̂ = 1 n n∑ i=1 xi = x̄ es decir, la proporción muestral no es más que la media muestral por lo que podemos aplicar los resultados de la sección 14.2.1. Aśı E[p̂] = E[x̄] = µ = p Var(p̂) = Var(x̄) = N − n n(N − 1) σ 2 = N − n n(N − 1) p(1− p) Por tanto, p̂ ≡ ? ( p, √ p(1− p) N − n n(N − 1) ) 14.3. Intervalos de confianza 14.3.1. Intervalo de confianza para la media poblacional Dada un P.M. con media µ, como estimador puntual de la media de la población, se utiliza la media de la muestra x̄ = 1 n n∑ i=1 xi 14 Teoŕıa de muestras de población finita 195 14.3.1.1. P.M.≡ ?(µ, σ) con σ conocido Atendiendo a lo dicho en el apartado 14.2.1, la distribución frecuencial del estad́ıstico media es x̄ ≡ ? ( µ, σ √ N − n n(N − 1) ) Teniendo en cuenta que la única herramienta aplicable es Chebychev, P ( x̄− σ √ N − n n(N − 1) k < µ < x̄+ σ √ N − n n(N − 1) k ) ≥ 1− αk siendo αk = 1/k 2. Por tanto, un intervalo de confianza del (1 − αk)100% para la media poblacional viene dado por x̄− σ √ N − n n(N − 1) k < µ < x̄+ σ √ N − n n(N − 1) k 14.3.1.2. P.M.≡ ?(µ, σ) con σ desconocido Atendiendo a lo dicho en el apartado 14.2.2, E[s2] = N N − 1 σ 2 =⇒ E [ N − 1 N s2 ] = σ2 por tanto, podemos tomar como estimación de la varianza poblacional, el valor de la varianza de la muestra, corregido por el factor N−1 N . A partir de aqúı, estamos en las mismas condiciones que en el apartado anterior. Aśı, P ( x̄− s √ N − n nN k < µ < x̄+ s √ N − n nN k ) ≥ 1− αk siendo αk = 1/k 2. Por tanto, un intervalo de confianza del (1 − αk)100% para la media poblacional viene dado por x̄− s √ N − n nN k < µ < x̄+ s √ N − n nN k 14.3.2. Intervalo de confianza para la proporción poblacional Dada un P.M. con una proporción de éxitos p, como estimador puntual de dicho parámetro se utilizará la proporción de éxitos de la muestra, p̂. 196 Estad́ıstica Según lo dicho en el apartado 14.2.3 p̂ ≡ ? ( p, √ p(1− p) N − n n(N − 1) ) Teniendo en cuenta que la única herramienta aplicable es Chebychev, P ( p̂− √ p(1− p) N − n n(N − 1) k < p < p̂+ √ p(1− p) N − n n(N − 1) k ) ≥ 1− αk siendo αk = 1/k 2. Entonces, podŕıamos decir que un intervalo de confianza del (1 − αk)100% para la proporción de éxitos de la población vendŕıa dado por p̂− √ p(1− p) N − n n(N − 1) k < p < p̂+ √ p(1− p) N − n n(N − 1) k pero esto no sirve de mucho pues como no conocemos el valor de p, no se pueden calcular los ĺımites del intervalo. Para resolver este problema, se puede proceder de dos formas. • Una solución consiste en aproximar el valor de p por el valor de la proporción muestral. Por tanto, un intervalo de confianza del (1−αk)100% para la proporción de éxitos de la población es p̂− √ p̂(1− p̂) N − n n(N − 1) k < p < p̂ + √ p̂(1− p̂) N − n n(N − 1) k • Otro método consiste en utilizar como valor aproximado del producto p(1 − p), su máximo valor posible. Aśı, y = p(1− p) ⇒ y′ = 1− 2p = 0 ⇒ p = 1 2 ⇒ p(1− p) = 1 4 Entonces, un intervalo de confianza del (1 − αk)100% para la proporción de éxitos viene dado por p̂− √ 1 4 N − n n(N − 1) k < p < p̂ + √ 1 4 N − n n(N − 1) k 15 Contraste de hipótesis Índice 15.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 15.2. Las hipótesis nula y alternativa . . . . . . . . . . . . . . . . . . 199 15.3. Metodoloǵıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 15.4. Nivel de significación y región cŕıtica . . . . . . . . . . . . . . 204 15.5. Valor-p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 15.6. Potencia de un contraste . . . . . . . . . . . . . . . . . . . . . . 209 15.7. Contrastes para la media de una población . . . . . . . . . . . 209 15.7.1. Varianza conocida . . . . . . . . . . . . . . . . . . . . . . . . . 210 15.7.1.1. Población Madre Normal o n ≥ 30 . . . . . . . . . . 210 15.7.2. Varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . 211 15.7.2.1. Población Madre Normal . . . . . . . . . . . . . . . . 211 15.7.2.2. Población Madre no Normal . . . . . . . . . . . . . . 213 15.8. Comparación de medias . . . . . . . . . . . . . . . . . . . . . . 213 15.8.1. Varianzas conocidas . . . . . . . . . . . . . . . . . . . . . . . . 213 15.8.2. Varianzas desconocidas e iguales . . . . . . . . . . . . . . . . . 213 15.8.3. Varianzas desconocidas y distintas . . . . . . . . . . . . . . . . 213 15.8.4. Muestras apareadas . . . . . . . . . . . . . . . . . . . . . . . . 214 15.9. Pruebas sobre proporciones . . . . . . . . . . . . . . . . . . . . 214 15.9.1. Diferencia de dos proporciones . . . . . . . . . . . . . . . . . . 215 15.10.Pruebas sobre varianzas . . . . . . . . . . . . . . . . . . . . . . 215 15.10.1.Una población . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 15.10.2.Comparación de varianzas . . . . . . . . . . . . . . . . . . . . . 215 197 198 Estad́ıstica 15.1. Introducción Con frecuencia, los problemas a los que nos enfrentamos no se refieren sólo a la estimación de un parámetro poblacional. Se nos puede plantear el problema de rechazar o aceptar cierta hipótesis realizada sobre una población, en base al estudio de una muestra más pequeña. Los procedimientos que conducen a la aceptación o rechazo de una hipótesis estad́ıstica se enmarcan dentro de la llamada Teoŕıa de la Decisión. Una Hipótesis Estad́ıstica es una afirmación o conjetura acerca de una o más po- blaciones. Nunca se sabe con absoluta certeza la veracidad o falsedad de una hipótesis estad́ıstica, a no ser que se examine la población entera. Esto, por supuesto, es poco práctico en la mayoŕıa de las ocasiones. En su lugar, se toma una muestra aleatoria de la población de interés,y se utilizan los datos de dicha muestra para obtener evidencias que confirmen o no la hipótesis propuesta. La evidencia de la muestra que es inconsistente con la hipótesis planteada conduce a un rechazo de la misma, mientras que la evidencia que la apoya, conduce a su no rechazo. Debe quedar claro que el diseño de un procedimiento de decisión debe llevarse a cabo con la idea de la probabilidad de una conclusión equivocada. Por ejemplo, supon- gamos que la hipótesis planteada es que la fracción, p, de art́ıculos defectuosos en un cierto proceso es de 0.10. El experimento consiste en observar una muestra aleatoria del producto en cuestión. Supongamos, además, que se estudian 100 art́ıculos y se encuen- tran 12 defectuosos. Es razonable concluir que esta evidencia no refuta la hipótesis de que p = 0.10, y entonces esto puede conducir a su aceptación. Sin embargo, tampoco rebate que p = 0.12 o tal vez, incluso, que p = 0.15. Por tanto, debemos acostumbrarnos a entender que la aceptación de una hipótesis implica tan sólo que los datos no proporcionan evidencia suficiente para rechazarla. Por otra parte, el rechazo de una hipótesis implica que la evidencia de la muestra la refuta. Dicho de otra forma, el rechazo de una hipótesis significa que la probabilidad de que dicha hipótesis sea cierta es muy pequeña. Por ejemplo, en la hipótesis de proporción de defectos, de una muestra de 100 art́ıculos, 20 son defectuosos. Esto es una evidencia para rechazar la hipótesis, pues si en realidad fuese p = 0.10, la probabilidad de obtener 20 o más art́ıculos defectuosos es aproximadamente 0.0035. Con el pequeño riesgo de llegar a una conclusión equivocada, parece lógico rechazar la hipótesis de que p = 0.10. Generalmente, en este tipo de problemas, si queremos respaldar un argumento, lo que debemos intentar es rechazar el argumento contrario. Es decir, si queremos mostrar una evidencia contundente a favor del argumento de que tomar café aumenta el riesgo de 15 Contraste de hipótesis 199 infarto, la hipótesis a probar debe ser de la forma “no hay aumento en el riesgo de infarto al tomar café”. Como resultado, el argumento se alcanza v́ıa rechazo. De igual forma, para respaldar la afirmación de que un tipo de medidor es más preciso que otro, se prueba con la hipótesis de que no hay diferencia en la exactitud de los dos tipos de medidores. 15.2. Las hipótesis nula y alternativa La estructura de la prueba de hipótesis se formula utilizando el término Hipótesis Nula. Esto se refiere a cualquier hipótesis que se desee probar, y se representa por H0. El rechazo de H0 da como resultado la aceptación de una Hipótesis Alternativa, que se representa por H1. Una hipótesis nula referente a un parámetro poblacional debe ser establecida de tal forma que especifique un valor exacto del parámetro, mientras que la hipótesis alternativa admite la posibilidad de varios valores. De aqúı que, si H0 es la hipótesis nula p = 0.5 para una población binomial, la hipótesis alternativa, H1, seŕıa una de las siguientes: p > 0.5, p < 0.5 ó p 6= 0.5. Una hipótesis como la hipótesis nula anterior, p = 0.5, que especifica un valor exacto del parámetro se denomina simple, mientras que una hipótesis como cualquiera de las hipótesis alternativas anteriores que no especifican un valor exacto del parámetro se denomina compuesta. Conviene observar que, según lo dicho anteriormente no hay diferencia entre el test H0 : p = 0.5 ; H1 : p > 0.5 y el test H0 : p ≤ 0.5 ; H1 : p > 0.5. En ambos, aceptar H0 significa que no hay evidencia suficiente para creer que p > 0.5 y por tanto que H1 sea cierta. Rechazar la hipótesis nula significaŕıa, por el contrario, que la proporción p es superior a 0.5. Aśı, por simplicidad, la hipótesis nula se toma siempre simple. La hipótesis alternativa se clasifica como unilateral si conocemos en qué dirección puede ser falsa H0 (los casos H1 : p > 0.5 ó H1 : p < 0.5) y bilateral si no podemos saber la dirección (H1 : p 6= 0.5) Para aclarar un poco los conceptos anteriormente expuestos, consideremos el siguien- te ejemplo. Se sabe que, pasados 2 años, cierto tipo de vacuna es eficaz sólo en un 25% de los casos. Para verificar si una vacuna nueva y algo más cara es mejor que la anterior para proporcionar protección contra el mismo virus durante un periodo más largo, se inyecta en 20 personas elegidas al azar. Si más de 8 de los que recibieron la nueva vacuna superan el periodo de 2 años sin contraer el virus, la nueva vacuna se considerará mejor que la que se utiliza actualmente. El requisito de que el número exceda de 8 es algo arbitrario, 200 Estad́ıstica pero parece razonable en el sentido de que representa una pequeña ganancia respecto a las 5 personas que podŕıa esperarse recibieran protección contra el virus, pasados 2 años, si a las 20 personas se les hubiera inyectado la vacuna antigua. La hipótesis alternativa es la de que la nueva vacuna es mejor que la antigua. Esto equivale a probar la hipótesis de que el parámetro binomial para la probabilidad de un éxito en un intento es p = 1/4, contra la alternativa de que p > 1/4. Por lo general, esto se escribe como sigue: H0 : p = 1/4 H1 : p > 1/4 Recordemos que, en realidad, queremos rechazar la hipótesis nula de que las dos vacunas son iguales. El estad́ıstico de prueba sobre el cual se basa la decisión es X , la cantidad de individuos en el grupo de prueba que reciben protección contra el virus con la nueva vacuna, para un periodo de al menos 2 años, es decir X ≡ B(20, p). Los posibles valores de X , de 0 a 20, se dividen en dos grupos: aquellos valores menores o iguales que 8, y los que son mayores que 8. Todos los posibles valores mayores que 8 constituyen la llamada Región Cŕıtica o de Rechazo, y todos los valores menores o iguales que 8 constituyen la Región de Aceptación. El último valor que se tiene en la región de aceptación antes de pasar a la región cŕıtica (en este caso el 8), recibe el nombre de Valor Cŕıtico. Por tanto, si x > 8, se rechaza H0 en favor de la hipótesis alternativa H1. Si x ≤ 8 se acepta H0, siendo x el valor de X observado en la muestra. El procedimiento de decisión que hemos descrito podŕıa conducir a cualquiera de dos conclusiones erróneas. Por ejemplo, la nueva vacuna puede no ser mejor que la antigua y, en particular para el grupo de individuos seleccionados aleatoriamente, más de 8 sobrepasan el periodo de 2 años sin contraer el virus. Estaŕıamos cometiendo el error de rechazar H0 cuando realmente es cierta. De igual forma, podŕıa ocurrir que 8 o menos individuos del grupo de prueba sobrepasan el periodo de 2 años con éxito, y se concluye que la nueva vacuna no es mejor, cuando en realidad śı lo es. Estaŕıamos aceptando H0, cuando en realidad es falsa. • Se dice que se ha cometido un error tipo I, cuando se rechaza la hipótesis nula siendo ésta verdadera. • Se dice que se ha cometido un error tipo II, cuando se acepta la hipótesis nula siendo ésta falsa. La probabilidad de cometer un error tipo I se llama Nivel de Significación o tamaño de la región cŕıtica, y se representa por α. En ejemplo anterior, 15 Contraste de hipótesis 201 α = P (error tipo I) = P ( Rechazar H0 ∣∣∣∣H0 es cierta ) = = P ( X > 8 ∣∣∣∣p = 1/4 ) = 20∑ x=9 P [B(20, 1/4) = x] = 0.0409 Se dice, entonces, que la hipótesis nula, p = 1/4, se está probando con un nivel de significación de α = 0.0409. Este nivel de significación es bastante pequeño, por tanto, es poco probable que se cometa un error tipo I. Es decir, es poco probable que más de 8 individuos se mantengan inmunes al virus durante 2 o más años utilizando una nueva vacuna que, en realidad, es equivalente a la que ya existe en el mercado. La probabilidad de cometer un error tipo II, representado por β, es imposible de calcular a no ser que se tenga una hipótesis alternativa espećıfica.Si se prueba la hipótesis nula de que p = 1/4 en contraposición con la hipótesis alternativa de que p = 1/2, entonces estamos en condiciones de calcular la probabilidad de aceptar H0 cuando en realidad es falsa. Simplemente hay que calcular la probabilidad de obtener 8 o menos individuos en el grupo de prueba que sobrepasen el periodo de 2 años, cuando p = 1/2. Es decir, β = P (error tipo II) = P ( Aceptar H0 ∣∣∣∣H0 es falsa ) = = P ( X ≤ 8 ∣∣∣∣p = 1/2 ) = 8∑ x=0 P [B(20, 1/2) = x] = 0.2517 Ésta es una probabilidad bastante grande, lo que indica un procedimiento de prueba con el cual es muy probable que se rechace la nueva vacuna cuando, en realidad, es superior a la que se utiliza en la actualidad. En una situación ideal, seŕıa preferible utilizar un procedimiento con el que ambos tipos de error fuesen pequeños. Siempre es posible disminuir el valor de β, incrementando el tamaño de la región cŕıtica. Por ejemplo, veamos qué ocurre con α y β cuando tomamos como valor cŕıtico 7. Ahora, al probar p = 1/4 contra la hipótesis alternativa de que p = 1/2, se encuentra que 202 Estad́ıstica α = P (error tipo I) = P ( Rechazar H0 ∣∣∣∣H0 es cierta ) = = P ( X > 7 ∣∣∣∣p = 1/4 ) = 20∑ x=8 P [B(20, 1/4) = x] = 0.1018 β = P (error tipo II) = P ( Aceptar H0 ∣∣∣∣H0 es falsa ) = = P ( X ≤ 7 ∣∣∣∣p = 1/2 ) = 7∑ x=0 P [B(20, 1/2) = x] = 0.1316 Al adoptar un nuevo procedimiento de decisión, se reduce la probabilidad de cometer un error tipo II, a expensas de incrementar la probabilidad de cometer un error tipo I. Para una muestra de tamaño fijo, la disminución en la probabilidad de un tipo de error casi siempre resulta en un aumento en la probabilidad del otro tipo de error. Sin embargo, se puede reducir la probabilidad de cometer ambos tipos de error, aumentando el tamaño de la muestra. Por ejemplo, supongamos que inyectamos la nueva vacuna a 100 individuos tomados aleatoriamente. Si más de 36 del grupo de muestra sobrepasan el periodo de 2 años, se rechaza la hipótesis nula de que p = 1/4 y se acepta la hipótesis alternativa de que p = 1/2. Para determinar la probabilidad de cometer un error tipo I, utilizamos la aproxima- ción de la curva normal con µ = np = 100× 1 4 = 25 y σ = √ npq = √ 100× 1 4 × 3 4 = 4.33 Tipificamos la normal Z = X − µ σ = 36.5− 25 4.33 = 2.66 entonces α = P (error tipo I) = P ( Rechazar H0 ∣∣∣∣H0 es cierta ) = = P ( X > 36 ∣∣∣∣p = 1/4 ) ≃ P (Z > 2.66) = 0.0039 Para determinar la probabilidad de cometer un error tipo II, utilizamos de nuevo la aproximación de la curva normal con 15 Contraste de hipótesis 203 Figura 15.1: Representación esquemática de la probabilidad de cometer errores de tipo I y II en un contraste de hipótesis. µ = np = 100× 1 2 = 50 y σ = √ npq = √ 100× 1 2 × 1 2 = 5 Tipificamos la normal Z = X − µ σ = 36.5− 50 5 = −2.70 entonces β = P (error tipo II) = P ( Aceptar H0 ∣∣∣∣H0 es falsa ) = = P ( X ≤ 36 ∣∣∣∣p = 1/2 ) ≃ P (Z < −2.70) = 0.0035 En la figura 15.1 se muestra un esquema de los errores tipo I y tipo II correspon- dientes al ejemplo anterior. 15.3. Metodoloǵıa Para establecer y realizar un contraste de hipótesis sobre un parámetro poblacional, θ, se realizan los siguientes pasos: 1. Definir las hipótesis nula H0 y alternativa H1. Recordamos que la hipótesis nula siempre la consideramos simple (H0 : θ = θ0). 2. Considerar un estad́ıstico, Θ̂, que permita medir si existe discrepancia entre los datos muestrales y la hipótesis H0. Para ello, es necesario conocer la distribución de este estad́ıstico bajo la suposición de que H0 es cierta. 204 Estad́ıstica 3. Definir la región cŕıtica del test, es decir, especificar qué valores del estad́ıstico consi- deramos inadmisibles para asumir H0. Esta especificación se cuantifica en términos de probabilidades: nos interesa saber cuándo la diferencia entre el valor esperado del estad́ıstico bajo la hipótesis H0 y su valor obtenido para la muestra (lo que se conoce como “disparo”) es demasiado grande para poder atribuirse al azar. 4. Tomar una muestra, calcular el valor que toma el estad́ıstico en la muestra, θ̂, y tomar una decisión según su valor caiga o no en la región cŕıtica. Lo que debe especificarse al definir un contraste de hipótesis es, por tanto, el es- tad́ıstico que vamos a utilizar y la región cŕıtica. En gran parte de los casos, la elección del estad́ıstico o es evidente (la media muestral, por ejemplo, si las hipótesis se refieren al va- lor medio de una cantidad) o éste resulta ser estándar, y por tanto conocido de antemano para un determinado tipo de problema (como el estad́ıstico de Pearson que estudiaremos posteriormente en los contrastes de bondad del ajuste). La elección de la región cŕıtica se hace de acuerdo al interés que tengamos en mini- mizar el error de tipo I. Para reducir la posibilidad de un error de tipo II deberemos jugar con el tamaño de la muestra. 15.4. Nivel de significación y región cŕıtica Tradicionalmente la región cŕıtica de un contraste se determina fijando de antemano un nivel de significación α. Supongamos un contraste basado en un estad́ıstico Θ̂. La región cŕıtica será el conjunto de posibles valores de Θ̂ que consideramos tan poco probables como para rechazar H0. Llamemos a esta región Dc, de tal modo que rechazaremos H0 si el valor de Θ̂ obtenido en el muestreo θ̂ ∈ Dc. Recordando la definición del nivel de significación: α = P ( Rechazar H0 ∣∣∣∣H0 es cierta ) Podemos reescribir: α = P ( θ̂ ∈ Dc ∣∣∣∣H0 es cierta ) Recordemos que es posible calcular esta probabilidad ya que conocemos la distri- bución del estad́ıstico Θ̂ bajo la suposición de que H0 es cierta. Aśı, fijado de antemano el nivel de significación α podremos obtener de la ecuación anterior la región cŕıtica Dc. Basta entonces tomar la decisión: 15 Contraste de hipótesis 205 • Si θ̂ ∈ Dc se rechaza la hipótesis H0 • En caso contrario no existe evidencia suficiente que permita rechazar H0, para el nivel de significación prefijado. En general, en este curso vamos a trabajar solo con tres tipos de contrastes, para los cuales la relación entre el nivel de significación y la región cŕıtica es (Fig. 15.2): • Contraste bilateral ◦ Contraste H0 : θ = θ0 H1 : θ 6= θ0 ◦ Cálculo de la Región Cŕıtica α/2 = P ( Θ̂ < a1 ∣∣∣∣θ = θ0 ) =⇒ a1 α/2 = P ( Θ̂ > a2 ∣∣∣∣θ = θ0 ) =⇒ a2 =⇒ RC = (−∞, a1)∪(a2,+∞) ◦ Decisión Si θ̂ < a1 ó θ̂ > a2 =⇒ Rechazo H0 en favor de H1 Si a1 < θ̂ < a2 =⇒ No Rechazo H0 • Contraste unilateral por la derecha ◦ Contraste H0 : θ = θ0 H1 : θ > θ0 ◦ Cálculo de la Región Cŕıtica α = P ( Θ̂ > a ∣∣∣∣θ = θ0 ) =⇒ a =⇒ RC = (a,+∞) 206 Estad́ıstica ◦ Decisión Si θ̂ > a =⇒ Rechazo H0 en favor de H1 Si θ̂ < a =⇒ No Rechazo H0 • Contraste unilateral por la izquierda ◦ Contraste H0 : θ = θ0 H1 : θ < θ0 ◦ Cálculo de la Región Cŕıtica α = P ( Θ̂ < a ∣∣∣∣θ = θ0 ) =⇒ a =⇒ RC = (−∞, a) ◦ Decisión Si θ̂ < a =⇒ Rechazo H0 en favor de H1 Si θ̂ > a =⇒ No Rechazo H0 Este mecanismo basado en la fijación de un nivel de significación no es completa- mente satisfactorio y, en la actualidad, se prefiere el enfoque basado en lo que se conoce como Valor-p de un contraste. Antes de definirlo conviene detenerse en las limitaciones del enfoque anterior. El resultado del test depende enormemente de la elección del nivel α. Aśı, es posible rechazar H0 con un α = 0.05 y, sin embargo no hacerlo si α = 0.045. De hecho, con este enfoque, no queda constancia del grado de evidencia que la muestra indica a favor o en contra de H0. En la figura 15.3 se muestran dos disparos que conduciŕıan al rechazo de H0 aunque, claramente, la evidencia de este rechazo es muy distinta. 15.5. Valor-p Supongamos un contraste de hipótesis basado en un estad́ıstico Θ̂ para el que hemos obtenido un disparo, o valor estimado en la muestra, de θ̂. Se define Valor-pdel contraste como: 15 Contraste de hipótesis 207 Figura 15.2: Región cŕıtica para un nivel de significación α. (a): contraste bilateral, (b): contraste unilateral por la derecha, (c): contraste unilateral por la izquierda. En todos los casos se ha dibujado la distribución del estad́ıstico Θ̂ cuando H0 es cierta, es decir cuando θ = θ0 208 Estad́ıstica α Rechazo Figura 15.3: Dos disparos que conducen al rechazo de la hipótesis H0. Claramente la evidencia para este rechazo es muy distinta en ambos casos. Valor-p = P ( |Θ̂| ≥ θ̂ ∣∣∣∣H0 es cierta ) Contraste bilateral Valor-p = P ( Θ̂ ≥ θ̂ ∣∣∣∣H0 es cierta ) Contraste unilateral por la derecha Valor-p = P ( Θ̂ ≤ θ̂ ∣∣∣∣H0 es cierta ) Contraste unilateral por la izquierda La relación del Valor-p con el nivel de significación es evidente: según el enfoque anterior, no rechazaŕıamos H0 para ningún nivel de significación α menor que el Valor-p. Habitualmente, el criterio basado en el Valor-p es como sigue: 1. Si Valor-p ≥ 0.2 se considera que no existe evidencia estad́ıstica para rechazar la hipótesis H0. 2. Si Valor-p ≤ 0.01 se considera que la evidencia es más que suficiente para rechazar H0 en favor de H1. 3. Si 0.01 ≤ Valor-p ≤ 0.2 la aceptación o rechazo de H0 dependerá de la confianza que tengamos a priori en la hipótesis H0. Normalmente se rechaza H0 si el Valor-p es menor que 0.1 15 Contraste de hipótesis 209 15.6. Potencia de un contraste La potencia de un contraste se define en términos de la probabilidad de cometer un error de tipo II (es decir, aceptar H0 siendo falsa): un test es tanto más potente cuanto menor sea esta probabilidad. Ya hemos visto que para calcular la probabilidad de error de tipo II necesitamos una hipótesis alternativa H1 completamente especificada. Si nuestro contraste se refiere a algún parámetro poblacional, θ, deberemos especificar su valor. Se define la función o curva de operación caracteŕıstica (O.C.) de un contraste, β(θ), como (Fig 15.4.a): β(θ) = P (error tipo II) = P ( Aceptar H0 ∣∣∣∣H0 es falsa ) = P ( Aceptar H0 ∣∣∣ θ ) Si el valor de θ se toma como aquel que especifica la hipótesis nula θ0, β(θ0) será la probabilidad de aceptar H0 cuando ésta es cierta y, por tanto, está relacionada con el nivel de significación mediante la igualdad: β(θ0) = 1− α Para cualquier otro valor de θ se obtiene la probabilidad de error de tipo II si la hipótesis alternativa H1 especifica dicho valor para el parámetro. Se define la función o curva de potencia de un contraste como (Fig 15.4.b) Potencia(θ) = 1− β(θ) = P ( Rechazar H0 ∣∣∣∣H0 es falsa ) = P ( Rechazar H0 ∣∣∣ θ ) Obsérvese que para dos contrastes con igual nivel de significación, el de mayor po- tencia es aquel en el que es menos probable cometer un error de tipo II. Como se ha visto en el ejemplo anterior una posible manera de aumentar la potencia de un contraste es aumentar el tamaño muestral. 15.7. Contrastes para la media de una población Vamos a establecer en esta sección una serie de contrastes relacionados con el valor de la media de una población. Los estad́ısticos que vamos a emplear han sido estudiados en el caṕıtulo dedicado a las distribuciones en el muestreo. 210 Estad́ıstica 15.7.1. Varianza conocida Supongamos una P.M. de media µ y varianza σ conocida. Sabemos que la distribu- ción en el muestreo del estad́ıstico media muestral x̄ = 1 n n∑ i=1 xi es x̄ ≡ N ( µ, σ/ √ n ) si la población madre es normal N(µ, σ) o n ≥ 30 ? (µ, σ/ √ n ) si la población madre es ? (µ, σ) 15.7.1.1. Población Madre Normal o n ≥ 30 • Contraste bilateral H0 : µ = µ0 H1 : µ 6= µ0 Empleando la notación zp para el cuantil 1− p de una normal estándar N(0, 1) (es decir, zp es el valor para el que la función de distribución vale p o, dicho de otro modo, que deja una probabilidad 1 − p a su izquierda) tenemos, para un nivel de significación α P ( −zα/2 < x̄− µ0 σ/ √ n < zα/2 ) = 1− α y, por tanto, una región de aceptación (µ0− zα/2σ/ √ n, µ0+ zα/2σ/ √ n). Tomando el valor muestral de x̄ rechazaremos H0 si obtenemos un valor fuera de este intervalo y deberemos aceptarla en caso contrario. El nivel cŕıtico del test, o Valor-p, será Valor-p = P ( |N(0, 1)| > ∣∣∣∣ x̄− µ0 σ/ √ n ∣∣∣∣ ) • Contraste unilateral por la derecha H0 : µ = µ0 H1 : µ > µ0 El contraste es completamente análogo al anterior salvo que ahora la región de aceptación no está limitada por la izquierda. Tenemos ahora que P ( x̄− µ0 σ/ √ n < zα ) = 1− α 15 Contraste de hipótesis 211 y, por tanto, una región de aceptación (−∞, µ0+ zασ/ √ n). El nivel cŕıtico del test, o Valor-p, será ahora Valor-p = P ( N(0, 1) > x̄− µ0 σ/ √ n ) • Contraste unilateral por la izquierda H0 : µ = µ0 H1 : µ < µ0 P ( x̄− µ0 σ/ √ n > −zα ) = 1− α y la región de aceptación es (µ0− zασ/ √ n,+∞). El nivel cŕıtico del test, o Valor-p, será ahora Valor-p = P ( N(0, 1) < x̄− µ0 σ/ √ n ) En ambos casos (prueba bilateral o unilateral), el tamaño de la muestra n puede fijarse con alguna suposición añadida. Lo más habitual es obligar a que, dada una hipótesis alternativa determinada H1 : µ = µ0 + δ, el error de tipo II sea menor que una cantidad prefijada. Es fácil demostrar que se obtiene una potencia 1− β para un tamaño muestral n ∼ (zα + zβ) 2σ2 δ2 si la prueba es unilateral (zα/2 + zβ) 2σ2 δ2 si la prueba es bilateral 15.7.2. Varianza desconocida 15.7.2.1. Población Madre Normal En el caso de que desconozcamos la varianza de la población madre, pero ésta sea N(µ, σ), hemos visto que x̄− µ s/ √ n ≡ tn−1 siendo tn−1 una variable t de Student con n− 1 grados de libertad. • Contraste bilateral 212 Estad́ıstica H0 : µ = µ0 H1 : µ 6= µ0 Empleando la notación tp para el cuantil 1− p de una t de Student con n-1 grados de libertad tn−1 tenemos, para un nivel de significación α P ( −tα/2 < x̄− µ0 s/ √ n < tα/2 ) = 1− α y, por tanto, una región de aceptación (µ0 − tα/2s/ √ n, µ0 + tα/2s/ √ n). Tomando el valor muestral de x̄ rechazaremos H0 si obtenemos un valor fuera de este intervalo y deberemos aceptarla en caso contrario. El nivel cŕıtico del test, o Valor-p, será Valor-p = P ( |tn−1| > ∣∣∣∣ x̄− µ0 s/ √ n ∣∣∣∣ ) • Contraste unilateral por la derecha H0 : µ = µ0 H1 : µ > µ0 Tenemos ahora que P ( x̄− µ0 s/ √ n < tα ) = 1− α y, por tanto, una región de aceptación (−∞, µ0 + tαs/ √ n). El nivel cŕıtico del test, o Valor-p, será ahora Valor-p = P ( tn−1 > x̄− µ0 s/ √ n ) • Contraste unilateral por la izquierda H0 : µ = µ0 H1 : µ < µ0 Tenemos ahora que P ( x̄− µ0 s/ √ n > −tα ) = 1− α y, por tanto, una región de aceptación (µ0 − tαs/ √ n,+∞). El nivel cŕıtico del test, o Valor-p, será ahora Valor-p = P ( tn−1 < x̄− µ0 s/ √ n ) 15 Contraste de hipótesis 213 15.7.2.2. Población Madre no Normal Incluso en el caso de que la población madre no sea normal, en virtud del teorema central del ĺımite, para valores grandes de n (n > 30) podemos utilizar la aproximación x̄− µ s/ √ n ∼= N(0, 1) 15.8. Comparación de medias A partir de esta sección no seremos exhaustivos en la presentación de los contrastes, sino que nos limitaremos a considerar el estad́ıstico más apropiado y su distribución. El mecanismo para construir el contraste a partir de esta información es siempre igual. Sean dos muestras de tamaños n y m sacadas de dos poblaciones normales con medias µx y µy y varianzas σx y σy respectivamente. La hipótesis nula del contraste será H0 : µx − µy = d0 15.8.1. Varianzas conocidas El estad́ıstico relevante es (x̄− ȳ)− (µx − µy)√ σ2x n + σ2y m ≡ N (0, 1) 15.8.2. Varianzas desconocidas e iguales (x̄− ȳ)− (µx − µy)√ (n− 1)s2x + (m− 1)s2y n +m− 2 √ 1 n + 1 m ≡ tn+m−2 15.8.3. Varianzas desconocidas y distintas (x̄− ȳ)− (µx − µy)√ s2x n + s2y m ∼= tγ donde, 214 Estad́ıstica γ = (A+B)2 A2 n− 1 + B2 m− 1 A = s2x n ,B = s2y m 15.8.4. Muestras apareadas El anterior enfoque para la comparación de medias no es completamente satisfacto- rio. En algunos casos podemos sospechar que las muestras tomadas independientemente de las dos poblaciones no han sido hechas bajo las mismas condiciones, lo que falseaŕıa el resultado del contraste. ésto es especialmente relevante si la poblaciones presentan una gran variabilidad, lo que suele ser indicativo de que existen muchos factores que pueden influir en sus parámetros. Una manera de evitar este problema es tomar, si se puede, muestras apareadas: medidas realizadas por pares en situaciones lo más semejantes posibles. Por ejemplo, para medir la eficacia de dos marcas de neumáticos conviene tomar medidas de los neumáticos montados sobre el mismo veh́ıculo, con lo que eliminaremos la variabilidad debida a los distintos conductores, amortiguadores, mecánica etc. En un proceso de medida apareado obtenemos n pares de valores x1,i, x2,i referidos a las dos poblaciones 1 y 2. Se toma el valor yi = x1,i − x2,i del estad́ıstico diferencia D̄. Si µD̄ y sD̄ son su media y desviación muestral respectivamente, el estad́ıstico T = D̄ − µD̄ sD̄/ √ n ≡ tn−1 La hipótesis nula para este contraste se reduce a H0 : µD̄ = d0 En la tabla 15.1 se encuentra un esquema de los contrastes relativos a medias 15.9. Pruebas sobre proporciones El número de elementos de una población que presentan una determinada carac- teŕıstica sigue una distribución binomial, como sabemos. Si X es una variable binomial B(n, p), la proporción de elementos de la población que presentan la caracteŕıstica desea- da será su valor medio dividido por n. Para n grande, la variable binomial se aproxima a una normal, por lo que salvo en el caso de poblaciones pequeñas (n < 30) los contrastes de proporciones son análogos a los referidos a las medias de una población. 15 Contraste de hipótesis 215 En el caso de poblaciones pequeñas se procede como en el ejemplo que abre este caṕıtulo, manejando directamente el estad́ıstico media de una variable binomial. 15.9.1. Diferencia de dos proporciones Si tenemos dos poblaciones y queremos medir si la diferencia de proporciones p1−p2 de una caracteŕıstica determinada en ellas es 0 se emplea el estad́ıstico Z = p̂1 − p̂2√ p̃(1− p̃)(1/n1 + 1/n2) ∼ N(0, 1) donde p̃ = x1 + x2 n1 + n2 siendo x1 y x2 el número de elementos de cada muestra que presentan la caracteŕıstica. 15.10. Pruebas sobre varianzas 15.10.1. Una población Tomando una muestra de tamaño n de una población madre normal de varianza σ2, se cumple para la varianza muestral s2 (n− 1)s2 σ2 ≡ χ2n−1 15.10.2. Comparación de varianzas Dadas dos muestras de tamaños n y m de dos poblaciones normales de varianzas σx y σy respectivamente s2x/σ 2 x s2y/σ 2 y ≡ Fn−1,m−1 siendo s2x y s 2 y la varianza muestral de cada población. 216 Estad́ıstica Figura 15.4: Dada la hipótesis nula H0 : p = 1/4. Curva de operación caracteŕıstica para las hipótesis alternativas (a1) H1 : p 6= 1/4; (a2) H1 : p > 1/4; (a3) H1 : p < 1/4. Curva de potencia para las hipótesis alternativas (b1) H1 : p 6= 1/4; (b2) H1 : p > 1/4; (b3) H1 : p < 1/4 15 Contraste de hipótesis 217 Cuadro 15.1: Pruebas relativas a medias H0 Valor del estad́ıstico de prueba H1 Región cŕıtica µ < µ0 z < −zα µ = µ0 z = x̄− µ0 σ/ √ n ; σ conocida µ > µ0 z > zα µ 6= µ0 |z| > zα/2 µ < µ0 t < −tα µ = µ0 t = x̄− µ0 s/ √ n ; ν = n− 1 µ > µ0 t > tα σ desconocida µ 6= µ0 |t| > tα/2 µ1 − µ2 < d0 z < −zα µ1 − µ2 = d0 z = (x̄1 − x̄2)− d0√ (σ21/n1) + (σ 2 2/n2) µ1 − µ2 > d0 z > zα σ1 y σ2 conocidas µ1 − µ2 6= d0 |z| > zα/2 t = (x̄1 − x̄2)− d0 sp √ (1/n1) + (1/n2) µ1 − µ2 < d0 t < −tα µ1 − µ2 = d0 ν = n1 + n2 − 2, σ1 = σ2 µ1 − µ2 > d0 t > tα pero desconocida, s2p = (n1 − 1)s21 + (n2 − 1)s22 n1 + n2 − 2 µ1 − µ2 6= d0 |t| > tα/2 t = (x̄1 − x̄2)− d0√ (s21/n1) + (s 2 2/n2) µ1 − µ2 < d0 t < −tα µ1 − µ2 = d0 ν = (s21/n1 + s 2 2/n2) 2 (s21/n1) 2 n1 − 1 + (s22/n2) 2 n2 − 1 µ1 − µ2 > d0 t > tα σ1 6= σ2 y desconocidas µ1 − µ2 6= d0 |t| > tα/2 µD < d0 t < −tα µD = d0 t = d̄− d0 sd/ √ n ; ν = n− 1 µD > d0 t > tα observaciones apareadas µD 6= d0 |t| > tα/2 218 Estad́ıstica 16 Contrastes no paramétricos Índice 16.1. Contraste χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 16.1.1. Prueba de bondad del ajuste . . . . . . . . . . . . . . . . . . . 221 16.1.1.1. Hipótesis simple . . . . . . . . . . . . . . . . . . . . . 221 16.1.1.2. Hipótesis compuesta . . . . . . . . . . . . . . . . . . . 221 16.1.2. Prueba de homogeneidad . . . . . . . . . . . . . . . . . . . . . 222 16.1.3. Prueba de independencia . . . . . . . . . . . . . . . . . . . . . 223 16.2. Contraste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . 223 16.3. Otros contrastes no paramétricos . . . . . . . . . . . . . . . . . 224 16.3.1. Contrastes de posición . . . . . . . . . . . . . . . . . . . . . . . 224 16.3.1.1. Test de los signos . . . . . . . . . . . . . . . . . . . . 225 16.3.1.2. Test de Wilcoxon de los rangos signados . . . . . . . . 226 16.3.1.3. Test de la mediana . . . . . . . . . . . . . . . . . . . . 227 16.3.1.4. Test de Mann-Whitney . . . . . . . . . . . . . . . . . 227 16.3.2. Contrastes de independencia . . . . . . . . . . . . . . . . . . . 228 16.3.2.1. Test τ de Kendall . . . . . . . . . . . . . . . . . . . . 228 16.3.2.2. Test del coeficiente de correlación entre rangos o test de Spearman . . . . . . . . . . . . . . . . . . . . . . . 229 16.3.2.3. Test de rachas . . . . . . . . . . . . . . . . . . . . . . 229 16.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 219 220 Estad́ıstica En el caṕıtulo anterior hemos manejado contrastes paramétricos, es decir, aquellos en los que se estudia la veracidad de hipótesis acerca de los parámetros de los que depende la distribución de una población. En muchas otras ocasiones es necesario emitir un juicio sobre la distribución poblacional en su conjunto. Los problemas más habituales que suelen plantearse son los siguientes: • Decidir, a la vista de una muestra aleatoria de una población, si puede admitirse que ésta sigue una cierta distribución dada N(0,1), Poisson(5), etc.) o bien perte- nece a un cierto tipo de distribuciones (es normal, exponencial, geométrica, etc.). Los contrastes que dilucidan esta cuestión se denominan de bondad del ajuste. • Analizar si varias muestras aleatorias provienen de poblaciones con la misma dis- tribución teórica, de forma que puedan utilizarse conjuntamente para inferencias posteriores sobre ésta o si, por el contrario, son muestras de poblaciones con distinta distribución. Es el problema de la homogeneidad de varias muestras. • Estudiar, en el caso de que se observen dos o más caracteŕısticas de los elementos de la población (de forma que la distribución teórica no sea unidimensional) si las caracteŕısticas observadas pueden ser consideradas independientes y proceder a su análisis por separado o, por el contrario, existe relación estad́ıstica entre ellas. Cualquiera de estos problemas se denominan no paramétricos ya que no se trata de decidir entre distribuciones Fθ que sólo se diferencian en el valor del parámetro θ. Aśı, por ejemplo, si queremos probar una hipótesis nula como que la distribución es Exp(λ = 5) la hipótesis alternativa contiene a todas las distribuciones continuas y no sólo a las exponenciales con otro valor de su parámetro λ. 16.1. Contraste χ2 Reciben este nombre los contrastes basados en el estad́ıstico de Pearson. Omitiremos la justificación teórica, algo complicada, del proceder para su cálculo aśı como de la obtención de su distribución. 16 Contrastes no paramétricos 221 16.1.1. Prueba de bondad del ajuste 16.1.1.1. Hipótesis simple Supongamos una muestra aleatoria simple de tamaño n de una distribución desco- nocida F . Tratamos de contrastar si puedeaceptarse la hipótesis H0 : F = F0, donde F0 es una distribución conocida completamente especificada, es decir, de la que conoce- mos todos y cada uno de los parámetros de los que depende (la media y la desviación en el caso de una normal, el valor del parámetro λ en el caso de una exponencial, etc.). El procedimiento a seguir es el siguiente: 1. Se divide el recorrido de la distribución poblacional en k conjuntos disjuntos o clases: A1, A2, · · · , Ak 2. Se calcula el número ni de elementos de la muestra observados en cada clase Ai. 3. Se calcula el número ni,esp de elementos esperados en cada clase si la hipótesis H0 es cierta. Para ello, basta multiplicar la probabilidad que la distribución F0 asigna a cada clase por el número de elementos de la muestra. IMPORTANTE. Sólo puede realizarse el contraste si cada uno de los ni,esp es mayor o igual a 5. En caso contrario, se unen varias clases Aj hasta conseguirlo. En lo que sigue supondremos que el número de clases k en las que hemos descompuesto el recorrido de la distribución teórica es el resultado de esta operación: entre las k clases no hay ninguna con ni,esp < 5. 4. Se realiza el test empleando el estad́ıstico de Pearson: D = k∑ i=1 (ni − ni,esp)2 ni,esp que, en las condiciones antes citadas, sigue una distribución χ2 con k− 1 grados de libertad. (La región cŕıtica es de la forma D > c). 16.1.1.2. Hipótesis compuesta Supongamos ahora (lo que suele ser más habitual) que la hipótesis a contrastar espe- cifica una familia de distribuciones de forma funcional dada pero dependiente de algunos parámetros no especificados (por ejemplo, suponemos que nuestra población es normal de media 1 pero desconocemos la desviación o, suponiendo que es normal, no conocemos 222 Estad́ıstica ni la media ni la desviación, etc.). En este sentido se dice que la hipótesis nula es ahora compuesta pues unifica varias hipótesis simultáneamente. Una posibilidad para resolver el problema es tomar varias muestras: con las primeras estimamos los parámetros y con la última realizamos el contraste χ2 anterior. Sin embargo, es posible (y más conveniente en muchos casos) realizar el estudio empleando una única muestra. El procedimiento a seguir en este segundo caso es: 1. Se estiman los parámetros a partir de la muestra empleando el criterio de máxi- ma verosimilitud. 2. Se repite el proceso anterior con la salvedad de que ahora la distribución del es- tad́ıstico D de Pearson es una χ2 con k − 1 − ν grados de libertad, siendo ν el número de parámetros que hemos estimado. 16.1.2. Prueba de homogeneidad Supongamos que se dispone de m muestras aleatorias simples de otras tantas pobla- ciones cuyos tamaños son, respectivamente, n1, n2, · · ·, nm. A partir de estos datos se desea decidir si la distribución poblacional es la misma en todos los casos y, por consiguiente, se dispone de una muestra de tamaño n = n1 + n2 + · · ·+ nm de una única distribución o, por el contrario, se trata de poblaciones heterogéneas con diferentes distribuciones. Nuevamente, el conjunto de posibles valores de las observaciones se divide en k clases disjuntas: A1, A2, · · ·, Ak. Si llamamos nij al número de observaciones de la muestra i que pertenecen a la clase Aj podemos construir la siguiente tabla de contingencia: Muestra A1 A2 · · · Ak Total 1 n11 n12 · · · n1k n1 2 n21 n22 · · · n2k n2 ... ... ... . . . ... ... m nm1 nm2 · · · nmk nm Total n·1 n·2 · · · n·k n donde ni es la suma de los elementos de la fila i y n·j es la suma de la columna j. El contraste se realiza recurriendo al estad́ıstico D = m∑ i=1 k∑ j=1 (nij − nin·j/n)2 nin·j/n que sigue una distribución χ2 con (m− 1)(k − 1) grados de libertad. 16 Contrastes no paramétricos 223 16.1.3. Prueba de independencia Supongamos que de n elementos de una población se han observado dos caracteŕısti- cas X e Y , obteniéndose una muestra aleatoria simple bidimensional (x1, y1), (x2, y2), · · ·,(xn, yn). Sobre la base de dichas observaciones se desea contrastar si las caracteŕısticas poblacionales X e Y son independientes o no. Para ello se divide el conjunto de posibles valores de X en k clases disjuntas A1, A2, · · ·, Ak y los de Y en r clases disjuntas B1, B2, · · ·, Br. Al clasificar los elementos de la muestra aparecerá un cierto número de ellos , nij , en cada una de las k × r clases constituidas, dando lugar a una tabla de contingencia de la forma: B1 B2 · · · Br Total A1 n11 n12 · · · n1r n1· A2 n21 n22 · · · n2r n2· ... ... ... . . . ... ... Ak nk1 nk2 · · · nkr nk· Total n·1 n·2 · · · n·r n El contraste se realiza mediante el estad́ıstico D = k∑ i=1 r∑ j=1 (nij − ni· n·j/n)2 ni· n·j/n que sigue una distribución χ2 con kr − 1 grados de libertad. Tanto en este caso como en el anterior la región cŕıtica del test es de la forma D > c. 16.2. Contraste de Kolmogorov-Smirnov El contraste K-S es una contraste de bondad del ajuste válido únicamente para distribuciones continuas. No es conveniente su uso cuando hay que estimar parámetros ya que la distribución del estad́ıstico es entonces sólo aproximada. La hipótesis nula de este contraste es que la muestra proviene de una distribución continua F0(x). El procedimiento para construir el contraste es: 1. Se ordenan los n valores muestrales de forma que x1 ≤ x2 ≤ x3 ≤ · · · ≤ xn 224 Estad́ıstica 2. Se calcula la función de distribución emṕırica de la muestra , Fn(x), con: Fn(x) = 0 x < x1 r n xr ≤ x ≤ xr + 1 1 x ≥ xn 3. Se calcula la discrepancia máxima entre la función de distribución emṕırica y la teórica F0(x) con el estad́ıstico ∆n = máx |Fn(x)− F0(x)| cuya distribución es conocida y está tabulada según los valores de n. Para realizar correctamente el contraste hay que calcular para cada punto muestral xh el valor ∆n(xh) = máx{|Fn(xh−1)− F0(xh)| , |Fn(xh)− F0(xh)|} El máximo de los n valores aśı obtenidos es el estad́ıstico ∆n de Kolmogorov- Smirnov. La región cŕıtica del test es de la forma ∆n > c. 16.3. Otros contrastes no paramétricos 16.3.1. Contrastes de posición En ocasiones sólo nos interesa conocer, de una población desconocida, su posición sobre la recta real, porque se da por supuesto que las condiciones en que se observa el fenómeno sólo pueden trasladar la distribución sin deformarla. Ejemplos de este tipo de situaciones pueden ser: 1. Una empresa cambia su horario de entrada, adelantándolo media hora, y se pregunta si ello habrá afectado a los retrasos de sus empleados. Los datos son aleatorios, variando de d́ıa en d́ıa y de un empleado a otro, pero es aceptable pensar que la forma de su distribución no ha variado; el temor es que se haya desplazado hacia la derecha, incrementándose el tiempo perdido. 16 Contrastes no paramétricos 225 2. Una comunidad ha modificado la procedencia del agua para consumo doméstico. Tras cierto tiempo, quiere comprobar si ello ha afectado a la concentración de sodio en la sangre de sus habitantes, en el sentido de que la distribución de dicha con- centración se haya trasladado hacia uno u otro lado, mientras que la forma de la distribución se supone que no habrá variado apenas. 3. Se desea saber si las ventas en dos establecimientos de la misma cadena son análogas. Presumiblemente la forma de la distribución de las ventas diarias será similar para ambas, aśı que el objetivo es detectar si una está desplazada respecto a la otra. Si no puede suponerse la normalidad de la población madre (ya que entonces lo adecuado es aplicar los contrastes paramétricos sobre la media de una normal) es posible abordar el problema de la posición de la distribución usando la mediana muestral. 16.3.1.1. Test de los signos Tenemos una distribución continua desconocida F cuya mediana será Me. Probare- mos a contrastar la hipótesis nula H0 : Me = m0 frente a alguna de las alternativas Me < m0, Me > m0 ó Me 6= m0. El estad́ısticoque se emplea es T = { Número de observaciones muestrales mayores que m0 } que, si H0 es correcta, tiene una distribución binomial B(n, 1/2), siendo n el tamaño de la muestra. La región cŕıtica será de la forma {T ≤ k}, {T ≥ k} ó {T ≤ k}⋃{T ≥ n − k}, según sea la hipótesis alternativa una de las reseñadas arriba, y donde k puede fijarse determinando un nivel cŕıtico α. • Si el tamaño muestral es apreciable (n > 20) puede aproximarse la distribución binomial por la normal correspondiente. • Según la hipótesis de continuidad de la distribución no debeŕıan obtenerse valores muestrales coincidentes con la mediana. En la práctica ésto puede ocurrir, siendo aconsejable excluir tales valores, disminuyendo consecuentemente el tamaño de la muestra. 226 Estad́ıstica • Es fácil generalizar este contraste para cualquier otro cuantil, cambiando el paráme- tro p de la binomial. • Si tenemos datos apareados se puede aplicar el contraste a la diferencia de los datos, siendo entonces m0 = 0. Este procedimiento nos dirá si la mediana de las dos muestras es igual o no. 16.3.1.2. Test de Wilcoxon de los rangos signados En el caso en que sepamos que la distribución poblacional, además de continua, es simétrica puede mejorarse el contraste anterior de la siguiente manera. Si Di = xi − m0 son las diferencias entre las observaciones muestrales y el valor a contrastar para Me, se ordenan, en orden creciente, los valores absolutos |Di| y se anota el rango (o lugar) r (|Di|) que cada uno ocupa en dicha ordenación. El estad́ıstico en que se basa el test es la suma de los rangos de las observaciones mayores que m0, cuya distribución, si H0 es cierta, se encuentra tabulada. T+ = ∑ ∀Di>0 r (|Di|) • Si el tamaño muestral es apreciable (n > 20) la distribución del estad́ıstico T+ puede aproximarse por la normal N ( n(n+ 1)/4, √ n(n+ 1)(2n+ 1)/24 ) . En todo caso, la distribución de T+ es simétrica en torno a n(n+ 1)/4 • Igual que antes, según la hipótesis de continuidad de la distribución, no debeŕıan obtenerse valores muestrales coincidentes con la mediana. En la práctica ésto puede ocurrir, siendo aconsejable excluir tales valores, disminuyendo consecuentemente el tamaño de la muestra. • Si tenemos datos apareados se puede aplicar el contraste a la diferencia de los datos, siendo entonces m0 = 0. Este procedimiento nos dirá si la mediana de las dos muestras es igual o no. • Si se conoce la mediana poblacional este test se convierte en una prueba sobre la hipótesis subyacente de que la distribución es simétrica respecto a la mediana. Aśı, para tamaños muestrales grandes, para los que la mediana muestral tiende al valor de la mediana poblacional, puede usarse, sustituyendo m0 por el valor muestral de la mediana, para contrastar la simetŕıa de la distribución. 16 Contrastes no paramétricos 227 16.3.1.3. Test de la mediana Los dos tests anteriores se refieren a la mediana de una única población y hacen uso de una única muestra (en el caso de los datos apareados la población y la muestra que interesan son las diferencias entre las parejas de datos). Sin embargo, con frecuencia se plantean situaciones en las cuales hay que comparar dos poblaciones continuas y tratar de detectar desplazamientos entre ambas distribuciones. Supongamos, por tanto, dos muestras aleatorias simples: x1, x2, · · · , xn e y1, y2, · · · , ym correspondientes a cada población e independientes entre śı. Si se ordenan conjuntamente en orden creciente, la mediana z de la muestra combinada es el valor central, en el caso de que n+m sea impar, y el promedio de los dos valores centrales en el caso de que n+m sea par. El estad́ıstico que se emplea es T = Número de xi inferiores a z Si Mex = Mey, es decir, si la hipótesis H0 es cierta, la distribución de T es hiper- geométrica P (T = t) = ( p t )( n+m− p n− t ) ( n+m n ) donde p es la parte entera de (n+m)/2 y t puede variar entre max{0, p−m} y min{n, p}. Si n ym son grandes la distribución de T es aproximadamente N ( n/2, √ nm/4(n+m) ) . 16.3.1.4. Test de Mann-Whitney Este contraste “resuelve.el mismo caso que el anterior: detectar diferencias de posi- ción entre dos poblaciones continuas de las que tenemos dos muestras aleatorias simples. El estad́ıstico a utilizar es V , calculado como sigue: 1. Se ordenan conjuntamente, igual que en el caso anterior, las dos muestras en orden creciente. 2. Para cada valor xi correspondiente a la primera muestra (que debe corresponder a la de tamaño muestral menor) se cuenta el número de valores de la segunda muestra que hay por debajo de él. 3. V es la suma de los números calculados anteriormente. 228 Estad́ıstica Supongamos, por ejemplo, que al ordenar la muestra el resultado hubiera sido (cada x representa un valor de la primera muestra y cada y uno de la segunda): xxyyxyyyxxyxxyx, entonces V = 0 + 0 + 2 + 5 + 5 + 6 + 6 + 7 = 31 La distribución de este estad́ıstico se halla tabulada. Si n y m son grandes es, aproximada- mente, N ( nm/2, √ nm(n +m+ 1)/12 ) . En todo caso, la distribución de V es simétrica en torno a nm/2. 16.3.2. Contrastes de independencia Vamos a estudiar algunos contrastes para decidir sobre la independencia de dos caracteŕısticas poblacionales continuas X e Y cuya distribución conjunta no sea normal y que no están basados en el contraste χ2. En el caso de distribución conjunta normal lo más adecuado es realizar un contraste paramétrico sobre el coeficiente de correlación. 16.3.2.1. Test τ de Kendall Supongamos un conjunto de n observaciones apareadas: (x1, y1), (x2, y2), · · ·, (xn, yn). Para calcular el estad́ıstico T de Kendall se procede como sigue: 1. Se ordena la muestra según la primera componente, de modo que x1 < x2 < · · · < xn 2. Consideramos ahora la segunda componente de cada par aśı ordenado y ecribimos su rango, es decir, el lugar que ocupa respecto del resto de valores de y. Obtenemos entonces una sucesión de valores r1, r2, · · · , rn donde rj ≡ lugar que ocupa la segunda componente del par i-ésimo en la ordenación de estos valores. 3. Para cada valor de esta sucesión se cuenta cuántos de los valores posteriores a él son mayores. 4. Se suman los números aśı obtenidos. Llamemos P a su valor. 5. T = 4P n(n− 1) − 1 La distribución de T está tabulada y para n > 10 es aproximadamente N ( 0, √ 2(2n+ 5) 9n(n− 1) ) La región cŕıtica de este contraste es de la forma {|T | > k} 16 Contrastes no paramétricos 229 16.3.2.2. Test del coeficiente de correlación entre rangos o test de Spearman Supongamos de nuevo una muestra apareada de valores (xi, yi). Este contraste está basado en el estad́ıstico de Spearman, RS, que se calcula como sigue: 1. Se ordena la muestra según los valores de la primera componente (en orden creciente de ésta). 2. Consideramos de nuevo el rango, rj , que corresponde al valor de la segunda compo- nente y que ocupa el lugar j-ésimo de esta ordenación. 3. Calculamos U = n∑ j=1 (rj − j)2 4. RS = 1− 6U n(n2 − 1) La distribución de RS está tabulada y para n > 10 es aproximadamente N ( 0, 1√ n− 1 ) 16.3.2.3. Test de rachas Un problema de independencia distinto de los anteriores se plantea cuando existen dudas acerca de que una muestra sea realmente aleatoria simple, es decir, que las sucesivas observaciones hayan sido efectuadas independientemente. Condiciones de muestreo sin las debidas garant́ıas de aleatoriedad pueden afectar a la independencia de las observaciones y dar al traste con la aplicación de todos los métodos basados en el muestreo aleatorio simple. Supongamos una variable que sólo puede tomar dos valores (digamos 0 y 1). Al tomar una muestrta obtendremos sucesiones de la forma 0001101011110001. Se llama racha a cada uno de los conjuntos de ceros consecutivos que se observan hasta llegar a un 1 y a cada uno de los conjuntos de unos consecutivos que se observan hasta llegar a un 0. La muestraanterior, por ejemplo, tiene 8 rachas. Si R es el número de rachas en una muestra que tiene n ceros y m unos (y por tanto tamaño n+m) puede demostrarse que si la muestra es aleatoria P (R = 2r) = 2 ( n− 1 r − 1 )( m− 1 r − 1 ) ( n+m n ) 230 Estad́ıstica P (R = 2r + 1) = ( n− 1 r − 1 )( m− 1 r ) + ( n− 1 r )( m− 1 r − 1 ) ( n +m n ) con r ≤ min{n,m}. Si n y m son grandes (superiores a 10) puede tomarse como distribución de R N ( 2nm (n+m) + 1, √ 2nm(2nm− n−m) (n+m)2(n+m− 1 ) La región cŕıtica de este contraste es de la forma {R < k1} ⋃{R > k2}. 16.4. Ejemplos Ejemplo 1 Se ha estimado que el número de accidentes diarios en una determinada carretera sigue una distribución de Poisson de parámetro 2. Durante 200 d́ıas se han recogido los siguientes datos: n◦ de accidentes 0 1 2 3 4 5 6 7 n◦ de d́ıas 22 53 58 39 20 5 2 1 con los que se quiere contrastar si se ajusta a la distribución indicada. Si la hipótesis es cierta se espera un número de d́ıas igual a 200 veces la probabilidad de que una Poisson de parámetro 2 valga 0, 1, 2, 3, 4, 5, 6 ó 7: Los valores esperados son: n◦ de accidentes 0 1 2 3 4 ≥ 5 n◦ esperado de d́ıas 27.06 54.14 54.14 36.08 18.04 10.54 donde se han agrupado las categoŕıas correspondientes a 5 o más accidentes para satisfacer la condición de que el número esperado en cada categoŕıa sea mayor o igual a 5. El estad́ıstico D de Pearson vale D = 5∑ i=0 (ni − ni,esp)2 ni,esp = −n + 5∑ i=0 n2i ni,esp = 222 27.06 + 532 54.14 + · · ·+ 8 2 10.54 − 200 = 2.307 16 Contrastes no paramétricos 231 cuya distribución, si la hipótesis es correcta, es aproximadamente χ2 con 5 grados de libertad. Por ejemplo, P (χ25 > 7.29) = 0.2, de modo que sólamente un valor de D superior a 7.29 permitiŕıa, con nivel de significación 0.2, afirmar que la distribución de accidentes no es una Poisson de parámetro 2. El valor p del contraste realizado es superior a 0.7. 232 Estad́ıstica Ejemplo 2 Una máquina, en correcto estado de funcionamiento, fabrica piezas cuya longitud se distribuye según una N(10.5; 0.15). En determinado momento se observa la siguiente muestra, de tamaño 40, de la longitud de las piezas producidas: 10.39 10.66 10.12 10.32 10.25 10.91 10.52 10.83 10.72 10.28 10.35 10.46 10.54 10.72 10.23 10.18 10.62 10.49 10.32 10.61 10.64 10.23 10.29 10.78 10.81 10.39 10.34 10.62 10.75 10.34 10.41 10.81 10.64 10.53 10.31 10.46 10.47 10.43 10.57 10.74 y se desea saber si la muestra avala que la máquina está funcionando correctamente. Vamos a realizar el contraste de bondad del ajuste de χ2 primero y, posteriormente, el de Kolmogorov-Smirnov. Para realizar el contraste χ2, tomamos 8 intervalos buscando los cuantiles de órdenes 0.125, 0.25, 0.375, · · ·, 0.875, de modo que el número esperado de valores sea 5 en cada intervalo. La partición resultante es: Ai ni ni,esp ≤ 10.33 10 5 (10.33, 10.4] 5 5 (10.4, 10.45] 2 5 (10.45, 10.5] 4 5 (10.5, 10.55] 3 5 (10.55, 10.6] 1 5 (10.6, 10.67] 6 5 > 10.67 9 5 Total 40 40 D = 52 + 02 + 32 + 12 + 22 + 42 + 12 + 42 5 = 14.4 Si la hipótesis fuera correcta la distribución de D seŕıa χ2 con 7 grados de libertad y la tabla indica que P (χ27 > 14.4) = 0.0445 Y, por tanto, se puede afirmar con cualquier nivel de significación superior a 0.0445 que las piezas no siguen la distribución N(10.5; 0.15). 16 Contrastes no paramétricos 233 Para realizar ahora el contraste K-S se construye la siguiente tabla, cuya segunda columna da el número de observaciones acumuladas hasta el valor muestral, la tercera la función de distribución muestral (dividiendo por el tamaño de la muestra), la cuarta la distribución teórica (dada por la hipótesis nula) y las dos siguientes las diferencias: la quinta de la misma fila y la sexta de cada F0(xi) con la de la fila anterior de la distribución de la muestra. 234 Estad́ıstica xi i Fn(xi) F0(xi) Fn(xi)− F0(xi) Fn(xi−1)− F0(xi) 10.12 1 0.025 0.0056 0.0194 0.0056 10.18 2 0.050 0.0164 0.0336 -0.0086 10.23 4 0.100 0.0359 0.0641 -0.0141 10.25 5 0.125 0.0478 0.0772 -0.0522 10.28 6 0.150 0.0712 0.0788 -0.0538 10.29 7 0.175 0.0807 0.0943 -0.0693 10.31 8 0.200 0.1026 0.0974 -0.0724 10.32 10 0.250 0.1151 0.1349 -0.0849 10.34 12 0.300 0.1431 0.1569 -0.1069 10.35 13 0.325 0.1587 0.1663 -0.1413 10.39 15 0.375 0.2317 0.1433 -0.0933 10.41 16 0.400 0.2743 0.1257 -0.1007 10.43 17 0.425 0.3204 0.1046 -0.0796 10.46 19 0.475 0.3949 0.0801 -0.0301 10.47 20 0.500 0.4207 0.0793 -0.0543 10.49 21 0.525 0.4734 0.0516 -0.0266 10.52 22 0.550 0.5530 -0.0030 0.0280 10.53 23 0.575 0.5793 -0.0043 0.0293 10.54 24 0.600 0.6051 -0.0051 0.0301 10.57 25 0.625 0.6796 -0.0546 0.0796 10.61 26 0.650 0.7683 -0.1183 0.1433 10.62 28 0.700 0.7881 -0.0881 0.1381 10.64 30 0.750 0.8247 -0.0747 0.1247 10.66 31 0.775 0.8569 -0.0819 0.1069 10.72 33 0.825 0.9288 -0.1038 0.1538 10.74 34 0.850 0.9452 -0.0952 0.1202 10.75 35 0.875 0.9522 -0.0772 0.1022 10.78 36 0.900 0.9690 -0.0690 0.0940 10.81 38 0.950 0.9806 -0.0306 0.0806 10.83 39 0.975 0.9861 -0.0111 0.0361 10.91 40 1 0.9969 0.0031 0.0219 La entrada con mayor valor absoluto de la quinta columna es 0.1663 mientras que la de la sexta es 0.1538. Aśı, el estad́ıstico de Kolmogorov-Smirnov vale ∆40 = 0.1663 16 Contrastes no paramétricos 235 y, según la tabla, corresponde a un valor p muy cercano a 0.2 (y desde luego, mayor que 0.1). No hay, por tanto, evidencia según este contraste en contra de la hipótesis nula. En este ejemplo se comprueba que, a veces, el contraste χ2 detecta diferencias que el de Kolmogorov-Smirnov no es capaz de detectar. Ejemplo 3 Hemos deducido del contraste χ2 anterior que la maquina no fabrica piezas tal y como pensábamos. Sin embargo parece plausible pensar que la distribución de longitudes sigue siendo normal, sólo que la media y desviación han cambiado. Probemos esta hipótesis. Lo primero que ha de hacerse es estimar la media y la desviación t́ıpica por máxima verosimilitud. Para una normal, los estimadores de estas cantidades resultan ser la media y la desviación muestral, obteniéndose para nuestra muestra µ̂ = x̄ = 10.502 σ̂ = s = 0.2025 Tratemos de ajustar nuestros datos a una normal con estos parámetros. Tomamos una partición arbitraria y construimos la tabla Ai ni ni,esp ≤ 10.3 7 6.37 (10.3, 10.4] 8 5.92 (10.4, 10.5] 6 7.55 (10.5, 10.6] 4 7.59 (10.6, 10.7] 6 6.00 > 10.7 9 6.57 según la cual D = 3.708. Al tener seis intervalos y haber estimado dos parámetros la distribución de D, si H0 es cierta, es una χ 2 con 6− 1− 2 = 3 grados de libertad. Como P (χ23 > 3.708) = 0.295 La muestra no permite ahora rechazar la hipótesis de que la longitud de las piezas fabri- cadas sigue una distribución normal N(10.502; 0.2025). Ejemplo 4 Los impactos de 60 bombas volantes sobre la superficie de Londres, considerada cuadrada, fueron clasificados en 9 zonas obtenidas dividiendo cada lado en tres partes iguales, con los siguientes resultados 236 Estad́ıstica 8 7 3 5 9 11 6 4 7 Los responsables de la defensa queŕıan averiguar si las bombas persegúıan algún objetivo concreto o se distribúıan al azar sobre la superficie de la ciudad. Con distribución uniforme sobre toda la superficie, cada cuadŕıcula tendŕıa probabi- lidad 1/9 de recibir cada impacto y, por tanto, un número esperado de impactos de 60/9. El estad́ıstico de Person vale ahora D = 7.5 y su distribución teórica debeŕıa ser una χ2 con 8 grados de libertad. P (χ28 > 7.5) = 0.48 valor que no permite rechazar la hipótesis de uniformidad. Ejemplo 5 Un modelo genético indica que la distribución de daltónicos se ajusta a las proba- bilidades Hombres Mujeres Normales q/2 q2/2 + pq Daltónicos p/2 p2/2 siendo p = 1−q la proporción de cromosomas X portadores del daltonismo. Para compro- bar la teoŕıa se examinaron 2000 individuos elegidos al azar con los siguientes resultados Hombres Mujeres Normales 894 1015 Daltónicos81 10 y se desea saber si las observaciones concuerdan con el modelo. Puesto que q no es conocido habrá que hallar su estimación de máxima verosimilitud. La muestra observada tiene por verosimilitud 2000! 894! 81! 1015! 10! (q 2 )894(1− q 2 )81 [ q ( 1− q 2 )]1015 [(1− q)2 2 ]10 cuyo logaritmo (prescindiendo de los términos independientes de q) es 16 Contrastes no paramétricos 237 894 log q + 81 log (1− q) + 1015 log q + 1015 log (2− q) + 20 log (1− q) y tiene por derivada respecto a q 1909 q − 101 1− q − 1015 2− q La estimación de q es q̂ = 0.91277 y los números esperados en cada uno de los cuatro grupos son Hombres Mujeres Normales 912.77 992.39 Daltónicos 87.23 7.61 El estad́ıstico D = 2.097 debe seguir una distribución χ2 con 2 grados de libertad. Como P (χ22 > 2.097) = 0.35 no puede rechazarse la hipótesis nula. Ejemplo 6 Se quiere estudiar si los distintos grupos sangúıneos se presentan con las mismas frecuencias en tres grupos étnicos diferentes. Para ello se analizaron un cierto número de individuos de cada raza, obteniéndose los resultados siguientes: Raza 0 A B AB Total A 32 11 7 2 52 B 47 13 17 9 86 C 23 7 9 6 45 Total 102 31 33 17 183 El estad́ıstico D = 4.691 y debe seguir una χ2 con 6 grados de libertad. Como P (χ26 > 4.691) = 0.584 No podemos rechazar la igualdad de frecuencias. Esta claro que las cifras de las distintas filas de la tabla anterior no son compa- rables entre śı directamente, puesto que se refieren a diferentes tamaños muestrales. En porcentajes, los datos se expresan: 238 Estad́ıstica Raza 0 A B AB Total A 61.54 21.15 13.46 3.85 100 B 54.65 15.12 19.77 10.46 100 C 51.11 15.56 20.00 13.33 100 Total 55.74 16.94 18.03 9.29 100 La simple inspección de esta tabla parece indicar que hay diferencias significativas, al menos entre el primer grupo étnico y los otros dos. Sin embargo, el contraste nos indica que estas diferencias son completamente admisibles como debidas al azar y no contradicen, en absoluto, la hipótesis de igualdad de fercuencia de cada grupo sangúıneo. Ejemplo 7 Para comprobar la eficacia del test χ2 de homogeneidad se han simulado dos mues- tras aleatorias simples, de tamaño 50, de las distribuciones N(0,1) y Cauchy ( de densidad π−1(1 + x2)−1), cuya apariencia gráfica es similar. Las muestras obtenidas han sido: N(0,1) Cauchy -0.99 1.54 -1.02 0.56 -0.36 -2.15 1.34 -2.98 1.22 0.46 0.31 -0.18 0.41 0.51 -0.44 -0.60 0.58 2.18 -0.63 1.03 -0.28 0.75 0.26 -0.89 1.76 -1.21 7.05 -5.96 1.23 0.77 0.98 -0.46 0.07 0.68 1.11 -16.39 0.03 0.71 -0.56 -0.91 0.39 -0.45 -0.44 1.27 -1.13 0.44 -27.53 0.44 3.77 -0.69 0.21 1.88 2.57 -0.80 -0.16 -0.52 1.24 -1.18 -0.52 0.28 0.89 0.03 0.25 0.58 0.83 -1.24 0.88 0.66 -0.96 0.29 0.31 0.99 0.15 -0.13 -1.56 1.28 1.58 -1.74 28.33 -0.58 -1.24 -0.64 -1.34 -0.99 1.85 0.08 -0.71 -4.07 2.45 1.41 -0.16 0.11 -1.21 -0.21 -0.22 12.89 1.28 1.39 -3.49 -1.42 Podemos clasificar estas muestras en los intervalos 16 Contrastes no paramétricos 239 Aj n1j n2j n·j (−∞,−2] 0 7 7 (−2,−1.2] 4 4 8 (−1.2,−0.9] 4 3 7 (−0.9,−0.6] 3 4 7 (−0.6,−0.3] 5 4 9 (−0.3, 0] 7 1 8 (0,−0.3] 7 3 10 (0.3, 0.6] 7 4 11 (0.6, 0.9] 4 4 8 (0.9, 1.2] 3 1 4 (1.2, 2] 5 9 14 (2,∞] 1 6 7 Total 50 50 100 El estad́ıstico D toma el valor 20.03 y tiene distribución χ2 con 11 grados de libertad. Puesto que P (χ211 > 20.03) = 0.045 se puede rechazar la homogeneidad de ambas muestras con nivel cŕıtico 0.045. Ejemplo 8 Para estudiar si el grupo sangúıneo tiene relación con la predisposición a padecer diabetes, se seleccionan al azar 400 sujetos de los que se ha determinado el grupo san- gúıneo y el nivel de glucosa en idénticas condiciones experimentales. Clasificada la segunda medida en bajo, medio y alto, los resultados han sido: Bajo Medio Alto Total 0 137 86 35 258 A 42 23 11 76 B 19 17 7 43 AB 14 7 2 23 Total 212 133 55 400 Con los datos expresados en la tabla se obtiene D = 2.406. Por otra parte, D tiene distribución χ2 con 6 grados de libertad y P (χ26 > 2.204) = 0.9 240 Estad́ıstica por lo que no puede concluirse de ninguna manera que haya una relación entre el grupo sangúıneo y la diabetes. Ejemplo 9 Un laboratorio farmacéutico afirma que uno de sus productos confiere inmunidad contra la picadura de insectos durante un tiempo exponencial de media 2.5 horas. Probado en 25 sujetos, en un ambiente con gran número de mosquitos, los instantes (en horas) en que recibieron la primera picadura fueron: 0.01 0.01 0.02 0.02 0.02 0.03 0.03 0.23 0.51 0.74 0.96 1.17 1.46 1.62 2.18 2.25 2.79 3.45 3.83 3.92 4.27 5.43 5.79 5.91 6.34 Construimos, para realizar un contraste K-S, la tabla: xi i Fn(xi) F0(xi) Fn(xi)− F0(xi) Fn(xi−1)− F0(xi) 0.01 2 0.08 0.004 0.076 0.004 0.02 5 0.20 0.008 0.192 -0.072 0.03 7 0.28 0.012 0.268 -0.188 0.23 8 0.32 0.088 0.232 -0.192 0.51 9 0.36 0.185 0.175 -0.135 0.74 10 0.40 0.256 0.144 -0.104 0.96 11 0.44 0.319 1.121 -0.081 1.17 12 0.48 0.374 0.106 -0.066 1.46 13 0.52 0.442 0.078 -0.038 1.62 14 0.56 0.477 0.083 -0.043 2.18 15 0.60 0.582 0.018 0.022 2.25 16 0.64 0.593 0.047 -0.007 2.79 17 0.68 0.672 0.008 0.032 3.45 18 0.72 0.748 -0.028 0.068 3.83 19 0.76 0.784 -0.024 0.064 3.92 20 0.80 0.792 0.008 0-032 4.27 21 0.84 0.819 0.021 0-019 5.43 22 0.88 0.886 -0.006 0.046 5.79 23 0.92 0.901 0.019 0.021 5.91 24 0.96 0.906 0-054 -0.014 6.34 25 1 0.921 0.079 -0.039 16 Contrastes no paramétricos 241 en la que la cuarta columna contiene la función de distribución teórica: 1−e−0.4x. Se tiene, de esta tabla, que ∆25 = 0.268 y la correspondiente tabla indica que la hipótesis de que la distribución es la que dice la empresa puede ser rechazada con nivel de significación 0.05. Probemos ahora un contraste χ2. Como hay sólo 25 datos lo más lógico es descom- poner el recorrido de la variable en 5 intervalos de probabilidad 1/5, obteniéndose: Ai ni ni,esp [0, 0.558) 9 5 (0.558, 1.277] 3 5 (1.277, 2.291] 4 5 (2.291, 4.024] 4 5 (4.024,∞) 5 5 y un valor del estad́ıstico D = 4.4 que, comparado con la distribución χ24, no permite rechazar la hipótesis de ajuste ni siquiera con nivel de significación 0.3. Ahora es este contraste el que no es capaz de detectar las diferencias que śı ha detectado Kolmogorov- Smirnov. Ejemplo 10 Una empresa decide adelantar su horario de entrada en una hora. Antes del cambio sab́ıa que la media de retraso de sus empleados era de 5 minutos. Tras el cambio selecciona 12 empleados y observa, en un determinado d́ıa, los siguientes retrasos (en minutos): 2.5 1.2 7 1.8 8.3 6.8 5.2 3.4 4.7 6.2 9.1 5.2 El contraste que desea realizar la empresa es H0 : Me = 5 (los retrasos no han variado) frente a H1 : Me > 5 (los retrasos han aumentado). Vamos a emplear el test de los signos: el número de datos superiores a 5 es T = 7, y la distribución binomial B(12, 1/2),indica que, si H0 es correcta, P (T ≥ 7) = 0.3871 lo que indica que no es rechazable la hipótesis nula. Ejemplo 11 Supongamos ahora que la empresa anterior seleccionó 16 de sus empleados y mi- dió sus retrasos en dos d́ıas , antes y después del cambio de horario. Los resultados fueron: 242 Estad́ıstica 2.1/3.4 1.2/5.1 4.2/2.6 4.6/7.4 0.7/2.4 3.2/2.7 5.6/5.2 1.8/2.9 4.8/6.5 2.3/7.3 0.4/0.8 2.5/2.2 3.2/9.8 4.7/2.8 1.6/2.2 6.3/6.5 que se traduce en los siguientes aumentos de los retrasos: 1.3 3.9 -1.6 2.8 1.7 -0.5 -0.4 1.1 1.7 5.0 0.4 -0.3 6.6 -1.9 0.6 0.2 Si Me es la mediana de la distribución de incrementos se puede contrastar, ahora, la hipótesis H0 : Me = 0 frente a H1 : Me > 0. El número de incrementos positivos es T = 11 y la distribución binomial B(16, 1/2) proporciona P (T ≥ 11) = 0.105 y se podŕıa rechazar la hipótesis Me = 0 con nivel cŕıtico 0.105. Ejemplo 12 Supongamos que la distribución de sodio por unidad de volumen de sangre en una población es simétrica alrededor de 3.24 g. Se ha cambiado el suministro de agua y se han obtenido los siguientes análisis de 15 habitantes(en gramos por unidad de volumen): 2.37 2.95 3.40 2.46 3.66 3.18 2.72 3.71 3.87 1.97 1.66 3.72 2.10 1.83 3.03 Las diferencias respecto a la mediana, con los rangos, en la ordenación creciente de sus valores absolutos, indicados junto a cada término, tal y como se requiere para aplicar el test de los rangos asignados a H0 : Me = 3.24 frente a H1 : Me 6= 3.24 son: −0.8711 −0.294 +0.162 −0.69 +0.426 −0.061 −0.528 +0.375 +0.6310 −1.2713 −1.5815 +0.487 −1.1412 −1.4114 −0.213 La suma de los rangos de los términos positivos es T+ = 2 + 6 + 5 + 10 + 7 = 30. Con nivel de significación α = 0.1 la tabla indica que la hipótesis Me = 3.24 puede ser rechazada si T+ ≥ 89 ó T+ ≤ 31. En cambio, para α = 0.05 la región cŕıtica del test es T+ ≥ 94 ó T+ ≤ 26. Los datos obtenidos permiten, pues, afirmar que la distribución de la cantidad de sodio ha variado, con un riesgo de error próximo al 10%. 16 Contrastes no paramétricos 243 Ejemplo 13 En 8 personas elegidas al azar se analizó el contenido en sodio antes y después del cambio de suministro de agua, con los siguientes resultados: 3.34/2.58 2.82/2.46 3.06/3.50 2.30/2.16 4.22/3.78 3.55/3.19 2.61/2.94 2.83/1.94 Los incrementos han sido: -0.76 -0.36 +0.44 -0.14 -0.44 -0.36 +0.33 -0.89 (7) (3.5) (5.5) (1) (5.5) (3.5) (2) (8) con los rangos que se indican en la segunda fila. El test de Wilcoxon para el contraste de Me = 0 frente a Me 6= 0 nos proporciona el estad́ıstico T+ = 7.5, mientras que la tabla correspondiente indica que, con nivel de significación 0.1, la hipótesis Me = 0 sólo podŕıa rechazarse si fuese T+ ≥ 30 ó T+ ≤ 6. Ejemplo 14 Las ventas de los establecimientos A y B fueron controladas durante 9 y 12 d́ıas respectivamente, con los siguientes resultados (en miles de pesetas): A: 132.5 167.4 189.8 124.6 136.6 147.5 159.9 117.8 106.3 B: 97.4 108.2 114.1 86.3 101.8 122.6 78.3 136.2 89.5 118.4 109.2 92.7 La ordenación conjunta de ambas muestras (sin perder la procedencia de cada dato) figura en la siguiente tabla: A: 106.3 117.8 B: 78.3 86.3 89.5 92.7 97.4 101.8 108.2 109.2 114.1 A: 124.6 132.5 136.6 147.5 159.9 167.4 189.8 B: 118.4 122.6 136.3 La mediana de la muestra conjunta (que ocupa el valor 11) es el valor 117.8 y hay un único término de la primera muestra inferior a este, luego T = 1. Para contrastar Mex = Mey frente a Mex > Mey con nivel de significación α, el test de la mediana utiliza la región cŕıtica {T ≤ k} donde ha de ser 244 Estad́ıstica P (T ≤ k) = k∑ t=0 ( 10 t )( 11 9− t ) ( 21 9 ) ≤ α Con k = 1 el nivel de significación resulta α = 0.0058, de forma que se puede afirmar que Mex > Mey con gran seguridad. El contratse χ2 aplicado a la tabla de contingencia < 120 > 120 Total A 2 7 9 B 10 2 12 Total 12 9 21 da una valor del estad́ıstico D = 7.84 que, comparado con una distribución χ21, permite también descartar la homogeneidad de ambas muestras con nivel de significación inferior a 0.01. Con los tamaños muestrales usados y la partición elegida, el contraste χ2 es menos fiable que el de la mediana. Con tamaños muestrales grandes, y sobre todo si no hay constancia de la igualdad de forma de las distribuciones, es preferible el contraste χ2. Tratemos ahora de emplear el test de Mann-Whitney. Para la ordenación de las muestras anterior basta contar el número de elementos de la muestra B que hay por debajo de cada elemento de la muestra A para obtener: V = 6 + 9 + 11 + 11 + 12 + 12 + 12 + 12 + 12 = 97 Como V es aproximadamente N(54, 14.07) tenemos P (V > 96) ≃ P (N(0, 1) > 2.98) = 0.0014 y el test de Mann-Whitney corrobora, con nivel de significación inferior a 0.005 que las ventas del establecimiento A son superiores a las del B. Ejemplo 15 En 10 empleados de una empresa se ha observado la distancia (en km.) de su do- micilio a la sede de la empresa y el retraso (en min.) con el que llegaron al trabajo cierto d́ıa. Los resultados fueron: 16 Contrastes no paramétricos 245 (3.3, 5, 1) (2.4, 3.6) (1.9, 4.2) (2.8, 6.3) (1.2, 2.3) (2.7, 3.4) (4.0, 2.8) (0.7, 3.2) (6.1, 5.3) (3.7, 3.7) Ordenada la muestra según la distancia, los retrasos asociados son 3.2 2.3 4.2 3.6 3.4 6.3 5.1 3.7 2.8 5.3 (3) (1) (7) (5) (4) (10) (8) (6) (2) (9) cuyos rangos (en la ordenación de valores de menor a mayor) se han indicado debajo de cada uno. El recuento de valores mayores que quedan a la derecha de cada rango proporciona P = 7 + 8 + 3 + 4 + 4 + 0 + 1 + 1 + 1 = 29 con lo cual T = 13/45 = 0.288. La correspondiente tabla indica que debeŕıa ser T > 0.33 para poder rechazar la hipótesis de independencia con nivel de significación 0.1. Por tanto, los datos no permiten concluir que haya relación entre el retraso y la distancia del domicilio a la empresa. Probemos ahora con el test de Spearman. Con la ordenación ya efectuada anterior- mente: U = 22 + 12 + 42 + 12 + 12 + 42 + 12 + 22 + 72 + 12 = 94 y el estad́ıstico de Spearman vale RS = 1 − 6U/990 = 0.43. De la correspondiente tabla observamos que dicho coeficiente no es suficiente para rechazar la independencia entre las variables ni siquiera con nivel de significación 0.1. Ejemplo 16 Al extraer 17 bolas con reemplazamiento de una bolsa con bolas blancas y negras se ha obtenido el resultado BBBBNNNBBBBBBBBNN que muestra R = 4 rachas. Puesto que hay 12 blancas y 5 negras, el número de rachas podŕıa haber sido cualquiera entre 2 y 11. Las fórmulas dadas anteriomente permiten calcular la probabilidad de cada uno de los valores: 2 3 4 5 6 7 8 9 10 11 0.0003 0.002 0.014 0.046 0.107 0.195 0.213 0.24 0.107 0.075 Incluyendo las probabilidades de menor a mayor, se observa que {R ≤ 4} es la región cŕıtica con tamaño α = 0.0169; con tamaño α = 0.0631 se podŕıa rechazar para {R ≤ 5} y para α = 0.1377 se obtendŕıa la región cŕıtica {R ≤ 5}⋃{R = 11}. 246 Estad́ıstica Ejemplo 17 Queremos comprobar si al tomar en d́ıas consecutivos los datos de ventas del es- tablecimiento B del ejemplo 14 hemos afectado a su independencia. Los 12 datos tienen como mediana 105. Los términos de la muestra original, comparados con esta mediana dan la secuencia de signos - + + - - + - + - + + - con R = 9 rachas. Con n = m = 6 la distribución de R es simétrica entre 2 y 12, obteniéndose las probabilidades: 2 y 12 3 y 11 4 y 10 5 y 9 6 y 8 7 0.002 0.011 0.054 0.011 0.216 0.216 La región cŕıtica {R ≤ 4}⋃{R ≥ 10} tendŕıa tamaño =0.134, de forma que, con R = 9, no puede afirmarse que la toma de datos en d́ıas consecutivos haya afectado a la independencia de la muestra. Ejemplo 18 Una afección de la glándula tiroides ha sido investigada en una cierta región durante los años ochenta. El número de casos observados desde junio de 1986 hasta mayo de 1989 vienen dados en la siguiente tabla Año Mes E F M A M J J A S O N D 1986 6 9 8 6 8 11 8 1987 5 4 4 2 1 8 8 6 2 2 1 2 1988 7 8 3 1 2 7 7 6 5 5 3 5 1989 1 2 1 1 2 Se quiere investigar si existe o no alguna periodicidad en dicha enfermedad contras- tando: (a) Si pueden considerarse homogéneas las tres temporadas durante las cuales se recogieron los datos. (b) Si los casos se presentan con variaciones estacionales. (a) En primer lugar se trata de detectar si hay una pauta común en los tres ciclos anuales considerados, ya que, en caso contrario, ello significaŕıa que el comportamiento es diferente cada año. Para ello , conviene agrupar los datos de la froma 16 Contrastes no paramétricos 247 J J A S O N D E F M A-M Total 1986-87 6 9 8 6 8 11 8 5 4 4 3 72 1987-88 8 8 6 2 2 1 2 7 8 3 3 50 1988-89 7 7 6 5 5 3 5 1 2 1 3 45 Total 21 24 20 13 15 15 15 13 14 8 9 167 con los meses de abril y mayo sumados para conseguir que sea nin·j/n ≥ 2. El estad́ıstico de contraste toma el valor D = m∑ i=1 k∑ j=1 (nij − nin·j/n)2 nin·j/n = n ( −1 + 3∑ i=i 11∑ j=1 nij nin·j ) = 24.477 y D tiene distribución χ220, cuya tabla indica que la hipótesis de que las tres temporadas siguen el mismo patrón no puede ser rechazadacon nivel de significación 0.1 (el nivel cŕıtico es, de hecho, 0.222). (b) Admitida la homogeneidad de las tres muestras, los 167 casos, agrupados por meses, se distribuyen como indica la tabla siguiente J J A S O N D E F M A M 21 24 20 13 15 15 15 13 14 8 4 5 La influencia del mes sobre el número de casos ocurridos tendŕıa que ser descartada si las frecuencias observadas fuesen compatibles con probabilidades de 1/12 para cada uno de ellos; es decir si no pudiese admitirse que los datos fueran desviaciones debidas al azar en torno a 167/12 casos por mes. El estad́ıstico de Pearson para dicho contraste vale D = −167 + 12 167 12∑ j=1 n2j = 29.24 y tiene distribución χ211. La hipótesis de uniformidad de la distribución puede rechazarse, por tanto, con nivel de significación 0.005. Las diferencias entre los tres meses de verano (J,J,A) no son significativas, pues los datos J J A 21 24 20 65/3 65/3 65/3 dan como valor del estad́ıstico de Pearson D = −65 + 3/65 3∑ j=1 n2j = 0.4 que, comparado con la distribución χ22 no permite rechazar la hipótesis de que los casos se presentan unifromemente distribuidos entre los tres meses. 248 Estad́ıstica Lo mismo ocurre con los tres meses de primavera (M,A,M: D = 1.53 < χ22;0.1) y, por supuesto, con los seis meses de otoño-invierno. En cambio, existen diferencias significativas entre estos tres periodos. Por ejemplo, la comparación entre el verano y los seis meses siguientes da como resultado Verano Otoño-Invierno 65 85 150/3 2 · 150/3 D = 6.75 > χ21;0.01 de manera que no hay un reparto uniforme de los casos entre los tres meses de verano y los seis siguientes. En definitiva, puede concluirse que la incidencia de la enfermedad es más alta en verano y más baja en primavera, respecto del nivel medio durante el resto del año. Los datos de este ejemplo corresponden a una serie temporal (un conjunto de ob- servaciones a lo largo del tiempo) que tienen su tratamiento espećıfico. Esto no significa, sin embargo, que los resultados obtenidos mediante las técnicas estándar para estas series sean “mejores”que las que hemos obtenido. La principal diferencia radica en la capacidad que da el análisis de series temporales de predecir el comportamiento futuro (al menos a corto plazo). Ejemplo 19 Las 100 primeras cifras decimales del número π son π = 3.14159265358979323846264338327950288419716939937510 58209749445923078164062862089986280348253421170679 y queremos saber si estas cifras tienen las propiedades de una secuencia de cifras elegida al azar. Se puede contrastar, en primer lugar, si todas las cifras aparecen con la misma frecuencia 1/10, que si hubiesen sido elegidas al azar de una urna con diez bolas numeradas del 0 al 9. Para ello comparamos las frecuencias esperadas y observadas, mediante la tabla 0 1 2 3 4 5 6 7 8 9 ni 8 8 12 11 10 8 9 8 12 14 ni,esp 10 10 10 10 10 10 10 10 10 10 16 Contrastes no paramétricos 249 El valor del estad́ıstico de Pearson resulta D = 1 10 9∑ i=0 (ni − 10)2 = 4.2 que, comparado con la distribución χ29 lleva a aceptar la hipótesis de unifromidad con un nivel cŕıtico próximo a 0.9. Podemos contrastar ahora si la posición de las cifras parece el resultado de haberlas elegido al azar, sin dependencia entre ellas. Para ello lo adecuado es el test de rachas: eligiendo 4.5 como promedio de las 10 cifras, se indican con un + o un - aquellos d́ıgitos que sean, respectivamente, menores o mayores que 4.5; se obtiene aśı 1 4 1 5 9 2 6 5 3 5 8 9 7 9 3 2 3 8 4 6 − − − + + − + + − + + + + + − − − + − + 2 6 4 3 3 8 3 2 7 9 5 0 2 8 8 4 1 9 7 1 − + − − − + − − + + + − − + + − − + + − 6 9 3 9 9 3 7 5 1 0 5 8 2 0 9 7 4 9 4 4 + + − + + − + + − − + + − − + + − + − − 5 9 2 3 0 7 8 1 6 4 0 6 2 8 6 2 0 8 9 9 + + − − − + + − + − − + − + + − − + + + 8 6 2 8 0 3 4 8 2 5 3 4 2 1 1 7 0 6 7 9 + + − + − − − + − + − − − − − + − + + + con n = 49 signos – y m = 51 signos + y un total de R = 54 rachas. Como n y m son grandes, para que la colocación de las cifras parezca hecha al azar, R tendŕıa que tener aproximadamente distribución N ( 2 · 49 · 51 100 + 1; √ 2 · 49 · 51 · (2 · 49 · 51− 49− 51) 990000 ) = N(50.98; 4.97) El nivel cŕıtico resulta 2P (R > 54) = 2P (Z > 0.61) = 0.5418 que no permite, en absoluto, afirmar que las cifras no están colocadas al azar. Otra posibilidad, en la misma dirección, es clasificar las cifras en pares e impares, tratando de detectar alguna regularidad en la colocación de unas y otras. Concretamente tenemos ahora la tabla: 250 Estad́ıstica 1 4 1 5 9 2 6 5 3 5 8 9 7 9 3 2 3 8 4 6 i p i i i p p i i i p i i i i p i p p p 2 6 4 3 3 8 3 2 7 9 5 0 2 8 8 4 1 9 7 1 p p p i i p i p i i i p p p p p i i i i 6 9 3 9 9 3 7 5 1 0 5 8 2 0 9 7 4 9 4 4 p i i i i i i i i p i p p p i i p i p p 5 9 2 3 0 7 8 1 6 4 0 6 2 8 6 2 0 8 9 9 i i p i p i p i p p p p p p p p p p i i 8 6 2 8 0 3 4 8 2 5 3 4 2 1 1 7 0 6 7 9 p p p p p i p p p i i p p i i i p p i i con n = 49 cifras impares, m = 51 pares y R = 43 rachas. La distribución aproximada de R es la misma normal anterior y el nivel cŕıtico resulta 2P (R > 43) = 2P (Z > −1.6) = 0.1096 que tampoco permite afirmar que las cifras no están situadas como si hubiesen sido elegidas al azar. 17 Regresión lineal simple Índice 17.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 17.2. Modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 17.3. Método de mı́nimos cuadrados . . . . . . . . . . . . . . . . . . 254 17.4. Propiedades de los estimadores de mı́nimos cuadrados . . . . 256 17.4.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . 256 17.4.2. Condiciones de normalidad . . . . . . . . . . . . . . . . . . . . 257 17.5. Varianza residual . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 17.6. Inferencias respecto a los parámetros . . . . . . . . . . . . . . 258 17.7. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 17.7.1. Estimación de la respuesta media . . . . . . . . . . . . . . . . . 259 17.7.2. Predicción de una observación . . . . . . . . . . . . . . . . . . . 260 17.8. Análisis de la varianza . . . . . . . . . . . . . . . . . . . . . . . 261 17.9. Coeficiente de correlación . . . . . . . . . . . . . . . . . . . . . 263 17.9.1. Inferencias sobre el coeficiente de correlación . . . . . . . . . . 264 17.10.Contraste de linealidad . . . . . . . . . . . . . . . . . . . . . . . 265 251 252 Estad́ıstica 17.1. Introducción En la práctica, con mucha frecuencia es necesario resolver problemas que implican conjuntos de variables, cuando se sabe que existe alguna relación inherente entre ellas. Por ejemplo, en un caso industrial, se puede saber que el contenido de alquitrán en el producto de salida de un proceso qúımico está relacionado con la temperatura con la que éste se lleva a cabo. Puede ser interesante desarrollar un método de predicción, esto es, un procedimiento para estimar el contenido de alquitrán para varios niveles de tempera- tura tomados de información experimental. El aspecto estad́ıstico del problema consiste entonces en lograr la mejor estimación de la relación entre las variables. Para este ejemplo y para la mayoŕıa de las aplicaciones, existe una clara distinción entre las variables en cuanto a su papel dentro del proceso experimental. Muy a menudo se tiene una sola variable dependiente o respuesta Y , que no se controla en el experimento. Esta respuesta depende de una o más variables independientes o de regresión, como son x1, x2, . . . , xk, las cuales se miden con un error despreciable y en realidad, en la mayoŕıa de los casos, se controlan en el experimento. Aśı, las variables independientes no son aleatorias y por tanto no tienen propiedades distribucionales. En el ejemplo citado anteriormente, la temperatura es la variable independiente o variable de regresión, x, y el contenido dealquitrán es la respuesta, Y . La relación fija para un conjunto de datos experimentales se caracteriza por una ecuación de predicción que recibe el nombre de ecuación de regresión. En el caso de una sola x, se habla de regresión simple. Para k variables independientes, se habla de regresión múltiple. En este curso se tratará el tema de la regresión lineal simple. Representamos una m.a.s. de tamaño n por el conjunto {(x1, y1), . . . , (xn, yn)}. Si se tomaran muestras adi- cionales utilizando exactamente los mismos valores de x, se debe esperar que los valores de y vaŕıen. De ah́ı que el valor yi en el par ordenado (xi, yi) sea un valor de la v.a. Y |xi. Por conveniencia se define Y |x como la v.a. Y correspondiente a un valor genérico x, y su media y su varianza se indican por µY |x y σ 2 Y |x, respectivamente; mientras que si x = xi, el śımbolo Yi representa la v.a. Y |xi con media µYi = µY |xi y varianza σ2Yi = σ2Y |xi. El término regresión lineal implica que µY |x está linealmente relacionado con x por la recta de regresión lineal poblacional µY |x = α+ βx donde los coeficientes de regresión α y β son parámetros que deben estimarse a partir de los datos muestrales. Si a y b representan estas estimaciones, respectivamente, se puede 17 Regresión lineal simple 253 Figura 17.1: Descripción del modelo de regresión lineal simple. entonces estimar µY |x por ŷ de la regresión muestral o recta de regresión ajustada o estimada ŷ = a+ bx El śımbolo ŷ se utiliza aqúı para distinguir entre el valor estimado que da la recta de regresión muestral y el valor experimental real observado, y, para algún valor de x. 17.2. Modelo lineal En el caso de una regresión lineal simple, donde hay una sola variable de regresión, x, y una sola v.a. dependiente, Y , los datos pueden representarse por los pares de observa- ciones {(x1, y1), . . . , (xn, yn)}. Es conveniente utilizar los conceptos de la sección anterior para definir cada v.a. Yi = Y |xi por medio de un modelo estad́ıstico. Si se postula que todas las medias µYi caen sobre una recta (Fig. 17.1), µYi = α + βxi i = 1, . . . , n (17.1) entonces cada Yi puede describirse por el modelo de regresión lineal simple Yi = µYi + Ei = α + βxi + Ei i = 1, . . . , n (17.2) 254 Estad́ıstica Figura 17.2: Descripción del error del modelo (εi) y del residuo (ei). donde el error aleatorio Ei, el error del modelo, debe tener media nula. Cada observación (xi, yi) de la muestra satisface la ecuación yi = α + βxi + εi (17.3) donde εi es el valor que asume la v.a. Ei cuando Yi toma el valor yi. La ecuación anterior puede considerarse como el modelo para una sola observación yi. De manera similar, al utilizar la recta de regresión lineal estimada ŷ = a+ bx cada par de observaciones satisface la relación yi = a + bxi + ei (17.4) donde ei = yi − ŷi se llama residuo y describe el error en el ajuste del modelo en el punto i de los datos. La diferencia entre ei y εi se muestra claramente en la figura 17.2. 17.3. Método de mı́nimos cuadrados El método se basa en encontrar las estimaciones a y b de α y β de tal forma que la suma de los cuadrados de los residuos sea mı́nima. Si notamos por SSE = ∑ e2i = ∑ (yi − ŷi)2 = ∑ (yi − a− bxi)2 17 Regresión lineal simple 255 Derivando respecto de a y b, e igualando a cero se tiene ∂(SSE) ∂a = −2∑(yi − a− bxi) = 0 (=⇒ ∑ ei = 0) ∂(SSE) ∂b = −2∑(yi − a− bxi)xi = 0 (=⇒ ∑ xiei = 0) (17.5) de donde na+ b ∑ xi = ∑ yi a ∑ xi + b ∑ x2i = ∑ xiyi que se pueden resolver para dar las expresiones de a y b b = n ∑ xiyi − ( ∑ xi) ( ∑ yi) n ∑ x2i − ( ∑ xi) 2 a = ∑ yi − b ∑ xi n (17.6) Para simplificar un poco, definimos x̄ = 1 n ∑ xi ȳ = 1 n ∑ yi Sxx = ∑ (xi − x̄)2 = ∑ x2i − 1 n ( ∑ xi) 2 = ∑ x2i − nx̄2 Syy = ∑ (yi − ȳ)2 = ∑ y2i − 1 n ( ∑ yi) 2 = ∑ y2i − nȳ2 Sxy = ∑ (xi − x̄)(yi − ȳ) = ∑ xiyi − 1 n ( ∑ xi) ( ∑ yi) = ∑ xiyi − nx̄ȳ Entonces, b = Sxy Sxx a = ȳ − bx̄ (17.7) Por tanto, la recta de regresión estimada se puede expresar como ŷ = ȳ + b(x− x̄) (17.8) 256 Estad́ıstica 17.4. Propiedades de los estimadores de mı́nimos cua- drados 17.4.1. Propiedades generales Además de la suposición de que el término de error del modelo, Ei, es una v.a. con media cero, supongamos que cada Ei tiene la misma varianza, σ 2 (homocedasticidad), y que E1, E2, . . . , En son independientes. Con estas hipótesis sobre las Ei podemos calcular la media y la varianza de los estimadores de α y β. Es importante recordar que los valores de a y b, obtenidos en base a una muestra dada de n observaciones, son solo estimaciones de los parámetros reales α y β. Si el experimento se repite varias veces, utilizando los mismos valores de x, es muy probable que las estimaciones resultantes de α y β difieran de un experimento a otro. Estas estimaciones diferentes pueden considerarse como valores asumidos por las v.a. A y B. Dado que los valores de x permanecen fijos, los valores de A y B dependen de las variaciones de los valores de y, o en forma más precisa, de los valores de las v.a. Y1, Y2, . . . , Yn. Las suposiciones distribucionales de las Ei implican que Y1, Y2, . . . , Yn tam- bién se distribuyen independientemente con medias µYi = α+ βxi y varianzas iguales σ 2; es decir, σ2Yi = σ 2 para i = 1, 2, . . . , n. Dado que el estimador B = n ∑ xiYi − ( ∑ xi) ( ∑ Yi) n ∑ x2i − ( ∑ xi) 2 = n ∑ xiYi − nx̄ ( ∑ Yi) n (∑ x2i − 1 n ( ∑ xi) 2 ) = ∑ (xi − x̄)Yi∑ (xi − x̄)2 es de la forma B = ∑ aiYi, donde ai = (xi − x̄)∑ (xi − x̄)2 i = 1, 2, . . . , n entonces, µB = E[B] = ∑ (xi − x̄)E[Yi]∑ (xi − x̄)2 = ∑ (xi − x̄)(α + βxi)∑ (xi − x̄)2 = = 1 Sxx [α ∑ xi + β ∑ x2i − nαx̄− βx̄ ∑ xi] = 1 Sxx β [ ∑ x2i − nx̄2] = β σ2B = Var(B) = ∑ (xi − x̄)2Var(Yi) ( ∑ (xi − x̄)2)2 = σ2 ∑ (xi − x̄)2 ( ∑ (xi − x̄)2)2 = σ2∑ (xi − x̄)2 = σ2 Sxx 17 Regresión lineal simple 257 Igualmente, el estimador A se puede expresar como A = ∑ Yi −B ∑ xi n = 1 n ∑ Yi − x̄ ∑ (xi − x̄)Yi∑ (xi − x̄)2 = ∑( 1 n − x̄(xi − x̄)∑ (xi − x̄)2 ) Yi es decir, A también es una combinación lineal de las v.a. independientes Yi, por tanto, operando, se llega fácilmente a µA = E[A] = ∑( 1 n − x̄(xi − x̄)∑ (xi − x̄)2 ) E[Yi] = α σ2A = Var(A) = ∑( 1 n − x̄(xi − x̄)∑ (xi − x̄)2 )2 Var(Yi) = σ 2 √∑ x2i nSxx Por tanto, sea cual sea la distribución de los errores del modelo, los estimadores mı́nimo cuadráticos, A y B, de los coeficientes de regresión α y β, son insesgados. Por la propia definición de los estimadores A y B, se deduce que no son indepen- dientes, siendo Cov(A,B) = E[(A− α)(B − β)] = − x̄σ 2 Sxx 17.4.2. Condiciones de normalidad Para conocer la forma de la distribución de los estimadores A y B, es necesario co- nocer previamente la distribución de los errores del modelo. Si a las hipótesis de indepen- dencia y homocedasticidad de los errores del modelo añadimos la hipótesis de normalidad, es decir, Ei ≡ N(0, σ) i = 1, . . . , n, entonces todas las v.a. involucradas hasta ahora: Yi, A, B, resultan ser combinaciones lineales de v.a. Normales e independientes, por tanto su distribución también será Normal. Aśı, Si Ei ≡ N(0, σ) i = 1, . . . , n =⇒ Yi ≡ N(µYi, σ) i = 1, . . . , n B ≡ N(β, σ/ √ Sxx ) A ≡ N ( α, σ √∑ x2i nSxx ) 17.5. Varianza residual Según lo expuesto anteriormente, la hipótesis de normalidad en los errores del modelo asegura la normalidad de los estimadores mı́nimo cuadráticos sin embargo, para tener 258 Estad́ıstica completamente especificadas sus distribuciones, es necesario tener una estimación de la varianza de los errores, σ2. Para ello, definimos la varianza residual como s2 = SSE n− 2 = ∑ e2i n− 2 = ∑ (yi − ŷi)2 n− 2 Veamos una forma más sencilla de expresar s2 SSE = ∑ (yi − ŷi)2 = ∑ (yi − a− bxi)2 = = ∑ (yi − (ȳ − bx̄)− bxi)2 = ∑ ((yi − ȳ)− b(xi − x̄))2 = = ∑(yi − ȳ)2 + b2 ∑ (xi − x̄)2 − 2b ∑ (yi − ȳ)(xi − x̄) = = Syy + b 2Sxx − 2bSxy = Syy + bSxy − 2bSxy = Syy − bSxy Por tanto, s2 = ∑ (yi − ŷi)2 n− 2 = Syy − bSxy n− 2 (17.9) y, como es habitual en la varianzas que proceden de distribuciones normales, la varianza residual sigue una distribución del tipo Chi-cuadrado. En particular, (n− 2)s2 σ2 ≡ χ2n−2 (17.10) Por tanto, la varianza residual es una estimación insesgada de la varianza de los errores del modelo. 17.6. Inferencias respecto a los parámetros Una vez estimada la varianza de los errores, y recordando que mantenemos las hipótesis de normalidad de los mismos, podemos construir los estad́ısticos adecuados para realizar inferencias respecto a los parámetros de regresión. Aśı, B ≡ N(β, σ/ √ Sxx ) (n− 2)s2 σ2 ≡ χ2n−2 =⇒ B − β σ/ √ Sxx√ (n− 2)s2 (n− 2)σ2 = B − β s/ √ Sxx ≡ tn−2 (17.11) A ≡ N ( α, σ √∑ x2i nSxx ) (n− 2)s2 σ2 ≡ χ2n−2 =⇒ A− α σ √∑ x2i nSxx√ (n− 2)s2 (n− 2)σ2 = A− α s √∑ x2i nSxx ≡ tn−2 (17.12) 17 Regresión lineal simple 259 Por tanto, un intervalo de confianza del (1− α)100% para la pendiente de la recta de regresión poblacional, β, es b− tα/2 s√ Sxx < β < b+ tα/2 s√ Sxx y, un intervalo de confianza del (1− α)100% para la ordenada en el origen de la recta de regresión poblacional, α, es a− tα/2s √∑ x2i nSxx < α < a+ tα/2s √∑ x2i nSxx 17.7. Predicción Un modelo de regresión, fijado un valor particular de la variable independiente (xp), permite en primer lugar, estimar el valor medio de la respuesta (µYp); y en segundo lugar, prever futuros valores de la variable respuesta (yp). Tanto la estimación de la media, como la predicción de un valor de la variable dependiente, se obtienen sustituyendo en la recta de regresión estimada. Es decir, µYp ≃ ŷp = a + bxp yp ≃ ŷp = a+ bxp sin embargo, la precisión de estas estimaciones es distinta, como veremos en las siguientes secciones. 17.7.1. Estimación de la respuesta media Utilizando la notación habitual para v.a. Ŷp = A+Bxp entonces E[Ŷp] = E[A+Bxp] = E[A] + E[B]xp = α + βxp = µYp Var(Ŷp) = Var(A+Bxp) = Var((Ȳ −Bx̄) +Bxp) = Var(Ȳ +B(xp − x̄)) = = Var(Ȳ ) + (xp − x̄)2Var(B) = σ2 n + (xp − x̄)2 σ2 Sxx = σ2 ( 1 n + (xp − x̄)2 Sxx ) 260 Estad́ıstica donde hemos utilizado el hecho de que las variables Ȳ y B son independientes. Entonces, Ŷp ≡ N ( µYp, σ √ 1 n + (xp − x̄)2 Sxx ) (n− 2)s2 σ2 ≡ χ2n−2 =⇒ Ŷp − µYp s √ 1 n + (xp − x̄)2 Sxx ≡ tn−2 Por tanto, un intervalo de confianza del (1− α)100% para la respuesta media, µYp, es ŷp − tα/2s √ 1 n + (xp − x̄)2 Sxx < µYp < ŷp + tα/2s √ 1 n + (xp − x̄)2 Sxx 17.7.2. Predicción de una observación En este caso, utilizamos la v.a. Ŷp − Yp E[Ŷp − Yp] = E[Ŷp]− E[Yp] = µYp − µYp = 0 Var(Ŷp − Yp) = Var(Ŷp) + Var(Yp) = σ2 ( 1 n + (xp − x̄)2 Sxx ) + σ2 = = σ2 ( 1 + 1 n + (xp − x̄)2 Sxx ) Entonces Ŷp − Yp ≡ N ( 0, σ √ 1 + 1 n + (xp − x̄)2 Sxx ) (n− 2)s2 σ2 ≡ χ2n−2 =⇒ Ŷp − Yp s √ 1 + 1 n + (xp − x̄)2 Sxx ≡ tn−2 y, un intervalo de confianza del (1− α)100% para una predicción, yp, es ŷp − tα/2s √ 1 + 1 n + (xp − x̄)2 Sxx < yp < ŷp + tα/2s √ 1 + 1 n + (xp − x̄)2 Sxx 17 Regresión lineal simple 261 17.8. Análisis de la varianza El contraste más importante en regresión se refiere a la pendiente de la recta de regresión poblacional, y se plantea de la forma H0 : β = 0 H1 : β 6= 0 Aunque en la sección 17.6 hemos dado un estad́ıstico válido para este contraste (Eq. 17.11), en este apartado vamos a estudiarlo desde otro punto de vista. Si la pendiente de la verdadera recta de regresión es distinta de cero, entonces las desviaciones de los datos, yi, respecto a su valor medio, ȳ, se pueden descomponer en dos partes (Fig. 17.3(a)): una, el residuo, es decir (yi − ŷi); y otra, la diferencia entre el valor predicho por la recta de regresión estimada y el valor medio de los datos, es decir, (ŷi− ȳ). Sin embargo, si la verdadera pendiente de la recta de regresión es nula (Fig. 17.3(b)), entonces todos los valores predichos verifican ŷi = ȳ, por lo que la segunda componente es nula. El residuo representa las fluctuaciones aleatorias dentro del rango probable de va- lores que puede asumir la v.a. Yi, mientras que la segunda componente representa las fluctuaciones intŕınsecas debidas a la relación lineal que verifican las v.a. Yi; aśı, cuanto más nos alejamos de la zona central, (x̄, ȳ), más grandes deben ser estas fluctuaciones. De esta forma, la variación total se puede expresar como ∑ (yi − ȳ)2 = ∑ [(yi − ŷi) + (ŷi − ȳ)]2 = = ∑ (yi − ŷi)2 + ∑ (ŷi − ȳ)2 + 2 ∑ (yi − ŷi)(ŷi − ȳ) = = ∑ (yi − ŷi)2 + ∑ (ŷi − ȳ)2 donde hemos utilizado el hecho de que (Eq. 17.5) ∑ ŷi(yi − ŷi) = ∑ (a+ bxi)ei = a ∑ ei + b ∑ xiei = 0∑ ȳ(yi − ŷi) = ȳ ∑ ei = 0 En resumen, la variación total ∑ (yi − ȳ)2 = ∑ (yi − ŷi)2 + ∑ (ŷi − ȳ)2 (17.13) se descompone en dos términos independientes: el primero refleja la variabilidad no ex- plicada por la regresión, que es debida al carácter aleatorio de la relación; y el segundo contiene la variabilidad explicada por la regresión, y puede interpretarse como la parte determinista de la variabilidad de la respuesta. LLamaremos 262 Estad́ıstica Figura 17.3: Descomposición de la varianza para el caso de (a) pendiente no nula; y (b) pendiente nula. SST = ∑ (yi − ȳ)2 = Syy = Suma Total de los Cuadrados SSE = ∑ (yi − ŷi)2 = Syy − bSxy = Suma de los Cuadrados de los Errores 17 Regresión lineal simple 263 Fuente Suma Grados Cuadrados Estad́ıstico Valor-P Error Cuadrados Libertad Medios Regresión SSR 1 SSR/1 f = SSR/s2 P (F1,n−2 ≥ f) Error SSE n− 2 SSE/(n− 2) Total SST n− 1 Figura 17.4: Tabla ANOVA SSR = ∑ (ŷi − ȳ)2 = bSxy = Suma de los Cuadrados de Regresión Se puede demostrar que, si la hipótesis nula es cierta es decir, si β = 0, entonces SSR/σ2 ≡ χ21 y SST/σ2 ≡ χ2n−1 Por tanto, SSR/1 SSE/(n− 2) = SSR s2 ≡ F1,n−2 (17.14) Este estad́ıstico se puede utilizar como alternativa al estad́ıstico dado en (Eq. 17.11) para realizar el contraste regresión. Si su valor, f , es pequeño, significa que SSE es muy grande comparado con el valor de SSR es decir, la mayor parte de la variabilidad observada es puramente aleatoria, y la componente explicada por el modelo (la recta propuesta) tiene muy poca influencia, por tanto no se rechaza H0. Por otra parte, si f es grande, significa que SSR es muy grande comparado con SSE es decir, la mayor parte de la variabilidad observada se debe a la existencia de una recta de regresión con pendiente no nula, por tanto se rechaza H0. De hecho, se cumple f = ( b− β s/ √ Sxx ∣∣∣∣ β=0 )2 = t2 La forma habitual de presentar todos los datos vistos en esta sección es en la llamada tabla ANOVA (del inglés, ANalysis Of VAriance), que se muestra en la figura 17.4. 17.9. Coeficiente de correlación La evaluación global de una recta de regresión puede hacerse mediante la varianza residual, que es un ı́ndice de la precisión del modelo. Sin embargo, esta medida no es útil 264 Estad́ıstica para comparar rectas de regresión de variables distintas, ya que depende de las unidades de medida. Una medida más adecuada de la bondad del ajuste es el llamado coeficiente de determinación del modelo, definido como la proporción de la variabilidad total explicada por el modelo propuesto R2 = SSR SST = ∑ (ŷi − ȳ)2∑ (yi − ȳ)2 Para el caso particular del modelo lineal, r2 = b Sxy Syy = S2xy SxxSyy (17.15) y, el coeficiente de correlación lineal de la muestra es r = Sxy√ SxxSyy (17.16) que representa una estimación del coeficiente de correlación lineal de la población ρ = Cov(X, Y )√ Var(X) Var(Y ) Sea cual sea el modelo propuesto, siempre se cumple que 0 ≤ R2 ≤ 1. En particular, • 0 ≤ r2 ≤ 1 (−1 ≤ r ≤ 1) • Si r2 = 1, existe una relación lineal perfecta entre las variablesX e Y (Si r = 1 la relación es positiva, es decir, la pendiente de la recta es positiva. Si r = −1 la relación es negativa, es decir, la pendiente de la recta es negativa). En consecuencia, las variables son dependientes. • Si r2 = 0 (r = 0), no existe relación lineal entre las variables X e Y . De forma general, esto no implica que las variables sean independientes, ya que podŕıa existir una relación no lineal entre ellas. 17.9.1. Inferencias sobre el coeficiente de correlación El contraste H0 : ρ = 0 es equivalente al ya estudiado H0 : β = 0, y se puede realizar con el estad́ıstico r √ n− 2√ 1− r2 ≡ tn−2 (17.17) ya que se cumple r √ n− 2√ 1− r2 = ( b− β s/ √ Sxx ∣∣∣∣ β=0 )2 = t2 17 Regresión lineal simple 265 Para realizar el contraste general H0 : ρ = ρ0 6= 0, es necesario que la población, es decir, la v.a. (X, Y ), siga una distribución Normal Bidimensional. En ese caso, se utiliza el estad́ıstico 1 2 Ln 1 + r 1− r ∼= N ( 1 2 Ln 1 + ρ 1− ρ, 1√ n− 3 ) (17.18) 17.10. Contraste de linealidad Hasta ahora, hemos supuesto que realmente existe una recta de regresión que ajusta perfectamente los datos, es decir, las medias de las v.a. Yi se encuentran sobre una recta µYi = α + βxi i = 1, . . . , n que hemos estimado por ŷi = a+ bxi i = 1, . . . , n Por tanto, la primera pregunta debeŕıa haber sido ¿es cierta esa afirmación? El contraste de linealidad está diseñado para responder a esta cuestión. Cuando las medias de las v.a. Yi no se encuentran sobre una recta (Fig. 17.5) pero casi, este “casi” es la llamada componente de falta de ajuste, y el contraste de linealidad cuantifica este desajuste para contrastar la hipótesis de linealidad del modelo. Para realizar el contraste, es necesario disponer de varios valores de y para algunos o todos los valores de x. LLamaremos xi (i = 1, . . . , d) a los valores distintos que toma la variable x. Para cada valor de xi existirán observaciones yij (j = 1, . . . , ni), de forma que n = n1 + · · ·+ nd (Fig. 17.6) La lógica del contraste puede entenderse suponiendo que representamos gráficamente las medias de las distribuciones condicionadas, ȳi. Nos encontraremos con alguna de las situaciones que muestra la figura 17.7: el gráfico 17.7 (a) sugiere que probablemente la hipótesis de linealidad es cierta, ya que las medias ȳi parecen tener una relación lineal; en 17.7 (b) se detecta una relación claramente no lineal; y en 17.7 (c) no está clara la existencia de relación. El contraste de linealidad compara las medias muestrales estimadas directamente de los datos observacionales, ȳi, con las medias muestrales estimadas bajo la hipótesis de linealidad, ŷi. Intuitivamente, si medimos la discrepancia entre ambas estimaciones con∑ ni(ȳi − ŷi)2, tenderemos a rechazar la hipótesis de linealidad si esta discrepancia es grande, y a no rechazarla cuando es pequeña. Para cuantificar el tamaño de esta discre- pancia, se compara con una medida de la variabilidad muestral cuyo valor esperado no 266 Estad́ıstica Figura 17.5: Descripción del modelo de regresión lineal simple con componente de falta de ajuste. depende de la hipótesis que estamos contrastando. Un término razonable de comparación es ∑∑ (yij − ȳi)2, que mide la variabilidad inherente a los datos, sin depender de la hipótesis de linealidad. Vamos a aclarar estos conceptos con la figura 17.8. La ausencia de una relación lineal perfecta permite descomponer los residuos, eij = yij − ŷi, en suma de dos componentes: una, (yij − ȳi), debida a la fluctuación aleatoria dentro del rango probable de valores que puede asumir la v.a. Yi para cada valor fijo xi; y otra,(ȳi − ŷi), que contiene los errores debidos a la falta de ajuste ya que, al fin y al cabo, las medias no están sobre una recta por lo que la recta estimada no puede contener a las medias estimadas. Si la relación lineal es perfecta, entonces ȳi = ŷi (i = 1, . . . , d) y la segunda componente es nula, por lo que la varianza residual es una estimación insesgada de la varianza de los errores del modelo (como vimos en la sección 17.5) pero, si la relación lineal no es perfecta, la segunda componente es distinta de cero, por lo que la varianza residual pasa a ser una estimación sesgada de σ2 al contener un término de falta de ajuste que no tiene nada que ver con el error del modelo. 17 Regresión lineal simple 267 observaciones x1 y11 y12 · · · y1j · · · y1n1 ȳ1 = 1 n1 n1∑ j=1 y1j x2 y21 y22 · · · y2j · · · y2n2 ȳ2 = 1 n2 n2∑ j=1 y2j ... ... ... ... ... ... ... ... xi yi1 yi2 · · · yij · · · yini ȳi = 1 ni ni∑ j=1 yij ... ... ... ... ... ... ... ... xd yd1 yd2 · · · ydj · · · ydnd ȳd = 1 nd nd∑ j=1 ydj x̄ = 1 n d∑ i=1 nixi ȳ = 1 n d∑ i=1 ni∑ j=1 yij = 1 n d∑ i=1 niȳi Figura 17.6: Tabla de datos para realizar el contraste de linealidad La descomposición de la suma de los cuadrados de los residuos es sencilla pues, SSE = d∑ i=1 ni∑ j=1 e2ij = d∑ i=1 ni∑ j=1 (yij − ŷi)2 = d∑ i=1 ni∑ j=1 [(yij − ȳi) + (ȳi − ŷi)]2 = = d∑ i=1 ni∑ j=1 (yij − ȳi)2 + d∑ i=1 ni∑ j=1 (ȳi − ŷi)2 + 2 d∑ i=1 ni∑ j=1 (yij − ȳi)(ȳi − ŷi) = = d∑ i=1 ni∑ j=1 (yij − ȳi)2 + d∑ i=1 ni(ȳi − ŷi)2 + 2 d∑ i=1 (ȳi − ŷi) [ ni∑ j=1 (yij − ȳi) ] = = d∑ i=1 ni∑ j=1 (yij − ȳi)2 + d∑ i=1 ni(ȳi − ŷi)2 268 Estad́ıstica Figura 17.7: Medias condicionadas y la recta de regresión. donde hemos utilizado el hecho de que ni∑ j=1 (yij − ȳi) = 0. En resumen, la suma de los cuadrados de los residuos d∑ i=1 ni∑ j=1 (yij − ŷi)2 = d∑ i=1 ni∑ j=1 (yij − ȳi)2 + d∑ i=1 ni(ȳi − ŷi)2 (17.19) se descompone en dos términos independientes: el primero refleja la fluctuaciones aleato- rias de cada observación en torno a su valor medio; y el segundo refleja la ausencia de una relación lineal perfecta en la medias de las v.a. Yi. LLamaremos SSE = d∑ i=1 ni∑ j=1 (yij − ŷi)2 = Suma de los Cuadrados de los Residuos 17 Regresión lineal simple 269 Figura 17.8: Descomposición del residuo (eij) cuando existe componente de falta de ajuste. SSE(p) = d∑ i=1 ni∑ j=1 (yij − ȳi)2 = Error Puro SSE(a) = d∑ i=1 ni(ȳi − ŷi)2 = Error por Falta de Ajuste Se puede demostrar que, si la hipótesis de linealidad es cierta, entonces SSE(p)/σ2 ≡ χ2n−d y SSE(a)/σ2 ≡ χ2d−2 Por tanto, SSE(p)/(n − d) es una estimación insesgada de la varianza, σ2, de los errores del modelo, y el estad́ıstico SSE(a)/(d− 2) SSE(p)/(n− d) ≡ Fd−2,n−d (17.20) representa el cociente entre la variación debida a la falta de ajuste y la variación debida a causas puramente aleatorias. Aśı, este estad́ıstico nos sirve para contrastar la hipótesis de linealidad. Si su valor, f , es grande, significa que la mayor parte del error procede de la componente de falta de ajuste, por lo que deberemos rechazar la hipótesis de relación lineal perfecta. Por el contrario, si f es pequeño, significa que la mayor parte del error es puramente aleatorio y no rechazaremos la hipótesis de relación lineal perfecta. 270 Estad́ıstica La forma habitual de presentar todos los datos vistos en esta sección es en la tabla ANOVA completa, que se muestra en la figura 17.9 Fuente Suma Grados Cuadrados Estad́ıstico Valor-P Error Cuadrados Libertad Medios Regresión SSR 1 SSR/1 f = SSR/1 SSE/(n− 2) P (F1,n−2 ≥ f) Error SSE n− 2 SSE/(n− 2) Ajuste SSE(a) d− 2 SSE(a)/(d− 2) f = SSE(a)/(d− 2) SSE(p)/(n− d) P (Fd−2,n−d ≥ f) Puro SSE(p) n− d SSE(p)/(n− d) Total SST n− 1 Figura 17.9: Tabla ANOVA completa A Tablas estad́ısticas 271 Tabla A.1: Distribución Binomial. P (B(n, p) ≤ x) = x∑ k=0 ( n k ) pk(1− p)n−k p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 1 0 .9000 .8000 .7500 .7000 .6000 .5000 .4000 .3000 .2000 .1000 1 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 2 0 .8100 .6400 .5625 .4900 .3600 .2500 .1600 .0900 .0400 .0100 1 .9900 .9600 .9375 .9100 .8400 .7500.6400 .5100 .3600 .1900 2 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 3 0 .7290 .5120 .4219 .3430 .2160 .1250 .0640 .0270 .0080 .0010 1 .9720 .8960 .8438 .7840 .6480 .5000 .3520 .2160 .1040 .0280 2 .9990 .9920 .9844 .9730 .9360 .8750 .7840 .6570 .4880 .2710 3 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 4 0 .6561 .4096 .3164 .2401 .1296 .0625 .0256 .0081 .0016 .0001 1 .9477 .8192 .7383 .6517 .4752 .3125 .1792 .0837 .0272 .0037 2 .9963 .9728 .9492 .9163 .8208 .6875 .5248 .3483 .1808 .0523 3 .9999 .9984 .9961 .9919 .9744 .9375 .8704 .7599 .5904 .3439 4 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 5 0 .5905 .3277 .2373 .1681 .0778 .0312 .0102 .0024 .0003 .0000 1 .9185 .7373 .6328 .5282 .3370 .1875 .0870 .0308 .0067 .0005 2 .9914 .9421 .8965 .8369 .6826 .5000 .3174 .1631 .0579 .0086 3 .9995 .9933 .9844 .9692 .9130 .8125 .6630 .4718 .2627 .0815 4 1.0000 .9997 .9990 .9976 .9898 .9688 .9222 .8319 .6723 .4095 5 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 6 0 .5314 .2621 .1780 .1176 .0467 .0156 .0041 .0007 .0001 .0000 1 .8857 .6554 .5339 .4202 .2333 .1094 .0410 .0109 .0016 .0001 2 .9841 .9011 .8306 .7443 .5443 .3438 .1792 .0705 .0170 .0013 3 .9987 .9830 .9624 .9295 .8208 .6562 .4557 .2557 .0989 .0159 4 .9999 .9984 .9954 .9891 .9590 .8906 .7667 .5798 .3446 .1143 5 1.0000 .9999 .9998 .9993 .9959 .9844 .9533 .8824 .7379 .4686 6 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 272 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 7 0 .4783 .2097 .1335 .0824 .0280 .0078 .0016 .0002 .0000 .0000 1 .8503 .5767 .4449 .3294 .1586 .0625 .0188 .0038 .0004 .0000 2 .9743 .8520 .7564 .6471 .4199 .2266 .0963 .0288 .0047 .0002 3 .9973 .9667 .9294 .8740 .7102 .5000 .2898 .1260 .0333 .0027 4 .9998 .9953 .9871 .9712 .9037 .7734 .5801 .3529 .1480 .0257 5 1.0000 .9996 .9987 .9962 .9812 .9375 .8414 .6706 .4233 .1497 6 1.0000 .9999 .9998 .9984 .9922 .9720 .9176 .7903 .5217 7 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 8 0 .4305 .1678 .1001 .0576 .0168 .0039 .0007 .0001 .0000 .0000 1 .8131 .5033 .3671 .2553 .1064 .0352 .0085 .0013 .0001 .0000 2 .9619 .7969 .6785 .5518 .3154 .1445 .0498 .0113 .0012 .0000 3 .9950 .9437 .8862 .8059 .5941 .3633 .1737 .0580 .0104 .0004 4 .9996 .9896 .9727 .9420 .8263 .6367 .4059 .1941 .0563 .0050 5 1.0000 .9988 .9958 .9887 .9502 .8555 .6846 .4482 .2031 .0381 6 .9999 .9996 .9987 .9915 .9648 .8936 .7447 .4967 .1869 7 1.0000 1.0000 .9999 .9993 .9961 .9832 .9424 .8322 .5695 8 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 9 0 .3874 .1342 .0751 .0404 .0101 .0020 .0003 .0000 .0000 .0000 1 .7748 .4362 .3003 .1960 .0705 .0195 .0038 .0004 .0000 .0000 2 .9470 .7382 .6007 .4628 .2318 .0898 .0250 .0043 .0003 .0000 3 .9917 .9144 .8343 .7297 .4826 .2539 .0994 .0253 .0031 .0001 4 .9991 .9804 .9511 .9012 .7334 .5000 .2666 .0988 .0196 .0009 5 .9999 .9969 .9900 .9747 .9006 .7461 .5174 .2703 .0856 .0083 6 1.0000 .9997 .9987 .9957 .9750 .9102 .7682 .5372 .2618 .0530 7 1.0000 .9999 .9996 .9962 .9805 .9295 .8040 .5638 .2252 8 1.0000 1.0000 .9997 .9980 .9899 .9596 .8658 .6126 9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 273 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 10 0 .3487 .1074 .0563 .0282 .0060 .0010 .0001 .0000 .0000 .0000 1 .7361 .3758 .2440 .1493 .0464 .0107 .0017 .0001 .0000 .0000 2 .9298 .6778 .5256 .3828 .1673 .0547 .0123 .0016 .0001 .0000 3 .9872 .8791 .7759 .6496 .3823 .1719 .0548 .0106 .0009 .0000 4 .9984 .9672 .9219 .8497 .6331 .3770 .1662 .0473 .0064 .0001 5 .9999 .9936 .9803 .9527 .8338 .6230 .3669 .1503 .0328 .0016 6 1.0000 .9991 .9965 .9894 .9452 .8281 .6177 .3504 .1209 .0128 7 .9999 .9996 .9984 .9877 .9453 .8327 .6172 .3222 .0702 8 1.0000 1.0000 .9999 .9983 .9893 .9536 .8507 .6242 .2639 9 1.0000 .9999 .9990 .9940 .9718 .8926 .6513 10 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 11 0 .3138 .0859 .0422 .0198 .0036 .0005 .0000 .0000 .0000 .0000 1 .6974 .3221 .1971 .1130 .0302 .0059 .0007 .0000 .0000 .0000 2 .9104 .6174 .4552 .3127 .1189 .0327 .0059 .0006 .0000 .0000 3 .9815 .8389 .7133 .5696 .2963 .1133 .0293 .0043 .0002 .0000 4 .9972 .9496 .8854 .7897 .5328 .2744 .0994 .0216 .0020 .0000 5 .9997 .9883 .9657 .9218 .7535 .5000 .2465 .0782 .0117 .0003 6 1.0000 .9980 .9924 .9784 .9006 .7256 .4672 .2103 .0504 .0028 7 .9998 .9988 .9957 .9707 .8867 .7037 .4304 .1611 .0185 8 1.0000 .9999 .9994 .9941 .9673 .8811 .6873 .3826 .0896 9 1.0000 1.0000 .9993 .9941 .9698 .8870 .6779 .3026 10 1.0000 .9995 .9964 .9802 .9141 .6862 11 1.0000 1.0000 1.0000 1.0000 1.0000 274 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 12 0 .2824 .0687 .0317 .0138 .0022 .0002 .0000 .0000 .0000 .0000 1 .6590 .2749 .1584 .0850 .0196 .0032 .0003 .0000 .0000 .0000 2 .8891 .5583 .3907 .2528 .0834 .0193 .0028 .0002 .0000 .0000 3 .9744 .7946 .6488 .4925 .2253 .0730 .0153 .0017 .0001 .0000 4 .9957 .9274 .8424 .7237 .4382 .1938 .0573 .0095 .0006 .0000 5 .9995 .9806 .9456 .8822 .6652 .3872 .1582 .0386 .0039 .0001 6 .9999 .9961 .9857 .9614 .8418 .6128 .3348 .1178 .0194 .0005 7 1.0000 .9994 .9972 .9905 .9427 .8062 .5618 .2763 .0726 .0043 8 .9999 .9996 .9983 .9847 .9270 .7747 .5075 .2054 .0256 9 1.0000 1.0000 .9998 .9972 .9807 .9166 .7472 .4417 .1109 10 1.0000 .9997 .9968 .9804 .9150 .7251 .3410 11 1.0000 .9998 .9978 .9862 .9313 .7176 12 1.0000 1.0000 1.0000 1.0000 1.0000 13 0 .2542 .0550 .0238 .0097 .0013 .0001 .0000 .0000 .0000 .0000 1 .6213 .2336 .1267 .0637 .0126 .0017 .0001 .0000 .0000 .0000 2 .8661 .5017 .3326 .2025 .0579 .0112 .0013 .0001 .0000 .0000 3 .9658 .7473 .5843 .4206 .1686 .0461 .0078 .0007 .0000 .0000 4 .9935 .9009 .7940 .6543 .3530 .1334 .0321 .0040 .0002 .0000 5 .9991 .9700 .9198 .8346 .5744 .2905 .0977 .0182 .0012 .0000 6 .9999 .9930 .9757 .9376 .7712 .5000 .2288 .0624 .0070 .0001 7 1.0000 .9988 .9944 .9818 .9023 .7095 .4256 .1654 .0300 .0009 8 .9998 .9990 .9960 .9679 .8666 .6470 .3457 .0991 .0065 9 1.0000 .9999 .9993 .9922 .9539 .8314 .5794 .2527 .0342 10 1.0000 .9999 .9987 .9888 .9421 .7975 .4983 .1339 11 1.0000 .9999 .9983 .9874 .9363 .7664 .3787 12 1.0000 .9999 .9987 .9903 .9450 .7458 13 1.0000 1.0000 1.0000 1.0000 1.0000 275 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 14 0 .2288 .0440 .0178 .0068 .0008 .0001 .0000 .0000 .0000 .0000 1 .5846 .1979 .1010 .0475 .0081 .0009 .0001 .0000 .0000 .0000 2 .8416 .4481 .2811 .1608 .0398 .0065 .0006 .0000 .0000 .0000 3 .9559 .6982 .5213 .3552 .1243 .0287 .0039 .0002 .0000 .0000 4 .9908 .8702 .7415 .5842 .2793 .0898 .0175 .0017 .0000 .0000 5 .9985 .9561 .8883 .7805 .4859 .2120 .0583 .0083 .0004 .0000 6 .9998 .9884 .9617 .9067 .6925 .3953 .1501 .0315 .0024 .0000 7 1.0000 .9976 .9897 .9685 .8499 .6047 .3075 .0933 .0116 .0002 8 .9996 .9978 .9917 .9417 .7880 .5141 .2195 .0439 .0015 9 1.0000 .9997 .9983 .9825 .9102 .7207 .4158 .1298 .0092 10 1.0000 .9998 .9961 .9713 .8757 .6448 .3018 .0441 11 1.0000 .9994 .9935 .9602 .8392 .5519 .1584 12 1.0000 .9999 .9991 .9919 .9525 .8021 .4154 13 1.0000 .9999 .9992 .9932 .9560 .7712 14 1.0000 1.0000 1.0000 1.0000 1.0000 15 0 .2059 .0352 .0134 .0047 .0005 .0000 .0000 .0000 .0000 .0000 1 .5490 .1671 .0802 .0353 .0052 .0005 .0000 .0000 .0000 .0000 2 .8159 .3980 .2361 .1268 .0271 .0037 .0003 .0000 .0000 .0000 3 .9444 .6482 .4613 .2969 .0905 .0176 .0019 .0001 .0000 .0000 4 .9873 .8358 .6865 .5155 .2173 .0592 .0093 .0007 .0000 .0000 5 .9977 .9389 .8516 .7216 .4032 .1509 .0338 .0037 .0001 .0000 6 .9997 .9819 .9434 .8689 .6098 .3036 .0950 .0152 .0008 .0000 7 1.0000 .9958 .9827 .9500 .7869 .5000 .2131 .0500 .0042 .0000 8 .9992 .9958 .9848 .9050 .6964 .3902 .1311 .0181 .0003 9 .9999 .9992 .9963 .9662 .8491 .5968 .2784 .0611 .0022 10 1.0000 .9999 .9993 .9907 .9408 .7827 .4845 .1642 .0127 11 1.0000 .9999 .9981 .9824.9095 .7031 .3518 .0556 12 1.0000 .9997 .9963 .9729 .8732 .6020 .1841 13 1.0000 .9995 .9948 .9647 .8329 .4510 14 1.0000 .9995 .9953 .9648 .7941 15 1.0000 1.0000 1.0000 1.0000 276 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 16 0 .1853 .0281 .0100 .0033 .0003 .0000 .0000 .0000 .0000 .0000 1 .5147 .1407 .0635 .0261 .0033 .0003 .0000 .0000 .0000 .0000 2 .7892 .3518 .1971 .0994 .0183 .0021 .0001 .0000 .0000 .0000 3 .9316 .5981 .4050 .2459 .0651 .0106 .0009 .0000 .0000 .0000 4 .9830 .7982 .6302 .4499 .1666 .0384 .0049 .0003 .0000 .0000 5 .9967 .9183 .8103 .6598 .3288 .1051 .0191 .0016 .0000 .0000 6 .9995 .9733 .9204 .8247 .5272 .2272 .0583 .0071 .0002 .0000 7 .9999 .9930 .9729 .9256 .7161 .4018 .1423 .0257 .0015 .0000 8 1.0000 .9985 .9925 .9743 .8577 .5982 .2839 .0744 .0070 .0001 9 .9998 .9984 .9929 .9417 .7728 .4728 .1753 .0267 .0005 10 1.0000 .9997 .9984 .9809 .8949 .6712 .3402 .0817 .0033 11 1.0000 .9997 .9951 .9616 .8334 .5501 .2018 .0170 12 1.0000 .9991 .9894 .9349 .7541 .4019 .0684 13 1.0000 .9999 .9979 .9817 .9006 .6482 .2108 14 1.0000 .9997 .9967 .9739 .8593 .4853 15 1.0000 .9997 .9967 .9719 .8147 16 1.0000 1.0000 1.0000 1.0000 17 0 .1668 .0225 .0075 .0023 .0002 .0000 .0000 .0000 .0000 .0000 1 .4818 .1182 .0501 .0193 .0021 .0001 .0000 .0000 .0000 .0000 2 .7618 .3096 .1637 .0774 .0123 .0012 .0001 .0000 .0000 .0000 3 .9174 .5489 .3530 .2019 .0464 .0064 .0005 .0000 .0000 .0000 4 .9779 .7582 .5739 .3887 .1260 .0245 .0025 .0001 .0000 .0000 5 .9953 .8943 .7653 .5968 .2639 .0717 .0106 .0007 .0000 .0000 6 .9992 .9623 .8929 .7752 .4478 .1662 .0348 .0032 .0001 .0000 7 .9999 .9891 .9598 .8954 .6405 .3145 .0919 .0127 .0005 .0000 8 1.0000 .9974 .9876 .9597 .8011 .5000 .1989 .0403 .0026 .0000 9 .9995 .9969 .9873 .9081 .6855 .3595 .1046 .0109 .0001 10 .9999 .9994 .9968 .9652 .8338 .5522 .2248 .0377 .0008 11 1.0000 .9999 .9993 .9894 .9283 .7361 .4032 .1057 .0047 12 1.0000 .9999 .9975 .9755 .8740 .6113 .2418 .0221 13 1.0000 .9995 .9936 .9536 .7981 .4511 .0826 14 .9999 .9988 .9877 .9226 .6904 .2382 15 1.0000 .9999 .9979 .9807 .8818 .5182 16 1.0000 .9998 .9977 .9775 .8332 17 1.0000 1.0000 1.0000 1.0000 277 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 18 0 .1501 .0180 .0056 .0016 .0001 .0000 .0000 .0000 .0000 .0000 1 .4503 .0991 .0395 .0142 .0013 .0001 .0000 .0000 .0000 .0000 2 .7338 .2713 .1353 .0600 .0082 .0007 .0000 .0000 .0000 .0000 3 .9018 .5010 .3057 .1646 .0328 .0038 .0002 .0000 .0000 .0000 4 .9718 .7164 .5187 .3327 .0942 .0154 .0013 .0000 .0000 .0000 5 .9936 .8671 .7175 .5344 .2088 .0481 .0058 .0003 .0000 .0000 6 .9988 .9487 .8610 .7217 .3743 .1189 .0203 .0014 .0000 .0000 7 .9998 .9837 .9431 .8593 .5634 .2403 .0576 .0061 .0002 .0000 8 1.0000 .9957 .9807 .9404 .7368 .4073 .1347 .0210 .0009 .0000 9 .9991 .9946 .9790 .8653 .5927 .2632 .0596 .0043 .0000 10 .9998 .9988 .9939 .9424 .7597 .4366 .1407 .0163 .0002 11 1.0000 .9998 .9986 .9797 .8811 .6257 .2783 .0513 .0012 12 1.0000 .9997 .9942 .9519 .7912 .4656 .1329 .0064 13 1.0000 .9987 .9846 .9058 .6673 .2836 .0282 14 .9998 .9962 .9672 .8354 .4990 .0982 15 1.0000 .9993 .9918 .9400 .7287 .2662 16 .9999 .9987 .9858 .9009 .5497 17 1.0000 .9999 .9984 .9820 .8499 18 1.0000 1.0000 1.0000 1.0000 278 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 19 0 .1351 .0144 .0042 .0011 .0001 .0000 .0000 .0000 .0000 .0000 1 .4203 .0829 .0310 .0104 .0008 .0000 .0000 .0000 .0000 .0000 2 .7054 .2369 .1113 .0462 .0055 .0004 .0000 .0000 .0000 .0000 3 .8850 .4551 .2631 .1332 .0230 .0022 .0001 .0000 .0000 .0000 4 .9648 .6733 .4654 .2822 .0696 .0096 .0006 .0000 .0000 .0000 5 .9914 .8369 .6678 .4739 .1629 .0318 .0031 .0001 .0000 .0000 6 .9983 .9324 .8251 .6655 .3081 .0835 .0116 .0006 .0000 .0000 7 .9997 .9767 .9225 .8180 .4878 .1796 .0352 .0028 .0000 .0000 8 1.0000 .9933 .9713 .9161 .6675 .3238 .0885 .0105 .0003 .0000 9 .9984 .9911 .9674 .8139 .5000 .1861 .0326 .0016 .0000 10 .9997 .9977 .9895 .9115 .6762 .3325 .0839 .0067 .0000 11 1.0000 .9995 .9972 .9648 .8204 .5122 .1820 .0233 .0003 12 .9999 .9994 .9884 .9165 .6919 .3345 .0676 .0017 13 1.0000 .9999 .9969 .9682 .8371 .5261 .1631 .0086 14 1.0000 .9994 .9904 .9304 .7178 .3267 .0352 15 .9999 .9978 .9770 .8668 .5449 .1150 16 1.0000 .9996 .9945 .9538 .7631 .2946 17 1.0000 .9992 .9896 .9171 .5797 18 .9999 .9989 .9856 .8649 19 1.0000 1.0000 1.0000 1.0000 279 Tabla A.1: Distribución Binomial (Continuación) p n x .10 .20 .25 .30 .40 .50 .60 .70 .80 .90 20 0 .1216 .0115 .0032 .0008 .0000 .0000 .0000 .0000 .0000 .0000 1 .3917 .0692 .0243 .0076 .0005 .0000 .0000 .0000 .0000 .0000 2 .6769 .2061 .0913 .0355 .0036 .0002 .0000 .0000 .0000 .0000 3 .8670 .4114 .2252 .1071 .0160 .0013 .0000 .0000 .0000 .0000 4 .9568 .6296 .4148 .2375 .0510 .0059 .0003 .0000 .0000 .0000 5 .9887 .8042 .6172 .4164 .1256 .0207 .0016 .0000 .0000 .0000 6 .9976 .9133 .7858 .6080 .2500 .0577 .0065 .0003 .0000 .0000 7 .9996 .9679 .8982 .7723 .4159 .1316 .0210 .0013 .0000 .0000 8 .9999 .9900 .9591 .8867 .5956 .2517 .0565 .0051 .0001 .0000 9 1.0000 .9974 .9861 .9520 .7553 .4119 .1275 .0171 .0006 .0000 10 .9994 .9961 .9829 .8725 .5881 .2447 .0480 .0026 .0000 11 .9999 .9991 .9949 .9435 .7483 .4044 .1133 .0100 .0001 12 1.0000 .9998 .9987 .9790 .8684 .5841 .2277 .0321 .0004 13 1.0000 .9997 .9935 .9423 .7500 .3920 .0867 .0024 14 1.0000 .9984 .9793 .8744 .5836 .1958 .0113 15 .9997 .9941 .9490 .7625 .3704 .0432 16 1.0000 .9987 .9840 .8929 .5886 .1330 17 .9998 .9964 .9645 .7939 .3231 18 1.0000 .9995 .9924 .9308 .6083 19 1.0000 .9992 .9885 .8784 20 1.0000 1.0000 1.0000 280 Tabla A.2: Distribución de Poisson. P (P(λ) ≤ x) = x∑ k=0 λk k! e−λ λ x 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0 0.9048 0.8187 0.7408 0.6703 0.6065 0.5488 0.4966 0.4493 0.4066 1 0.9953 0.9825 0.9631 0.9384 0.9098 0.8781 0.8442 0.8088 0.7725 2 0.9998 0.9989 0.9964 0.9921 0.9856 0.9769 0.9659 0.9526 0.9371 3 1.0000 0.9999 0.9997 0.9992 0.9982 0.9966 0.9942 0.9909 0.9865 4 1.0000 1.0000 0.9999 0.9998 0.9996 0.9992 0.9986 0.9977 5 1.0000 1.0000 1.0000 0.9999 0.9998 0.9997 6 1.0000 1.0000 1.0000 λ x 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 0 0.3679 0.2231 0.1353 0.0821 0.0498 0.0302 0.0183 0.0111 0.0067 1 0.7358 0.5578 0.4060 0.2873 0.1991 0.1359 0.0916 0.0611 0.0404 2 0.9197 0.8088 0.6767 0.5438 0.4232 0.3208 0.2381 0.1736 0.1247 3 0.9810 0.9344 0.8571 0.7576 0.6472 0.5366 0.4335 0.3423 0.2650 4 0.9963 0.9814 0.9473 0.8912 0.8153 0.7254 0.6288 0.5321 0.4405 5 0.9994 0.9955 0.9834 0.9580 0.9161 0.8576 0.7851 0.7029 0.6160 6 0.9999 0.9991 0.9955 0.9858 0.9665 0.9347 0.8893 0.8311 0.7622 7 1.0000 0.9998 0.9989 0.9958 0.9881 0.9733 0.9489 0.9134 0.8666 8 1.0000 0.9998 0.9989 0.9962 0.9901 0.9786 0.9597 0.9319 9 1.0000 0.9997 0.9989 0.9967 0.9919 0.9829 0.9682 10 0.9999 0.9997 0.9990 0.9972 0.9933 0.9863 11 1.0000 0.9999 0.9997 0.9991 0.9976 0.9945 12 1.0000 0.9999 0.9997 0.9992 0.9980 13 1.0000 0.9999 0.9997 0.9993 14 1.0000 0.9999 0.9998 15 1.0000 0.9999 16 1.0000 281 Tabla A.2: Distribución de Poisson (Continuación) λ x 5.5 6.0 6.5 7.0 7.5 8.0 8.5 9.0 9.5 0 0.0041 0.0025 0.0015 0.0009 0.0006 0.0003 0.0002 0.0001 0.0001 1 0.0266 0.0174 0.0113 0.0073 0.0047 0.0030 0.0019 0.0012 0.0008 2 0.0884 0.0620 0.0430 0.0296 0.0203 0.0138 0.0093 0.0062 0.0042 3 0.2017 0.1512 0.1118 0.0818 0.0591 0.0424 0.0301 0.0212 0.0149 4 0.3575 0.2851 0.2237 0.1730 0.1321 0.0996 0.0744 0.0550 0.0403 5 0.5289 0.4457 0.3690 0.3007 0.2414 0.1912 0.1496 0.1157 0.0885 6 0.6860 0.6063 0.5265 0.4497 0.3782 0.3134 0.2562 0.2068 0.1649 7 0.8095 0.7440 0.6728 0.5987 0.5246 0.4530 0.3856 0.3239 0.2687 8 0.8944 0.8472 0.7916 0.7291 0.6620 0.5925 0.5231 0.4557 0.3918 9 0.9462 0.9161 0.8774 0.8305 0.7764 0.7166 0.6530 0.5874 0.5218 10 0.9747 0.9574 0.9332 0.9015 0.8622 0.8159 0.7634 0.7060 0.6453 11 0.9890 0.9799 0.9661 0.9467 0.9208 0.8881 0.8487 0.80300.7520 12 0.9955 0.9912 0.9840 0.9730 0.9573 0.9362 0.9091 0.8758 0.8364 13 0.9983 0.9964 0.9929 0.9872 0.9784 0.9658 0.9486 0.9261 0.8981 14 0.9994 0.9986 0.9970 0.9943 0.9897 0.9827 0.9726 0.9585 0.9400 15 0.9998 0.9995 0.9988 0.9976 0.9954 0.9918 0.9862 0.9780 0.9665 16 0.9999 0.9998 0.9996 0.9990 0.9980 0.9963 0.9934 0.9889 0.9823 17 1.0000 0.9999 0.9998 0.9996 0.9992 0.9984 0.9970 0.9947 0.9911 18 1.0000 0.9999 0.9999 0.9997 0.9993 0.9987 0.9976 0.9957 19 1.0000 1.0000 0.9999 0.9997 0.9995 0.9989 0.9980 20 1.0000 0.9999 0.9998 0.9996 0.9991 21 1.0000 0.9999 0.9998 0.9996 22 1.0000 0.9999 0.9999 23 1.0000 0.9999 24 1.0000 282 Tabla A.2: Distribución de Poisson (Continuación) λ x 10.0 11.0 12.0 13.0 14.0 15.0 16.0 17.0 18.0 0 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 1 0.0005 0.0002 0.0001 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 2 0.0028 0.0012 0.0005 0.0002 0.0001 0.0000 0.0000 0.0000 0.0000 3 0.0103 0.0049 0.0023 0.0011 0.0005 0.0002 0.0001 0.0000 0.0000 4 0.0293 0.0151 0.0076 0.0037 0.0018 0.0009 0.0004 0.0002 0.0001 5 0.0671 0.0375 0.0203 0.0107 0.0055 0.0028 0.0014 0.0007 0.0003 6 0.1301 0.0786 0.0458 0.0259 0.0142 0.0076 0.0040 0.0021 0.0010 7 0.2202 0.1432 0.0895 0.0540 0.0316 0.0180 0.0100 0.0054 0.0029 8 0.3328 0.2320 0.1550 0.0998 0.0621 0.0374 0.0220 0.0126 0.0071 9 0.4579 0.3405 0.2424 0.1658 0.1094 0.0699 0.0433 0.0261 0.0154 10 0.5830 0.4599 0.3472 0.2517 0.1757 0.1185 0.0774 0.0491 0.0304 11 0.6968 0.5793 0.4616 0.3532 0.2600 0.1848 0.1270 0.0847 0.0549 12 0.7916 0.6887 0.5760 0.4631 0.3585 0.2676 0.1931 0.1350 0.0917 13 0.8645 0.7813 0.6815 0.5730 0.4644 0.3632 0.2745 0.2009 0.1426 14 0.9165 0.8540 0.7720 0.6751 0.5704 0.4657 0.3675 0.2808 0.2081 15 0.9513 0.9074 0.8444 0.7636 0.6694 0.5681 0.4667 0.3715 0.2867 16 0.9730 0.9441 0.8987 0.8355 0.7559 0.6641 0.5660 0.4677 0.3751 17 0.9857 0.9678 0.9370 0.8905 0.8272 0.7489 0.6593 0.5640 0.4686 18 0.9928 0.9823 0.9626 0.9302 0.8826 0.8195 0.7423 0.6550 0.5622 19 0.9965 0.9907 0.9787 0.9573 0.9235 0.8752 0.8122 0.7363 0.6509 20 0.9984 0.9953 0.9884 0.9750 0.9521 0.9170 0.8682 0.8055 0.7307 21 0.9993 0.9977 0.9939 0.9859 0.9712 0.9469 0.9108 0.8615 0.7991 22 0.9997 0.9990 0.9970 0.9924 0.9833 0.9673 0.9418 0.9047 0.8551 23 0.9999 0.9995 0.9985 0.9960 0.9907 0.9805 0.9633 0.9367 0.8989 24 1.0000 0.9998 0.9993 0.9980 0.9950 0.9888 0.9777 0.9594 0.9317 25 0.9999 0.9997 0.9990 0.9974 0.9938 0.9869 0.9748 0.9554 26 1.0000 0.9999 0.9995 0.9987 0.9967 0.9925 0.9848 0.9718 27 0.9999 0.9998 0.9994 0.9983 0.9959 0.9912 0.9827 28 1.0000 0.9999 0.9997 0.9991 0.9978 0.9950 0.9897 29 1.0000 0.9999 0.9996 0.9989 0.9973 0.9941 30 0.9999 0.9998 0.9994 0.9986 0.9967 31 1.0000 0.9999 0.9997 0.9993 0.9982 32 1.0000 0.9999 0.9996 0.9990 33 0.9999 0.9998 0.9995 34 1.0000 0.9999 0.9998 35 1.0000 0.9999 36 0.9999 37 1.0000 283 Tabla A.3: Distribución Normal Estándar. P (N(0, 1) ≥ z) z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 .5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641 0.1 .4602 .4562 .4522 .4483 .4443 .4404 .4364 .4325 .4286 .4247 0.2 .4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859 0.3 .3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483 0.4 .3446 .3409 .3372 .3336 .3300 .3264 .3228 .3192 .3156 .3121 0.5 .3085 .3050 .3015 .2981 .2946 .2912 .2877 .2843 .2810 .2776 0.6 .2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451 0.7 .2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148 0.8 .2119 .2090 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867 0.9 .1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 .1635 .1611 1.0 .1587 .1562 .1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379 1.1 .1357 .1335 .1314 .1292 .1271 .1251 .1230 .1210 .1190 .1170 1.2 .1151 .1131 .1112 .1093 .1075 .1056 .1038 .1020 .1003 .0985 1.3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823 1.4 .0808 .0793 .0778 .0764 .0749 .0735 .0721 .0708 .0694 .0681 1.5 .0668 .0655 .0642 .0630 .0618 .0606 .0594 .0582 .0571 .0559 284 Tabla A.3: Distribución Normal Estándar (Continuación) z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 1.6 .0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455 1.7 .0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367 1.8 .0359 .0351 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294 1.9 .0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233 2.0 .0228 .0222 .0217 .0212 .0207 .0202 .0197 .0192 .0188 .0183 2.1 .0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143 2.2 .0139 .0136 .0132 .0129 .0125 .0122 .0119 .0116 .0113 .0110 2.3 .0107 .0104 .0102 .0099 .0096 .0094 .0091 .0089 .0087 .0084 2.4 .0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064 2.5 .0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048 2.6 .0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036 2.7 .0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026 2.8 .0026 .0025 .0024 .0023 .0023 .0022 .0021 .0021 .0020 .0019 2.9 .0019 .0018 .0018 .0017 .0016 .0016 .0015 .0015 .0014 .0014 3.0 .0013 .0013 .0013 .0012 .0012 .0011 .0011 .0011 .0010 .0010 3.1 .0010 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007 3.2 .0007 .0007 .0006 .0006 .0006 .0006 .0006 .0005 .0005 .0005 3.3 .0005 .0005 .0005 .0004 .0004 .0004 .0004 .0004 .0004 .0003 3.4 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0002 285 Tabla A.4: Distribución t-Student. P (tn ≥ a) Probabilidades Grados de 0.40 0.25 0.15 0.10 0.05 0.025 0.001 0.005 libertad 1 0.3249 1.0000 1.9626 3.0777 6.3138 12.7062 31.8205 63.6567 2 0.2887 0.8165 1.3862 1.8856 2.9200 4.3027 6.9646 9.9248 3 0.2767 0.7649 1.2498 1.6377 2.3534 3.1824 4.5408 5.8408 4 0.2707 0.7407 1.1896 1.5332 2.1318 2.7764 3.7470 4.6041 5 0.2672 0.7267 1.1558 1.4759 2.0150 2.5706 3.3649 4.0321 6 0.2648 0.7176 1.1342 1.4398 1.9432 2.4469 3.1427 3.7074 7 0.2632 0.7111 1.1192 1.4149 1.8946 2.3646 2.9980 3.4995 8 0.2619 0.7064 1.1081 1.3968 1.8595 2.3060 2.8965 3.3554 9 0.2610 0.7027 1.0997 1.3830 1.8331 2.2622 2.8215 3.2498 10 0.2602 0.6998 1.0931 1.3722 1.8125 2.2281 2.7638 3.1693 11 0.2596 0.6974 1.0877 1.3634 1.7959 2.2010 2.7181 3.1058 12 0.2590 0.6955 1.0832 1.3562 1.7823 2.1788 2.6810 3.0546 13 0.2586 0.6938 1.0795 1.3502 1.7709 2.1604 2.6503 3.0123 14 0.2582 0.6924 1.0763 1.3450 1.7613 2.1448 2.6245 2.9768 15 0.2579 0.6912 1.0735 1.3406 1.7531 2.1314 2.6025 2.9467 16 0.2576 0.6901 1.0711 1.3368 1.7459 2.1199 2.5835 2.9208 17 0.2573 0.6892 1.0690 1.3334 1.7396 2.1098 2.5669 2.8982 18 0.2571 0.6884 1.0672 1.3304 1.7341 2.1009 2.5524 2.8784 19 0.2569 0.6876 1.0655 1.3277 1.7291 2.0930 2.5395 2.8609 20 0.2567 0.6870 1.0640 1.3253 1.7247 2.0860 2.5280 2.8453 286 Tabla A.4: Distribución t-Student (Continuación) Probabilidades Grados de 0.40 0.25 0.15 0.10 0.05 0.025 0.001 0.005 libertad 21 0.2566 0.6864 1.0627 1.3232 1.7207 2.0796 2.5176 2.8314 22 0.2564 0.6858 1.0614 1.3212 1.7171 2.0739 2.5083 2.8188 23 0.2563 0.6853 1.0603 1.3195 1.7139 2.0687 2.4999 2.8073 24 0.2562 0.6848 1.0593 1.3178 1.7109 2.0639 2.4922 2.7969 25 0.2561 0.6844 1.0584 1.3163 1.7081 2.0595 2.4851 2.7874 26 0.2560 0.6840 1.0575 1.3150 1.7056 2.0555 2.4786 2.7787 27 0.2559 0.6837 1.0567 1.3137 1.7033 2.0518 2.4727 2.7707 28 0.2558 0.6834 1.0560 1.3125 1.7011 2.0484 2.4671 2.7633 29 0.2557 0.6830 1.0553 1.3114 1.6991 2.0452 2.4620 2.7564 30 0.2556 0.6828 1.0547 1.3104 1.6973 2.0423 2.4573 2.7500 35 0.2553 0.6816 1.0520 1.3062 1.6896 2.0301 2.4377 2.7238 40 0.2550 0.6807 1.0500 1.3031 1.6839 2.0211 2.4233 2.7045 45 0.2549 0.6800 1.0485 1.3006 1.6794 2.0141 2.4121 2.6896 50 0.2547 0.6794 1.0473 1.2987 1.6759 2.0086 2.4033 2.6778 60 0.2545 0.6786 1.0455 1.2958 1.6706 2.0003 2.3901 2.6603 70 0.2543 0.6780 1.0442 1.2938 1.6669 1.9944 2.3808 2.6479 80 0.2542 0.6776 1.0432 1.2922 1.6641 1.9901 2.3739 2.6387 90 0.2541 0.6772 1.0424 1.2910 1.6620 1.9867 2.3685 2.6316 100 0.2540 0.6770 1.0418 1.2901 1.6602 1.9840 2.3642 2.6259 120 0.2539 0.6765 1.0409 1.28861.6577 1.9799 2.3578 2.6174 150 0.2538 0.6761 1.0400 1.2872 1.6551 1.9759 2.3515 2.6090 200 0.2537 0.6757 1.0391 1.2858 1.6525 1.9719 2.3451 2.6006 300 0.2536 0.6753 1.0382 1.2844 1.6499 1.9679 2.3388 2.5923 ∞ 0.2533 0.6745 1.0364 1.2816 1.6449 1.9600 2.3263 2.5758 287 Tabla A.5: Distribucón χ2n. P (χ 2 n ≥ a) Probabilidades Grados de 0.99 0.975 0.95 0.90 0.75 0.50 0.25 0.10 0.05 0.025 0.01 libertad 1 1.571∗ 9.821∗ 39.320∗ 0.016 0.102 0.455 1.323 2.706 3.841 5.024 6.635 2 0.020 0.051 0.103 0.211 0.575 1.386 2.773 4.605 5.991 7.378 9.210 3 0.115 0.216 0.352 0.584 1.213 2.366 4.108 6.252 7.815 9.349 11.346 4 0.297 0.484 0.711 1.064 1.923 3.357 5.385 7.779 9.488 11.143 13.277 5 0.554 0.831 1.145 1.610 2.675 4.351 6.626 9.236 11.070 12.832 15.086 6 0.872 1.237 1.635 2.204 3.455 5.348 7.841 10.645 12.592 14.449 16.812 7 1.239 1.690 2.167 2.833 4.255 6.346 9.037 12.017 14.067 16.013 18.475 8 1.646 2.180 2.733 3.490 5.071 7.344 10.219 13.362 15.507 17.535 20.090 9 2.088 2.700 3.325 4.168 5.899 8.343 11.389 14.684 16.919 19.023 21.666 10 2.558 3.247 3.940 4.865 6.737 9.342 12.549 15.987 18.307 20.483 23.209 11 3.053 3.816 4.575 5.578 7.584 10.341 13.701 17.275 19.675 21.920 24.725 12 3.571 4.404 5.226 6.304 8.438 11.340 14.845 18.549 21.026 23.337 26.217 13 4.107 5.009 5.892 7.041 9.299 12.340 15.984 19.812 22.362 24.712 27.688 14 4.660 5.629 6.571 7.790 10.165 13.339 17.117 21.064 23.685 26.119 29.141 15 5.229 6.262 7.261 8.547 11.037 14.339 18.245 22.307 24.996 27.488 30.578 16 5.812 6.908 7.962 9.312 11.912 15.338 19.369 23.542 26.296 28.845 32.000 17 6.408 7.564 8.672 10.085 12.792 16.338 20.489 24.769 27.587 30.191 33.409 18 7.015 8.231 9.390 10.865 13.675 17.338 21.605 25.989 28.869 31.526 34.805 19 7.633 8.907 10.117 11.651 14.562 18.338 22.718 27.204 30.144 32.852 36.191 20 8.260 9.591 10.851 12.443 15.452 19.337 23.828 28.412 31.410 34.170 37.566 ∗ Dividir entre 1000 288 Tabla A.5: Distribución χ2n (Continuación) Probabilidades Grados de libertad 0.99 0.975 0.95 0.90 0.75 0.50 0.25 0.10 0.05 0.025 0.01 21 8.897 10.283 11.591 13.240 16.344 20.337 24.935 29.615 32.671 35.479 38.932 22 9.542 10.982 12.338 14.041 17.240 21.337 26.039 30.813 33.924 36.781 40.289 23 10.196 11.689 13.091 14.848 18.137 22.337 27.141 32.007 35.172 38.076 41.638 24 10.856 12.401 13.848 15.659 19.037 23.337 28.241 33.196 36.415 39.364 42.980 25 11.524 13.120 14.611 16.473 19.939 24.337 29.339 34.382 37.652 40.646 44.314 26 12.198 13.844 15.379 17.292 20.843 25.336 30.435 35.563 38.885 41.923 45.642 27 12.879 14.573 16.151 18.114 21.749 26.336 31.528 36.741 40.113 43.194 46.963 28 13.565 15.308 16.928 18.939 22.657 27.336 32.620 37.916 41.329 44.461 48.278 29 14.256 16.047 17.708 19.768 23.567 28.336 33.711 39.087 42.557 45.722 49.588 30 14.954 16.791 18.493 20.599 24.478 29.336 34.800 40.256 43.773 46.979 50.892 40 22.164 24.433 26.509 29.050 33.660 39.335 45.616 51.805 55.758 59.342 63.691 50 29.707 32.357 34.764 37.689 42.942 49.335 56.334 63.167 67.505 71.420 76.154 60 37.485 40.482 43.188 46.459 52.294 59.335 66.981 74.397 79.082 83.298 88.379 70 45.442 48.758 51.739 55.329 61.698 69.334 77.577 85.527 90.531 95.023 100.425 80 53.540 57.153 60.391 64.278 71.144 70.334 88.130 96.578 101.879 106.629 112.329 90 61.754 65.647 69.126 73.291 80.625 89.334 98.650 107.565 113.145 118.136 124.116 100 70.065 74.222 77.929 82.358 90.133 99.334 109.141 118.498 124.342 129.561 135.807 289 Tabla A.6.1: Distribución Fnm. P (Fnm ≥ a) = 0.25 Grados de Grados del libertad del numerador (n) libertad del denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 5.83 7.50 8.20 8.58 8.82 8.98 9.10 9.19 9.26 9.32 9.41 9.49 9.58 9.63 9.67 9.71 9.76 9.80 9.85 2 2.57 3.00 3.15 3.23 3.28 3.31 3.34 3.35 3.37 3.38 3.39 3.41 3.43 3.43 3.44 3.45 3.46 3.47 3.48 3 2.02 2.28 2.36 2.39 2.41 2.42 2.43 2.44 2.44 2.44 2.45 2.46 2.46 2.46 2.47 2.47 2.47 2.47 2.47 4 1.81 2.00 2.05 2.06 2.07 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 2.08 5 1.69 1.85 1.88 1.89 1.89 1.89 1.89 1.89 1.89 1.89 1.89 1.89 1.88 1.88 1.88 1.88 1.87 1.87 1.87 6 1.62 1.76 1.78 1.79 1.79 1.78 1.78 1.78 1.77 1.77 1.77 1.76 1.76 1.75 1.75 1.75 1.74 1.74 1.74 7 1.57 1.70 1.72 1.72 1.71 1.71 1.70 1.70 1.69 1.69 1.68 1.68 1.67 1.67 1.66 1.66 1.65 1.65 1.65 8 1.54 1.66 1.67 1.66 1.66 1.65 1.64 1.64 1.63 1.63 1.62 1.62 1.61 1.60 1.60 1.59 1.59 1.58 1.58 9 1.51 1.62 1.63 1.63 1.62 1.61 1.60 1.60 1.59 1.59 1.58 1.57 1.56 1.56 1.55 1.54 1.54 1.53 1.53 10 1.49 1.60 1.60 1.59 1.59 1.58 1.57 1.56 1.56 1.55 1.54 1.53 1.52 1.52 1.51 1.51 1.50 1.49 1.48 11 1.47 1.58 1.58 1.57 1.56 1.55 1.54 1.53 1.53 1.52 1.51 1.50 1.49 1.49 1.48 1.47 1.47 1.46 1.45 12 1.46 1.56 1.56 1.55 1.54 1.53 1.52 1.51 1.51 1.50 1.49 1.48 1.47 1.46 1.45 1.45 1.44 1.43 1.42 13 1.45 1.55 1.55 1.53 1.52 1.51 1.50 1.49 1.49 1.48 1.47 1.46 1.45 1.44 1.43 1.42 1.42 1.41 1.40 14 1.44 1.53 1.53 1.52 1.51 1.50 1.49 1.48 1.47 1.46 1.45 1.44 1.43 1.42 1.41 1.41 1.40 1.39 1.38 15 1.43 1.52 1.52 1.51 1.49 1.48 1.47 1.46 1.46 1.45 1.44 1.43 1.41 1.41 1.40 1.39 1.38 1.37 1.36 16 1.42 1.51 1.51 1.50 1.48 1.47 1.46 1.45 1.44 1.44 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.35 1.34 17 1.42 1.51 1.50 1.49 1.47 1.46 1.45 1.44 1.43 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.35 1.34 1.33 18 1.41 1.50 1.49 1.48 1.46 1.45 1.44 1.43 1.42 1.42 1.40 1.39 1.38 1.37 1.36 1.35 1.34 1.33 1.32 19 1.41 1.49 1.49 1.47 1.46 1.44 1.43 1.42 1.41 1.41 1.40 1.38 1.37 1.36 1.35 1.34 1.33 1.32 1.30 20 1.40 1.49 1.48 1.47 1.45 1.44 1.43 1.42 1.41 1.40 1.39 1.37 1.36 1.35 1.34 1.33 1.32 1.31 1.29 21 1.40 1.48 1.48 1.46 1.44 1.43 1.42 1.41 1.40 1.39 1.38 1.37 1.35 1.34 1.33 1.32 1.31 1.30 1.28 22 1.40 1.48 1.47 1.45 1.44 1.42 1.41 1.40 1.39 1.39 1.37 1.36 1.34 1.33 1.32 1.31 1.30 1.29 1.28 23 1.39 1.47 1.47 1.45 1.43 1.42 1.41 1.40 1.39 1.38 1.37 1.35 1.34 1.33 1.32 1.31 1.30 1.28 1.27 24 1.39 1.47 1.46 1.44 1.43 1.41 1.40 1.39 1.38 1.38 1.36 1.35 1.33 1.32 1.31 1.30 1.29 1.28 1.26 25 1.39 1.47 1.46 1.44 1.42 1.41 1.40 1.39 1.38 1.37 1.36 1.34 1.33 1.32 1.31 1.29 1.28 1.27 1.25 26 1.38 1.46 1.45 1.44 1.42 1.41 1.39 1.38 1.37 1.37 1.35 1.34 1.32 1.31 1.30 1.29 1.28 1.26 1.25 27 1.38 1.46 1.45 1.43 1.42 1.40 1.39 1.38 1.37 1.36 1.35 1.33 1.32 1.31 1.30 1.28 1.27 1.26 1.24 28 1.38 1.46 1.45 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.34 1.33 1.31 1.30 1.29 1.28 1.27 1.25 1.24 29 1.38 1.45 1.45 1.43 1.41 1.40 1.38 1.37 1.36 1.35 1.34 1.32 1.31 1.30 1.29 1.27 1.26 1.25 1.23 30 1.38 1.45 1.44 1.42 1.41 1.39 1.38 1.37 1.36 1.35 1.34 1.32 1.30 1.29 1.28 1.27 1.26 1.24 1.23 40 1.36 1.44 1.42 1.40 1.39 1.37 1.36 1.35 1.34 1.33 1.31 1.30 1.28 1.26 1.25 1.24 1.22 1.21 1.19 60 1.35 1.42 1.41 1.38 1.37 1.35 1.33 1.32 1.31 1.30 1.29 1.27 1.25 1.24 1.22 1.21 1.19 1.17 1.15 120 1.34 1.40 1.39 1.37 1.35 1.33 1.31 1.30 1.29 1.28 1.26 1.24 1.22 1.21 1.19 1.18 1.16 1.13 1.10 ∞ 1.32 1.39 1.37 1.35 1.33 1.31 1.29 1.28 1.27 1.25 1.24 1.22 1.19 1.18 1.16 1.14 1.12 1.08 1.00 290 Tabla A.6.1: Distribución Fnm. P (Fnm ≥ a) = 0.10 Grados de Grados del libertad del numerador (n) libertad del denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 39.86 49.50 53.59 55.83 57.24 58.20 58.91 59.44 59.86 60.19 60.71 61.22 61.74 62.00 62.26 62.53 62.79 63.06 63.33 2 8.53 9.00 9.16 9.24 9.29 9.33 9.35 9.37 9.38 9.39 9.41 9.42 9.44 9.45 9.46 9.47 9.47 9.48 9.49 3 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5.25 5.24 5.23 5.22 5.20 5.18 5.18 5.17 5.16 5.15 5.14 5.13 4 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94 3.92 3.90 3.87 3.84 3.83 3.82 3.80 3.79 3.78 3.76 5 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.32 3.30 3.27 3.24 3.21 3.19 3.17 3.16 3.14 3.12 3.10 6 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96 2.94 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.72 7 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72 2.70 2.67 2.63 2.59 2.58 2.56 2.54 2.51 2.49 2.47 8 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.56 2.54 2.50 2.46 2.42 2.40 2.38 2.36 2.34 2.32 2.29 9 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.472.44 2.42 2.38 2.34 2.30 2.28 2.25 2.23 2.21 2.18 2.16 10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35 2.32 2.28 2.24 2.20 2.18 2.16 2.13 2.11 2.08 2.06 11 3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30 2.27 2.25 2.21 2.17 2.12 2.10 2.08 2.05 2.03 2.00 1.97 12 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21 2.19 2.15 2.10 2.06 2.04 2.01 1.99 1.96 1.93 1.90 13 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20 2.16 2.14 2.10 2.05 2.01 1.98 1.96 1.93 1.90 1.88 1.85 14 3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.12 2.10 2.05 2.01 1.96 1.94 1.91 1.89 1.86 1.83 1.80 15 3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12 2.09 2.06 2.02 1.97 1.92 1.90 1.87 1.85 1.82 1.79 1.76 16 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 2.06 2.03 1.99 1.94 1.89 1.87 1.84 1.81 1.78 1.75 1.72 17 3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06 2.03 2.00 1.96 1.91 1.86 1.84 1.81 1.78 1.75 1.72 1.69 18 3.01 2.62 2.42 2.29 2.20 2.13 2.08 2.04 2.00 1.98 1.93 1.89 1.84 1.81 1.78 1.75 1.72 1.69 1.66 19 2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02 1.98 1.96 1.91 1.86 1.81 1.79 1.76 1.73 1.70 1.67 1.63 20 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.96 1.94 1.89 1.84 1.79 1.77 1.74 1.71 1.68 1.64 1.61 21 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.95 1.92 1.87 1.83 1.78 1.75 1.72 1.69 1.66 1.62 1.59 22 2.95 2.56 2.35 2.22 2.13 2.06 2.01 1.97 1.93 1.90 1.86 1.81 1.76 1.73 1.70 1.67 1.64 1.60 1.57 23 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.92 1.89 1.84 1.80 1.74 1.72 1.69 1.66 1.62 1.59 1.55 24 2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94 1.91 1.88 1.83 1.78 1.73 1.70 1.67 1.64 1.61 1.57 1.53 25 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89 1.87 1.82 1.77 1.72 1.69 1.66 1.63 1.59 1.56 1.52 26 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.88 1.86 1.81 1.76 1.71 1.68 1.65 1.61 1.58 1.54 1.50 27 2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91 1.87 1.85 1.80 1.75 1.70 1.67 1.64 1.60 1.57 1.53 1.49 28 2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90 1.87 1.84 1.79 1.74 1.69 1.66 1.63 1.59 1.56 1.52 1.48 29 2.89 2.50 2.28 2.15 2.06 1.99 1.93 1.89 1.86 1.83 1.78 1.73 1.68 1.65 1.62 1.58 1.55 1.51 1.47 30 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85 1.82 1.77 1.72 1.67 1.64 1.61 1.57 1.54 1.50 1.46 40 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.79 1.76 1.71 1.66 1.61 1.57 1.54 1.51 1.47 1.42 1.38 60 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74 1.71 1.66 1.60 1.54 1.51 1.48 1.44 1.40 1.35 1.29 120 2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72 1.68 1.65 1.60 1.55 1.48 1.45 1.41 1.37 1.32 1.26 1.19 ∞ 2.71 2.30 2.08 1.94 1.85 1.77 1.72 1.67 1.63 1.60 1.55 1.49 1.42 1.38 1.34 1.30 1.24 1.17 1.00 291 Tabla A.6.1: Distribución Fnm. P (Fnm ≥ a) = 0.05 Grados de Grados del libertad del numerador (n) libertad del denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 161.40 199.50 215.70 224.60 230.20 234.00 236.80 238.90 240.50 241.90 243.90 245.90 248.00 249.10 250.10 251.10 252.20 253.30 254.30 2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.39 19.40 19.41 19.43 19.45 19.45 19.46 19.47 19.48 19.49 19.50 3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 8.75 8.70 8.66 8.64 8.62 8.59 8.57 8.55 8.53 4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5.91 5.86 5.80 5.77 5.75 5.72 5.69 5.66 5.63 5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 4.68 4.62 4.56 4.53 4.50 4.46 4.43 4.40 4.36 6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06 4.00 3.94 3.87 3.84 3.81 3.77 3.74 3.70 3.67 7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.57 3.51 3.44 3.41 3.38 3.34 3.30 3.27 3.23 8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.28 3.22 3.15 3.12 3.08 3.04 3.01 2.97 2.93 9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 3.07 3.01 2.94 2.90 2.86 2.83 2.79 2.75 2.71 10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.91 2.85 2.77 2.74 2.70 2.66 2.62 2.58 2.54 11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.79 2.72 2.65 2.61 2.57 2.53 2.49 2.45 2.40 12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.69 2.62 2.54 2.51 2.47 2.43 2.38 2.34 2.30 13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.60 2.53 2.46 2.42 2.38 2.34 2.30 2.25 2.21 14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.53 2.46 2.39 2.35 2.31 2.27 2.22 2.18 2.13 15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.48 2.40 2.33 2.29 2.25 2.20 2.16 2.11 2.07 16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.42 2.35 2.28 2.24 2.19 2.15 2.11 2.06 2.01 17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.38 2.31 2.23 2.19 2.15 2.10 2.06 2.01 1.96 18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.34 2.27 2.19 2.15 2.11 2.06 2.02 1.97 1.92 19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.31 2.23 2.16 2.11 2.07 2.03 1.98 1.93 1.88 20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.28 2.20 2.12 2.08 2.04 1.99 1.95 1.90 1.84 21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.25 2.18 2.10 2.05 2.01 1.96 1.92 1.87 1.81 22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.23 2.15 2.07 2.03 1.98 1.94 1.89 1.84 1.78 23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.20 2.13 2.05 2.01 1.96 1.91 1.86 1.81 1.76 24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.18 2.11 2.03 1.98 1.94 1.89 1.84 1.79 1.73 25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 2.16 2.09 2.01 1.96 1.92 1.87 1.82 1.77 1.71 26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 2.15 2.07 1.99 1.95 1.90 1.85 1.80 1.75 1.69 27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20 2.13 2.06 1.97 1.93 1.88 1.84 1.79 1.73 1.67 28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 2.12 2.04 1.96 1.91 1.87 1.82 1.77 1.71 1.65 29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18 2.10 2.03 1.94 1.90 1.85 1.81 1.75 1.70 1.64 30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 2.09 2.01 1.93 1.89 1.84 1.79 1.74 1.68 1.62 40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 2.00 1.92 1.84 1.79 1.74 1.69 1.64 1.58 1.51 60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.92 1.84 1.75 1.70 1.65 1.59 1.53 1.47 1.39 120 3.92 3.07 2.68 2.45 2.29 2.17 2.09 2.02 1.96 1.91 1.83 1.75 1.66 1.61 1.55 1.50 1.43 1.35 1.25 ∞ 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.75 1.67 1.57 1.52 1.46 1.39 1.32 1.22 1.00 292 Tabla A.6.1: Distribución Fnm. P (Fnm ≥ a) = 0.025 Grados de Grados del libertad del numerador (n) libertad del denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 647.80 799.50 864.20 899.60 921.80 937.10 948.20 956.70 963.30 968.60 976.70 984.90 993.10 997.20 1001.00 1006.00 1010.00 1014.00 1018.00 2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40 39.41 39.43 39.45 39.46 39.46 39.47 39.48 39.49 39.50 3 17.44 16.04 15.44 15.10 14.88 14.73 14.62 14.54 14.47 14.42 14.34 14.25 14.17 14.12 14.08 14.04 13.99 13.95 13.90 4 12.22 10.65 9.98 9.60 9.36 9.20 9.07 8.98 8.90 8.84 8.75 8.66 8.56 8.51 8.46 8.41 8.36 8.31 8.26 5 10.01 8.43 7.76 7.39 7.15 6.98 6.85 6.76 6.68 6.62 6.52 6.43 6.33 6.28 6.23 6.18 6.12 6.07 6.02 6 8.81 7.26 6.60 6.23 5.99 5.82 5.70 5.60 5.52 5.46 5.37 5.27 5.17 5.12 5.07 5.01 4.96 4.90 4.85 7 8.07 6.54 5.89 5.52 5.29 5.12 4.99 4.90 4.82 4.76 4.67 4.57 4.47 4.41 4.36 4.31 4.25 4.20 4.14 8 7.57 6.06 5.42 5.05 4.82 4.65 4.53 4.43 4.36 4.30 4.20 4.10 4.00 3.95 3.89 3.84 3.78 3.73 3.67 9 7.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10 4.03 3.96 3.87 3.77 3.67 3.61 3.56 3.51 3.45 3.39 3.33 10 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.85 3.78 3.72 3.62 3.52 3.42 3.37 3.31 3.26 3.20 3.14 3.08 11 6.72 5.26 4.63 4.28 4.04 3.88 3.76 3.66 3.59 3.53 3.43 3.33 3.23 3.17 3.12 3.06 3.00 2.94 2.88 12 6.55 5.10 4.47 4.12 3.89 3.73 3.61 3.51 3.44 3.37 3.28 3.18 3.07 3.02 2.96 2.91 2.85 2.79 2.72 13 6.41 4.97 4.35 4.00 3.77 3.60 3.48 3.39 3.31 3.25 3.15 3.05 2.95 2.89 2.84 2.78 2.72 2.66 2.60 14 6.30 4.86 4.24 3.89 3.66 3.50 3.38 3.29 3.21 3.15 3.05 2.95 2.84 2.79 2.73 2.67 2.61 2.55 2.49 15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20 3.12 3.06 2.96 2.86 2.76 2.70 2.64 2.59 2.52 2.46 2.40 16 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.12 3.05 2.99 2.89 2.79 2.68 2.63 2.57 2.51 2.45 2.38 2.32 17 6.04 4.62 4.01 3.66 3.44 3.28 3.16 3.06 2.98 2.92 2.82 2.72 2.622.56 2.50 2.44 2.38 2.32 2.25 18 5.98 4.56 3.95 3.61 3.38 3.22 3.10 3.01 2.93 2.87 2.77 2.67 2.56 2.50 2.44 2.38 2.32 2.26 2.19 19 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96 2.88 2.82 2.72 2.62 2.51 2.45 2.39 2.33 2.27 2.20 2.13 20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91 2.84 2.77 2.68 2.57 2.46 2.41 2.35 2.29 2.22 2.16 2.09 21 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87 2.80 2.73 2.64 2.53 2.42 2.37 2.31 2.25 2.18 2.11 2.04 22 5.79 4.38 3.78 3.44 3.22 3.05 2.93 2.84 2.76 2.70 2.60 2.50 2.39 2.33 2.27 2.21 2.14 2.08 2.00 23 5.75 4.35 3.75 3.41 3.18 3.02 2.90 2.81 2.73 2.67 2.57 2.47 2.36 2.30 2.24 2.18 2.11 2.04 1.97 24 5.72 4.32 3.72 3.38 3.15 2.99 2.87 2.78 2.70 2.64 2.54 2.44 2.33 2.27 2.21 2.15 2.08 2.01 1.94 25 5.69 4.29 3.69 3.35 3.13 2.97 2.85 2.75 2.68 2.61 2.51 2.41 2.30 2.24 2.18 2.12 2.05 1.98 1.91 26 5.66 4.27 3.67 3.33 3.10 2.94 2.82 2.73 2.65 2.59 2.49 2.39 2.28 2.22 2.16 2.09 2.03 1.95 1.88 27 5.63 4.24 3.65 3.31 3.08 2.92 2.80 2.71 2.63 2.57 2.47 2.36 2.25 2.19 2.13 2.07 2.00 1.93 1.85 28 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69 2.61 2.55 2.45 2.34 2.23 2.17 2.11 2.05 1.98 1.91 1.83 29 5.59 4.20 3.61 3.27 3.04 2.88 2.76 2.67 2.59 2.53 2.43 2.32 2.21 2.15 2.09 2.03 1.96 1.89 1.81 30 5.57 4.18 3.59 3.25 3.03 2.87 2.75 2.65 2.57 2.51 2.41 2.31 2.20 2.14 2.07 2.01 1.94 1.87 1.79 40 5.42 4.05 3.46 3.13 2.90 2.74 2.62 2.53 2.45 2.39 2.29 2.18 2.07 2.01 1.94 1.88 1.80 1.72 1.64 60 5.29 3.93 3.34 3.01 2.79 2.63 2.51 2.41 2.33 2.27 2.17 2.06 1.94 1.88 1.82 1.74 1.67 1.58 1.68 120 5.15 3.80 3.23 2.89 2.67 2.52 2.39 2.30 2.22 2.16 2.05 1.94 1.82 1.76 1.69 1.61 1.53 1.43 1.31 ∞ 5.02 3.69 3.12 2.79 2.57 2.41 2.29 2.19 2.11 2.05 1.94 1.83 1.71 1.64 1.57 1.48 1.39 1.27 1.00 293 Tabla A.6.1: Distribución Fnm. P (Fnm ≥ a) = 0.01 Grados de Grados del libertad del numerador (n) libertad del denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 4052.19 4999.50 5403.00 5625.00 5764.00 5859.00 5928.00 5982.00 6022.00 6056.00 6106.00 6157.00 6209.00 6235.00 6261.00 6287.00 6313.00 6399.00 6366.00 2 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39 99.40 99.42 99.43 99.45 99.46 99.47 99.47 99.48 99.49 99.00 3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35 27.23 27.05 26.87 26.69 26.60 26.50 26.41 26.32 26.22 26.13 4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55 14.37 14.20 14.02 13.93 13.84 13.75 13.65 13.56 13.46 5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05 9.89 9.72 9.55 9.47 9.38 9.29 9.20 9.11 9.02 6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98 7.87 7.72 7.56 7.40 7.31 7.23 7.14 7.06 6.97 6.88 7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62 6.47 6.31 6.16 6.07 5.99 5.91 5.82 5.74 5.65 8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81 5.67 5.52 5.36 5.28 5.20 5.12 5.03 4.95 4.86 9 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35 5.26 5.11 4.96 4.81 4.73 4.65 4.57 4.48 4.40 4.31 10 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94 4.85 4.71 4.56 4.41 4.33 4.25 4.17 4.08 4.00 3.91 11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54 4.40 4.25 4.10 4.02 3.94 3.86 3.78 3.69 3.60 12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.39 4.30 4.16 4.01 3.86 3.78 3.70 3.62 3.54 3.45 3.36 13 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19 4.10 3.96 3.82 3.66 3.59 3.51 3.43 3.34 3.25 3.17 14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94 3.80 3.66 3.51 3.43 3.35 3.27 3.18 3.09 3.00 15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.89 3.80 3.67 3.52 3.37 3.29 3.21 3.13 3.05 2.96 2.87 16 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78 3.69 3.55 3.41 3.26 3.18 3.10 3.02 2.93 2.84 2.75 17 8.40 6.11 5.19 4.67 4.34 4.10 3.93 3.79 3.68 3.59 3.46 3.31 3.16 3.08 3.00 2.92 2.83 2.75 2.65 18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60 3.51 3.37 3.23 3.08 3.00 2.92 2.84 2.75 2.66 2.57 19 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.52 3.43 3.30 3.15 3.00 2.92 2.84 2.76 2.67 2.58 2.49 20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46 3.37 3.23 3.09 2.94 2.86 2.78 2.69 2.61 2.52 2.42 21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40 3.31 3.17 3.03 2.88 2.80 2.72 2.64 2.55 2.46 2.36 22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26 3.12 2.98 2.83 2.75 2.67 2.58 2.50 2.40 2.31 23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.30 3.21 3.07 2.93 2.78 2.70 2.62 2.54 2.45 2.35 2.26 24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.26 3.17 3.03 2.89 2.74 2.66 2.58 2.49 2.40 2.31 2.21 25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13 2.99 2.85 2.70 2.62 2.54 2.45 2.36 2.27 2.17 26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09 2.96 2.81 2.66 2.58 2.50 2.42 2.33 2.23 2.13 27 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15 3.06 2.93 2.78 2.63 2.55 2.47 2.38 2.29 2.20 2.10 28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03 2.90 2.75 2.60 2.52 2.44 2.35 2.26 2.17 2.06 29 7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20 3.09 3.00 2.87 2.73 2.57 2.49 2.41 2.33 2.23 2.14 2.03 30 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07 2.98 2.84 2.70 2.55 2.47 2.39 2.30 2.21 2.11 2.01 40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.80 2.66 2.52 2.37 2.29 2.20 2.11 2.02 1.92 1.80 60 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72 2.63 2.50 2.35 2.20 2.12 2.03 1.94 1.84 1.73 1.60 120 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.56 2.47 2.34 2.19 2.03 1.95 1.86 1.76 1.66 1.53 1.38 ∞ 6.63 4.61 3.78 3.32 3.02 2.80 2.64 2.51 2.41 2.32 2.18 2.04 1.88 1.79 1.70 1.59 1.47 1.32 1.00 294 Tabla A.6.1: Distribución Fnm. P (Fnm ≥ a) = 0.005 Grados de Grados del libertad del numerador (n) libertad del denominador (m) 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞ 1 162.11∗ 200.00∗ 216.15∗ 225.00∗ 230.56∗ 234.37∗ 237.15∗ 239.25∗ 240.91∗ 242.24∗ 244.26∗ 246.30∗ 248.36∗ 249.40∗ 250.44∗ 251.48∗ 252.53∗ 253.59∗ 254.65∗ 2 198.50 199.00 199.17 199.25 199.30 199.33 199.36 199.37 199.39 199.40 199.42 199.43 199.45 199.46 199.47 199.47 199.48 199.49 199.50 3 55.55 49.80 47.47 46.19 45.39 44.84 44.43 44.13 43.88 43.69 43.39 43.08 42.78 42.62 42.47 42.31 42.15 41.99 41.83 4 31.33 26.28 24.26 23.15 22.46 21.97 21.62 21.35 21.14 20.97 20.70 20.44 20.17 20.03 19.89 19.75 19.61 19.47 19.32 5 22.78 18.31 16.53 15.56 14.94 14.51 14.20 13.96 13.77 13.62 13.38 13.15 12.90 12.78 12.66 12.53 12.40 12.27 12.14 6 18.63 14.54 12.92 12.03 11.46 11.07 10.79 10.57 10.39 10.25 10.03 9.81 9.59 9.47 9.36 9.24 9.12 9.00 8.88 7 16.24 12.40 10.88 10.05 9.52 9.16 8.89 8.68 8.51 8.38 8.18 7.97 7.75 7.64 7.53 7.42 7.31 7.19 7.08 8 14.69 11.04 9.60 8.81 8.30 7.95 7.69 7.50 7.34 7.21 7.01 6.81 6.61 6.50 6.40 6.29 6.18 6.06 5.95 9 13.61 10.11 8.72 7.96 7.47 7.13 6.88 6.69 6.54 6.42 6.23 6.03 5.83 5.73 5.62 5.52 5.41 5.30 5.19 10 12.83 9.43 8.08 7.34 6.87 6.54 6.30 6.12 5.97 5.85 5.66 5.47 5.27 5.17 5.07 4.97 4.86 4.75 4.64 11 12.23 8.91 7.60 6.88 6.42 6.10 5.86 5.68 5.54 5.42 5.24 5.05 4.86 4.76 4.65 4.55 4.44 4.34 4.23 12 11.75 8.51 7.23 6.52 6.07 5.76 5.52 5.35 5.20 5.09 4.91 4.72 4.53 4.43 4.33 4.23 4.12 4.01 3.90 13 11.37 8.19 6.93 6.23 5.79 5.48 5.25 5.08 4.94 4.82 4.64 4.46 4.27 4.17 4.07 3.97 3.87 3.76 3.65 14 11.06 7.92 6.68 6.00 5.56 5.26 5.03 4.86 4.72 4.60 4.43 4.25 4.06 3.96 3.86 3.76 3.66 3.55 3.44 15 10.80 7.70 6.48 5.80 5.37 5.07 4.85 4.67 4.54 4.42 4.25 4.07 3.88 3.79 3.69 3.58 3.48 3.37 3.26 16 10.58 7.51 6.30 5.64 5.21 4.91 4.69 4.52 4.38 4.27 4.10 3.92 3.73 3.64 3.54 3.44 3.33 3.22 3.11 17 10.38 7.35 6.16 5.50 5.07 4.78 4.56 4.39 4.25 4.14 3.97 3.79 3.61 3.51 3.41 3.31 3.21 3.10 2.98 18 10.22 7.21 6.03 5.37 4.96 4.66 4.44 4.28 4.14 4.03 3.86 3.68 3.50 3.40 3.30 3.20 3.10 2.99 2.87 19 10.07 7.09 5.92 5.27 4.85 4.56 4.34 4.18 4.04 3.93 3.76 3.59 3.40 3.31 3.21 3.11 3.00 2.89 2.78 20 9.94 6.99 5.82 5.17 4.76 4.47 4.26 4.09 3.96 3.85 3.68 3.50 3.32 3.22 3.12 3.02 2.92 2.81 2.69 21 9.83 6.89 5.73 5.09 4.68 4.39 4.18 4.01 3.88 3.77 3.60 3.43 3.24 3.15 3.05 2.95 2.84 2.73 2.61 22 9.73 6.81 5.65 5.02 4.61 4.32 4.11 3.94 3.81 3.70 3.54 3.36 3.18 3.08 2.98 2.88 2.77 2.66 2.55 23 9.63 6.73 5.58 4.95 4.54 4.26 4.05 3.88 3.75 3.64 3.47 3.30 3.12 3.02 2.92 2.82 2.71 2.60 2.48 24 9.55 6.66 5.52 4.89