Logo Studenta

Probabilidad-y-Estadística-Final-Ejercicios

¡Este material tiene más páginas!

Vista previa del material en texto

Probabilidad y Estadística (C)
December 9, 2021
Para las fechas de final de Diciembre 2021 el profesor Nicolas Saintier publicó listas de ejercicios a
ser evaluados en cada fecha de examen. A continuación se resuelven los 35 ejercicios para la 1er
fecha de Diciembre. Si encontrás algún error por favor reportalo acá.
Contents
1 Probabilidad: definición y enunciados 2
1.1 Ejercicio 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Ejercicio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Probabilidad condicional e independencia 3
2.1 Ejercicio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Ejercicio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Ejercicio 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Variables aleatorias 7
3.1 Ejercicio 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4 Vectores aleatorios 9
4.1 Ejercicio 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2 Ejercicio 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5 Esperanza 12
5.1 Ejercicio 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2 Ejercicio 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6 Esperanza condicional 15
6.1 Ejercicio 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6.2 Ejercicio 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7 Generación de variables aleatorias 16
7.1 Ejercicio 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7.2 Ejercicio 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8 Función característica 18
8.1 Ejercicio 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9 Convergencia de variables aleatorias 18
9.1 Ejercicio 16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1
http://cms.dm.uba.ar/academico/materias/2docuat2021/probabilidades_y_estadistica_C/lista_ejercicios_final%20Diciembre%201era%20fecha.pdf
https://github.com/honi/uba-probabilidad-y-estadistica
9.2 Ejercicio 17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
9.3 Ejercicio 18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
9.4 Ejercicio 19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.5 Ejercicio 20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
9.6 Ejercicio 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10 Procesos de Poisson 25
10.1 Ejercicio 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
10.2 Ejercicio 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
11 Estimadores 26
11.1 Ejercicio 24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
11.2 Ejercicio 25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
11.3 Ejercicio 26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
11.4 Ejercicio 27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
11.5 Ejercicio 28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
11.6 Ejercicio 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
12 Intervalos de confianza 33
12.1 Ejercicio 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
12.2 Ejercicio 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
12.3 Ejercicio 32 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
13 Test de hipótesis 38
13.1 Ejercicio 33 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
13.2 Ejercicio 34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
13.3 Ejercicio 35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1 Probabilidad: definición y enunciados
1.1 Ejercicio 1
Dar la definición de una medida de probabilidad P. Demuestre a partir de la definición que P (Ac) =
1− P (A) y que si B ⊂ A entonces P (A \B) = P (A)− P (B).
Definiciones previas
• Dado un experimento aleatorio (cualquier proceso o acción repetible que genera una obser-
vación), llamamos espacio muestral al conjunto de todos los resultados posibles. Lo notamos
S y éste puede ser finito o infinito numerable.
• Cualquier subconjunto del espacio muestral S lo llamamos evento o suceso.
Definición de una medida de probabilidad
Dado un espacio muestral S y un evento A, llamamos P (A) a la probabilidad de que suceda el
evento A. Esta medida debe satisfacer los siguientes axiomas:
• Axioma 1
P (A) ≥ 0 para todo evento A ⊂ S
La medida de probabilidad no puede ser negativa.
2
• Axioma 2
P (S) = 1
Como S es el conjunto de todos los resultados posibles, su probabilidad es 1 (el máximo posible
en nuestra definición). Si no fuese 1 entonces estaría mal definido el espacio muestral, pues
habría resultados posibles de nuestro experimento que no fueron incluídos en la definición de
S.
• Axioma 3
Sean A1, . . . , An una coleción finita de eventos mutuamente excluyentes.
Es decir, Ai ∩Aj = ∅ ∀i ̸= j
Entonces: P (
⋃n
i=1Ai) =
∑n
i=1 P (Ai)
Esto nos dice que la probabilidad de eventos mutuamente excluyentes (si sucede uno no sucede
el otro) es la suma de sus probabilidades individuales. Por ejemplo, si tiramos un dado de 6
caras, 1 sola vez, la probabilidad de que salga un 2 o un 4 es la suma de la probabilidad de
que salga un 2 y la de que salga un 4, pues no pueden suceder estos eventos al mismo tiempo.
Este axioma se extiende también para colecciones infinitas numerables.
Demostraciones
1
Ax2
= P (S) = P (A ∪Ac) Ax3= P (A) + P (Ac) =⇒ P (Ac) = 1− P (A)
B ⊂ A =⇒ A = (A \B) ∪B
P (A) = P ((A \B) ∪B) Ax3= P (A \B) + P (B) =⇒ P (A \B) = P (A)− P (B)
1.2 Ejercicio 2
Dar la definición de una medida de probabilidad P. Demuestre a partir de la definición que P (A ∪
B) = P (A) + P (B)− P (A ∩B).
B = B ∩ S = B ∩ (A ∪Ac) = (B ∩A) ∪ (B ∩Ac)
P (B) = P ((B ∩A) ∪ (B ∩Ac)) Ax3= P (B ∩A) + P (B ∩Ac) =⇒ P (B ∩Ac) = P (B)− P (B ∩A)
P (A ∪B) = P (A ∪ (B ∩Ac)) Ax3= P (A) + P (B ∩Ac) = P (A) + P (B)− P (B ∩A)
2 Probabilidad condicional e independencia
2.1 Ejercicio 3
En una muestra de 100 personas hay 13 enfermos no vacunados, 2 enfermos vacunados, 75 sanos
vacunados, 10 sanos no vacunados. Elegimos una persona al azar y vemos que está enferma. ¿Cuál
es la probabilidad que no se haya vacunado?
3
Vacunados No vacunados
Enfermos 2 13 15
Sanos 75 10 85
77 23 100
Definimos los siguientes eventos:
• E = La persona está enferma
• Ec = La persona no está enferma
• V = La persona está vacunada
• V c = La persona no está vacunada
Nos piden calcular la probabilidad de que una persona no se haya vacunado sabiendo que está
enferma. Esto lo calculamos mediante probabilidad condicional, y para las probabilidades puntuales
de cada caso miramos la tabla y dividimos cantidad de personas en cada situación por la cantidad
total de personas.
P (V c|E) = P (V
c ∩ E)
P (E)
=
13
100
15
100
= 0.86̂
Utilizando probabilidad total (y así evitar calcular la tabla) considerando a V y V c como una
partición del espacio muestral:
P (V c|E) = P (V
c ∩ E)
P (E ∩ V ) + P (E ∩ V c)
=
13
100
2
100 +
13
100
= 0.86̂
2.2 Ejercicio 4
Una urna tiene 4 bolas negras y 3 rojas. Sacamos tres bolas sin reposición. ¿Cuál es la probabilidad
que la primerabola salga negra y la tercera salga roja?
Forma 1
Definimos los siguientes eventos:
• Ni = La bola extraída en la i-ésima extracción es negra
• Ri = La bola extraída en la i-ésima extracción es roja
• Xi = La bola extraída en la i-ésima extracción es negra o roja
Vamos calculando la probabilidad de obtener la bola deseada en cada extracción.
Primero vemos que P (N1) = 47 pues en la primer extracción hay 4 bolas negras del total de 7.
En la segunda extracción no nos importa qué bola sale, pero solo pueden pasar 2 cosas mutuamente
excluyentes: sale una bola negra o sale una roja.
P (N2 ∩N1) = P (N2|N1)P (N1) = 36P (N1) pues en la segunda extracción quedan 3 bolas negras en
las 6 bolas restantes en la urna.
4
P (R2 ∩ N1) = P (R2|N1)P (N1) = 36P (N1) pues en la segunda extracción quedan aún las 3 bolas
rojas en las 6 bolas restantes en la urna.
Finalmente, en la tercer extracción queremos ver la probabilidad de extraer una bola roja. Tenemos
que calcular esto a partir de cada uno de los 2 resultados posibles de la segunda extracción (salió
una bola negra o salió una roja).
P (R3 ∩N2 ∩N1) = P (R3|N2 ∩N1)P (N2 ∩N1) = 35P (N2 ∩N1) pues en la tercer extracción quedan
aún las 3 bolas rojas en las 5 bolas restantes en la urna.
P (R3 ∩R2 ∩N1) = P (R3|R2 ∩N1)P (R2 ∩N1) = 25P (R2 ∩N1) pues en la tercer extracción quedan
2 bolas rojas en las 5 bolas restantes en la urna.
Entonces juntando los 2 escenarios posibles calculamos la probabilidad pedida:
P (R3 ∩X2 ∩N1) = P (R3 ∩N2 ∩N1) + P (R3 ∩R2 ∩N1) = 35 ∗
3
6 ∗
4
7 +
2
5 ∗
3
6 ∗
4
7 =
2
7
Forma 2
Definimos el espacio muestral S como el conjunto de todos los resultados posibles de extraer 3 bolas
sin reposición.
#S = 7 ∗ 6 ∗ 5 = 210
Definimos el evento A = la primer bola es negra y la tercera roja.
#A = 4 ∗ 3 ∗ 3 + 4 ∗ 3 ∗ 2 = 60
La lógica para calcular #A es la misma que la forma 1, se divide en 2 casos (la segunda bola es
negra o roja), y luego contamos la cantidad de bolas del color deseado en cada extracción.
Finalmente, P (A) = #A#S =
60
210 =
2
7
2.3 Ejercicio 5
Enuncie y demuestre la fórmula de la probabilidad total y el Teorema de Bayes.
Definiciones previas
• Sean A y B eventos cualesquiera del espacio muestral S tal que P (B) > 0. La probabilidad
del evento A condicional a la ocurrencia del evento B es:
P (A|B) = P (A ∩B)
P (B)
Una propiedad muy útil es la regla del producto: P (A ∩B) = P (A|B)P (B)
Si además P (A) > 0 =⇒ P (A ∩B) = P (B|A)P (A)
• Una colección de eventos A1, . . . , An constituye una partición del espacio muestral S si se
cumplen las siguientes condiciones:
– Ai ∩Aj = ∅ ∀i ̸= j
Todos los eventos son disjuntos entre sí.
5
– P (Ai) > 0 ∀i
Todos los eventos tienen probabilidad positiva.
–
⋃n
i=1Ai = S
Esto nos dice que al unir toda la colección de eventos A1, . . . , An obtenemos el espacio
muestral S en su totalidad.
Probabilidad total
Sea A1, . . . , An una partición del espacio muestral S y sea B un evento cualquiera. Entonces:
P (B) =
n∑
i=1
P (B|Ai)P (Ai)
Demostración:
B = B ∩ S = B ∩
( n⋃
i=1
Ai
)
=
n⋃
i=1
(B ∩Ai)
Usando que (B ∩Ai) ∩ (B ∩Aj) = ∅ ∀i ̸= j y la regla del producto de la probabilidad condicional:
P (B) = P
( n⋃
i=1
(B ∩Ai)
)
=
n∑
i=1
P (B ∩Ai) =
n∑
i=1
P (B|Ai)P (Ai)
Teorema de Bayes
Sea A1, . . . , An una partición del espacio muestral S y sea B un evento cualquiera tal que P (B) > 0.
Entonces:
P (Aj |B) =
P (B|Aj)P (Aj)
P (B)
=
P (B|Aj)P (Aj)∑n
i=1 P (B|Ai)P (Ai)
El Teorema de Bayes nos permite calcular la probabilidad de un evento A sabiendo B en términos
de la probabilidad del evento B sabiendo A. Es decir, nos permite “dar vuelta” el condicional.
Demostración:
P (Aj |B) =
P (Aj ∩B)
P (B)
=
P (B|Aj)P (Aj)∑n
i=1 P (B|Ai)P (Ai)
En el numerador se usó la regla del producto de la probabilidad condicional, y en el denominador
se usó el teorema de la probabilidad total.
6
3 Variables aleatorias
3.1 Ejercicio 6
Sea U una variable uniforme en [0, 1]. Para u ∈ [0, 1] defina h(u) = max{u, 1 − u}. Calcule la
función de densidad de X = h(U), su distribución acumulada, esperanza y varianza.
U ∼ U [0, 1]
fU (u) =
1
1−0I[0,1](u) = I[0,1](u)
FU (u) =
u−0
1−0 = u ∀ 0 ≤ u ≤ 1
h(u) =
{
1− u si 0 ≤ u < 0.5
u si 0.5 ≤ u ≤ 1
X = h(U) = max{U, 1− U}
FX(x) = P (X ≤ x) = P (max{U, 1− U} ≤ x)
Observemos que:
max{U, 1− U} ≤ x ⇐⇒ u ≤ x ∀u ∈ max{U, 1− U}
Es decir, si el máximo de un conjunto es menor que x, entonces todos los elementos del conjunto
son menores que x.
FX(x) = P
(
(1− U ≤ x) ∩ (U ≤ x)
)
= P
(
(1− x ≤ U) ∩ (U ≤ x)
)
= P (1− x ≤ U ≤ x)
Busquemos el nuevo intervalo de la distribución acumulada FX :
1− x ≤ U ≤ x =⇒ 1− x ≤ x ⇐⇒ 0.5 ≤ x
=⇒ FX(x) = 0 ∀x < 0.5 pues P (1− x ≤ U ≤ x) = 0 ∀x < 0.5
Busquemos ahora los valores de x tales que [0, 1] ⊆ [1− x, x] y por lo tanto FX(x) = 1:
1− x ≤ 0 ∧ 1 ≤ x ⇐⇒ x ≥ 1
=⇒ FX(x) = 1 ∀x ≥ 1 pues ∀x ≥ 1 =⇒ [0, 1] ⊆ [1− x, x] =⇒ P (1− x ≤ U ≤ x) = 1
Por lo tanto, solo consideramos los x ∈ [0.5, 1], y notemos que éste intervalo está incluído en el de
la uniforme estándar.
7
FX(x) = FU (x)− FU (1− x) = x− (1− x) = (2x− 1) ∀0.5 ≤ x ≤ 1
Ahora derivamos para obtener la función de densidad:
fX(x) =
∂
∂xFX(x) = 2I[0.5,1](x)
Por lo tanto podemos concluir que X ∼ U [0.5, 1]
Esperanza
Utilizando la fórmula para la esperanza de una uniforme:
E(X) = 0.5+12 =
3
4
Por definición:
E(X) =
∫ 1
0.5
xfX(x)dx =
∫ 1
0.5
2xdx =
[
x2
]1
0.5
= 12 − 0.52 = 34
Por definición usando h(u):
E(X) = E(h(U))
=
∫ 1
0
h(u)fU (u)du
=
( ∫ 0.5
0
1− udu
)
+
( ∫ 1
0.5
udu
)
=
[
u− u22
]0.5
0
+
[
u2
2
]1
0.5
=
(
0.5− 0.522
)
+
(
12
2 −
0.52
2
)
= 34
Varianza
Utilizando la fórmula para la varianza de una uniforme:
V (X) = (1−0.5)
2
12 =
1
48
Por definición E(X2):
E(X2) =
∫ 1
0.5
x2fX(x)dx =
∫ 1
0.5
2x2dx =
[2x3
3
]1
0.5
=
2
3
− 2 ∗ 0.5
3
3
=
7
12
Por definición E(X2) usando h(u):
8
E(X2) = E(h(U)2)
=
∫ 1
0
h(u)2fU (u)du
=
( ∫ 0.5
0
(1− u)2du
)
+
( ∫ 1
0.5
u2du
)
=
( ∫ 0.5
0
1− 2u+ u2du
)
+
( ∫ 1
0.5
u2du
)
=
[
u− u2 + u33
]0.5
0
+
[
u3
3
]1
0.5
=
(
0.5− 0.52 + 0.533
)
+
(
13
3 −
0.53
3
)
= 712
V (X) = E(X2)− E(X)2 = 712 −
(
3
4
)2
= 148
4 Vectores aleatorios
4.1 Ejercicio 7
Alicia y José acordaron encontrarse a las 8 de la noche para ir al cine. Como no son puntuales, se
puede suponer que los tiempos X e Y en que cada uno de ellos llega son variables aleatorias con
distribución uniforme entre las 8 y las 9. Además se supondrá que estos tiempos son independientes.
Si ambos están dispuestos a esperar no más de 10 minutos al otro a partir del instante en que llegan,
¿cuál es la probabilidad de que se desencuentren?
Como X e Y son independientes =⇒ fXY (x, y) = fX(x)fY (y) = I[8,9](x)I[8,9](y)
Observación: 10 minutos = 16 de hora
P (|X − Y | ≤ 16) es la probabilidad de encuentro
P (|X − Y | > 16) es la probabilidad de desencuentro, lo que nos piden calcular
Necesitamos tomar el valor absoluto de la resta para manejar el caso de que Alicia llegue antes que
José y viceversa. No obstante, como X e Y son uniformes en el mismo intervalo, las 2 regiones
que se forman son simétricas y por lo tanto podemos calcular la probabilidad de 1 caso y luego
multiplicar por 2.
Veamos primero cómo son las regiones de probabilidad de desencuentro (ver en GeoGebra).
Supongamos X ≥ Y (el caso del triángulo inferior):
|X − Y | > 16 ⇐⇒ X > Y +
1
6
Como despejamos X en función de Y , necesitamos ajustar el intervalo de integración de Y para
integrar correctamente dentro del intervalo de la distribución. Recordemos que ambas variables
9
https://www.geogebra.org/m/vrv4aaxv
tienen distribución U [8, 9], por lo tanto si el intervalo de integración de X es [Y + 16 , 9], busquemos
la cota superior del intervalo de integración de Y :
Y + 16 ≤ 9 ⇐⇒ Y ≤
53
6
P (X > Y + 16) =
∫ 53
6
8
∫ 9
y+
1
6
fXY (x, y)dxdy =
25
72
Recordemos que este era solo uno de los casos posibles, así que debemos multiplicar por 2 para
encontrar la probabilidad pedida.
P (|X − Y | > 16) = 2P (X > Y +
16) =
25
36
4.2 Ejercicio 8
En un día una gallina pone N huevos donde N ∼ P(λ). Independientemente de la cantidad de
huevos puestos, de un huevo cualquiera nace un pollito con probabilidad p. Hallar la distribución
de la cantidad de pollitos nacidos.
X = Cantidad de pollitos nacidos
Observemos que (X|N = n) ∼ Bi(n, p), es decir, la cantidad de pollitos que nacen condicionado a
la cantidad de huevos puestos tiene una distribución Binomial.
El espacio muestral de N es infinito numerable, ya que la cantidad de huevos puestos puede ser
en teoría infinito pero se puede contar con los números N0. El conjunto de todos los valores de
n ≥ 0 genera una partición del espacio muestral, ya que la cantidad de huevos puestos son todos
eventos disjuntos. Por lo tanto, para encontrar la distribución de X podemos usar el teorema de
probabilidad total con una suma infinita.
P (X = k) =
∞∑
n=0
P (X = k|N = n)P (N = n) =
∞∑
n=0
(
n
k
)
pk(1− p)n−k e
−λλn
n!
Arrancamos la sumatoria desde k pues los términos anteriores son todos 0 por el combinatorio
(
n
k
)
=
∞∑
n=k
(
n
k
)
pk(1− p)n−k e
−λλn
n!
Aplicamos la fórmula del número combinatorio
10
=
∞∑
n=k
n!
k!(n− k)!
pk(1− p)n−k e
−λλn
n!
Simplificamos los n!
=
∞∑
n=k
pk(1− p)n−ke−λλn
k!(n− k)!
Hacemos aparecer un n− k en la potencia de λ
=
∞∑
n=k
pk(1− p)n−ke−λλn−k+k
k!(n− k)!
Sacamos afuera de la sumatoria todo lo que no depende de n
=
pke−λλk
k!
∞∑
n=k
(1− p)n−kλn−k
(n− k)!
Juntamos el numerador de la sumatoria bajo una única potencia
=
pke−λλk
k!
∞∑
n=k
((1− p)λ)n−k
(n− k)!
Ajustamos el rango de la sumatoria para que arranque en 0, en efecto le sumamos k a todos los n
para compensar, y así se terminan cancelando con todos los k que estaban restando
=
pke−λλk
k!
∞∑
n=0
((1− p)λ)n
n!
Utilizamos esta propiedad del número exponencial:
∑∞
n=0
xn
n! = e
x
=
pke−λλk
k!
e(1−p)λ
Agrupamos las potencias y encontramos la distribución
=
e−λ+(1−p)λ(λp)k
k!
=
e−λp(λp)k
k!
=⇒ X ∼ P(λp)
11
5 Esperanza
5.1 Ejercicio 9
Calcule la esperanza de una variable Binomial de parámetros n y p.
Sea X ∼ Bi(n, p)
Por tener distribución Binomial, su función de densidad puntual está dada por:
pX(k) =
(
n
k
)
pk(1− p)n−k ∀k ∈ N0
Sea RX = {0, . . . , n} el rango de X (el conjunto de todos los posibles valores que puede tomar la
v.a. X)
Utilizando la definición de la esperanza calculamos E(X):
E(X) =
∑
k∈RX
kpX(k) =
n∑
k=0
k
(
n
k
)
pk(1− p)n−k
Reescribimos el rango de la sumatoria empezando en 1 (pues el primer término con k = 0 no aporta
nada):
=
n∑
k=1
k
(
n
k
)
pk(1− p)n−k
Aplicamos la fórmula del número combinatorio:
=
n∑
k=1
k
n!
k!(n− k)!
pk(1− p)n−k
Cancelamos el k sacando un k del k! que está en el denominador:
=
n∑
k=1
n!
(k − 1)!(n− k)!
pk(1− p)n−k
Sacamos un n y un p afuera de la sumatoria:
= np
n∑
k=1
(n− 1)!
(k − 1)!(n− k)!
pk−1(1− p)n−k
12
Volvemos a escribir el combinatorio pero con los nuevos valores:
= np
n∑
k=1
(
n− 1
k − 1
)
pk−1(1− p)n−k
Hacemos aparecer (k − 1) en la potencia:
= np
n∑
k=1
(
n− 1
k − 1
)
pk−1(1− p)(n−1)−(k−1)
Hacemos un cambio de variable: j = k − 1:
= np
n−1∑
j=0
(
n− 1
j
)
pj(1− p)(n−1)−j
Reemplazamos la sumatoria por la fórmula del Binomio de Newton y encontramos la esperanza:
= np(p+ (1− p))n−1 = np =⇒ E(X) = np
5.2 Ejercicio 10
Sea el vector aleatorio (X,Y ) con distribución:
P (X = x, Y = y) =
{
1
10 x = 1, 2, 3, 4 ∧ y = 1, 2, 3, 4 ∧ y ≤ x
0 caso contrario
Calcular el coeficiente de correlación ρ(X,Y ) entre X e Y y decidir si X e Y son o no independientes.
Primero calculamos todas las cosas que vamos a necesitar para resolver el ejercicio.
Calculamos las funciones de probabilidad marginal:
pX(x) =
∑
y∈RY
P (X = x, Y = y) =
x∑
y=1
1
10 =
x−1+1
10 =
x
10
pY (y) =
∑
x∈RX
P (X = x, Y = y) =
4∑
x=y
1
10 =
4−y+1
10 =
5−y
10
Calculamos las esperanzas de X e Y :
13
E(X) =
∑
x∈RX
xpX(x) =
4∑
x=1
x2
10 =
1
10 +
4
10 +
9
10 +
16
10 = 3
E(Y ) =
∑
y∈RY
ypY (y) =
4∑
y=1
y(5−y)
10 =
4
10 +
6
10 +
6
10 +
4
10 = 2
Calculamos la esperanza de XY :
E(XY ) =
∑
x∈RX
∑
y∈RY
xyP (X = x, Y = y) =
4∑
x=1
x∑
y=1
xy
10 =
1
10 +
2
10 +
4
10 +
3
10 +
6
10 +
9
10 +
4
10 +
8
10 +
12
10 +
16
10 = 6.5
Calculamos las esperanzas de X2 e Y 2:
E(X2) =
∑
x∈RX
x2PX(x) =
4∑
x=1
x3
10 =
1
10 +
8
10 +
27
10 +
64
10 = 10
E(Y 2) =
∑
y∈RY
y2PY (y) =
4∑
y=1
y2(5−y)
10 =
4
10 +
12
10 +
18
10 +
16
10 = 5
Calculamos las varianzas y los desvíos estándar de X e Y :
V (X) = E(X2)− E(X)2 = 10− 32 = 1 =⇒ σX =
√
V (X) = 1
V (Y ) = E(Y 2)− E(Y )2 = 5− 22 = 1 =⇒ σY =
√
V (Y ) = 1
Calculamos la covarianza:
Cov(X,Y ) = E(XY )− E(X)E(Y ) = 6.5− 3 ∗ 2 = 0.5
Finalmente calculamos el coeficiente de correlación:
ρ(X,Y ) =
Cov(X,Y )
σXσY
=
0.5
1 ∗ 1
= 0.5
Para decidir si X e Y son independientes, observemos primero que si fuesen independientes, entonces
valdría que E(XY ) = E(X)E(Y ) =⇒ Cov(X,Y ) = 0. Pero como Cov(X,Y ) = 0.5 ̸= 0 podemos
afirmar entonces que no son independientes.
14
6 Esperanza condicional
6.1 Ejercicio 11
Se lanza un dado un equilibrado. Notamos X el número obtenido e Y = 1 si el número es par,
Y = 0 sino. Calcule E(X|Y = 1) y E(Y |X ≤ 4).
Intuitivamente podemos decir que E(X|Y = 1) = 4 pues al condicionar Y = 1 nos estamos
quedando únicamente con los números pares: 2, 4, 6 y al ser un dado equilibrado, la probabilidad
de obtener cualquiera de estos valores es la misma, por lo tanto la esperanza resulta el promedio
de los valores posibles: 2+4+63 = 4.
Hagamos las cuentas. Primero armamos la tabla de probabilidad conjunta:
Y/X 1 2 3 4 5 6 pY
0 1/6 0 1/6 0 1/6 0 1/2
1 0 1/6 0 1/6 0 1/6 1/2
pX 1/6 1/6 1/6 1/6 1/6 1/6 1
Buscamos la función de probabilidad condicional de X|Y = 1:
pX|Y=1(x) =
pXY (x, 1)
pY (1)
=
pXY (x, 1)
1
2
= 2pXY (x, 1)
Ahora podemos calcular la esperanza:
E(X|Y = 1) =
∑
x∈RX
xpX|Y=1(x) =
6∑
x=1
2xpXY (x, 1) = 0 +
4
6 + 0 +
8
6 + 0 +
12
6 = 4
Con la misma intuición que antes, podemos decir que E(Y |X ≤ 4) = 0.5 pues al condicionar X ≤ 4
nos estamos quedando únicamente con los números: 1, 2, 3, 4 de los cuales hay 2 pares y 2 impares.
Como la v.a. Y asigna 0 o 1 dependiendo si es par o impar, al calcular el promedio obtenemos
0+1+0+1
4 =
1
2 .
Buscamos la función de probabilidad condicional de Y |X ≤ 4:
pY |X≤4(y) =
∑4
x=1 pXY (x, y)∑4
x=1 pX(x)
El numerador depende de y por lo tanto no podemos simplificarlo aún, pero el denominador sí ya
podemos calcularlo mirando la tabla:
4∑
x=1
pX(x) =
4
6 =
2
3
15
Por lo tanto:
pY |X≤4(y) =
∑4
x=1 pXY (x, y)
2
3
=
3
2
4∑
x=1
pXY (x, y)
Ahora podemos calcular la esperanza:
E(Y |X ≤ 4) =
∑
y∈RY
ypY |X≤4(y) =
1∑
y=0
(
y
3
2
4∑
x=1
pXY (x, y)
)
=
3
2
4∑
x=1
pXY (x, 1) =
3
2
(
0 +
1
6
+ 0 +
1
6
)
= 12
6.2 Ejercicio 12
Sea (X,Y ) un vector aleatorio con función de densidad:
fXY (x, y) = λ
2e−λyI{0<x<y}
Qué distribución tiene X|Y = y para y > 0?
Primero calculamos la función de densidad marginal de Y :
fY (y) =
∫ ∞
−∞
fXY (x, y)dx =
∫ y
0
λ2e−λydx =
[
xλ2e−λy
]y
0
= yλ2e−λyI{0<y}
Luego planteamos la función de densidad condicional:
fX|Y=y(x, y) =
fXY (x, y)
fY (y)
=
λ2e−λyI{0<x<y}
yλ2e−λyI{0<y}
=
1
y
I{0<x<y}
Como y está fijo =⇒ (X|Y = y) ∼ U [0, y]
7 Generación de variables aleatorias
7.1 Ejercicio 13
Sea F la función de distribución acumulada de una distribución de probabilidad f . Supongamos
para simplificar que F es una biyección de R en (0, 1). Demuestre que si U ∼ U [0, 1], entonces
Y := F−1(U) tiene distribución f .
FY (t) = P (Y ≤ t) = P (F−1(U) ≤ t)
Como F es una biyección en (0, 1) vale que F (F−1(U)) = U siendo U ∼ U [0, 1] y además al ser una
función de distribución acumulada, es una función creciente y por lo tanto se mantiene la dirección
de la desigualdad:
16
FY (t) = P (F (F
−1(U)) ≤ F (t)) = P (U ≤ F (t)) = FU (F (t))
Derivamos para buscar la función de densidad. Observemos que por definición F : R → [0, 1] y
como U es una uniforme estándar,fU (u) = 1 ∀u ∈ [0, 1]:
fY (t) = fU (F (t))f(t) = 1f(t) = f(t)
7.2 Ejercicio 14
Sea U ∼ U [0, 1]. Demuestre que −log(1−U)λ ∼ E(λ).
Asumimos que log = ln.
X = −ln(1−U)λ
FX(x) = P (X ≤ x)
= P
(−ln(1− U)
λ
≤ x
)
= P (−ln(1− U) ≤ λx)
= P (ln(1− U) ≥ −λx)
= P (1− U ≥ e−λx)
= P (U ≤ 1− e−λx)
= FU (1− e−λx)
Busquemos el RX :
RU = [0, 1] =⇒
{
limU→0X = 0
limU→1X = +∞
=⇒ RX = [0,+∞)
Por lo tanto:
{
limx→0 1− e−λx = 0
limx→+∞ 1− e−λx = 1
=⇒ 1− e−λx ∈ [0, 1] ∀x ∈ RX
Como FU (u) = u ∀0 ≤ u ≤ 1 por ser la acumulada de una variable con distribución uniforme
estándar:
FX(x) = FU (1− e−λx) = 1− e−λx
17
Ahora derivamos para obtener la función de densidad de X:
fX(x) =
∂
∂x
FX(x) = λe
−λx =⇒ X ∼ E(λ)
8 Función característica
8.1 Ejercicio 15
Sea X1, X2, . . . v.a.i.i.d. distribución exponencial E(λ), y N una variable aleatoria geométrica
independiente de los Xi. Calcular la función característica de Z :=
∑N
i=1Xi y deducir la distribución
de Z.
No me gusta este ejercicio.
9 Convergencia de variables aleatorias
9.1 Ejercicio 16
Sea Un ∼ Uniforme{ 1n ,
2
n , . . . ,
n
n}. Calcule el límite en distribución de Un cuando n → ∞.
Sea RUn = { 1n ,
2
n , . . . ,
n
n} el rango de Un.
Observemos que el conjunto infinito numerable RUn está contenido en el intervalo contínuo [0, 1]:
min(RUn) = 1n
n→∞−−−→ 0
max(RUn) = nn = 1 ∀n ̸= 0
Sea F : R → R la función de distribución acumulada de Un cuando n → ∞. Por lo explicado
anteriormente:
F (x) = P (Un ≤ x) =
{
0 si x < 0
1 si x > 1
Veamos qué pasa cuando x ∈ [0, 1].
Como Un es una v.a. discreta, su acumulada va a ser una sumatoria y por eso necesitamos encontrar
una forma de enumerar todos los elementos del conjunto RUn .
∀k ∈ N, 1 ≤ k ≤ n, kn ∈ RUn =⇒ ∀x ∈ R, 0 ≤ x ≤ 1,
k
n ≤ x ⇐⇒ k ≤ [xn]
Como #RUn = n y Un tiene distribución uniforme discreta, la probabilidad puntual está dada por:
P
(
Un =
k
n
)
=
1
n
∀1 ≤ k ≤ n
18
Planteamos la función de distribución acumulada de Un:
F (x) = P (Un ≤ x) =
[xn]∑
k=1
P
(
Un =
k
n
)
=
[xn]∑
k=1
1
n
= ([xn]− 1 + 1) 1
n
=
[xn]
n
Veamos qué pasa cuando n → ∞.
F (x) =
[xn]
n
=
[xn]
n
xn
xn
=
[xn]
xn
xn
n
=
[xn]
xn
x
n→∞−−−→ x
Recordemos que [xn]xn
n→∞−−−→ 1 pues:
xn− 1 ≤ [xn] ≤ xn ⇐⇒ xn− 1
xn
≤ [xn]
xn
≤ xn
xn
⇐⇒ 1− 1
xn
≤ [xn]
xn
≤ 1 n→∞−−−→ 1 ≤ [xn]
xn
≤ 1 =⇒ [xn]
xn
= 1
Por lo tanto, F (x) = x ∀x ∈ R, 0 ≤ x ≤ 1 cuando n → ∞. Armemos entonces la función de
distribución acumulada con todos los casos:
F (x) =

0 si x < 0
x si 0 ≤ x ≤ 1
1 si x > 1
=⇒ Un ∼ U [0, 1] cuando n → ∞
9.2 Ejercicio 17
Enunciar y demostrar las desigualdades de Markov y Tchebyshev.
Desigualdad de Markov
Sea X una v.a. cualquiera que solo toma valores no negativos. Entonces:
∀ϵ > 0, P (X ≥ ϵ) ≤ E(X)
ϵ
Demostración:
Dado ϵ > 0, definimos una v.a.
I
{
1 si X ≥ ϵ
0 caso contrario
Notemos que I ≤ Xϵ pues:
19
ϵ ≤ X =⇒ 1 ≤ Xϵ ∧ I = 1 =⇒ I ≤
X
ϵ
0 ≤ X < ϵ =⇒ 0 ≤ Xϵ < 1 ∧ I = 0 =⇒ I ≤
X
ϵ
Ya que I solo toma valores discretos 0 o 1.
Ahora tomamos esperanza de ambos lados:
I ≤ Xϵ =⇒ E(I) ≤ E
(
X
ϵ
)
=
E(X)
ϵ
Finalmente veamos que I es un ensayo de Bernoulli con probabilidad P (X ≥ ϵ). Por lo tanto:
E(I) = P (X ≥ ϵ) ≤ E(X)
ϵ
Desigualdad de Tchebyshev
Sea X una v.a. con E(X) = µ y V (X) = σ2 < ∞. Entonces:
∀ϵ > 0, P (|X − µ| ≥ ϵ) ≤ σ
2
ϵ2
Demostración:
Dado que (X − µ)2 es una v.a. no negativa, podemos aplicar la desigualdad de Markov:
∀ϵ > 0, P ((X − µ)2 ≥ ϵ2) ≤
E
(
(X − µ)2
)
ϵ2
Teniendo en cuenta que (X − µ)2 ≥ ϵ2 ⇐⇒ |X − µ| ≥ ϵ:
∀ϵ > 0, P (|X − µ| ≥ ϵ) ≤
E
(
(X − µ)2
)
ϵ2
=
V (X)
ϵ2
=
σ2
ϵ2
9.3 Ejercicio 18
Enuncie y demuestre la Ley de los Grandes Números para variables aleatorias con segundo momento
finito (admitiendo Tchebyshev).
Sean X1, . . . , Xn v.a.i.i.d. (muestra aleatoria) con E(X) = µ y V (X) = σ2 < ∞. Sea Xn =
1
n
∑n
i=1Xi el promedio muestral. Entonces:
20
Xn
p−→ µ
Es decir:
∀ϵ > 0 lim
n→∞
P
( ∣∣ Xn − µ ∣∣ ≥ ϵ) = 0
Demostración:
Veamos la esperanza y varianza de Xn:
E(Xn) = E
( 1
n
n∑
i=1
Xi
)
=
1
n
n∑
i=1
E(Xi)
Xii.i.d.=
nE(X)
n
= E(X) = µ
V (Xn) = V
( 1
n
n∑
i=1
Xi
)
=
1
n2
n∑
i=1
V (Xi)
Xii.i.d.=
nV (X)
n2
=
V (X)
n
=
σ2
n
Notemos que V (X) < ∞ pues en el enunciado nos dicen que la v.a. tiene segundo momento finito:
E(X2) < ∞ =⇒ E(X) < ∞ =⇒ V (X) = E(X2)− E(X)2 < ∞
Aplicamos entonces la desigualdad de Tchebyshev:
∀ϵ > 0, P
( ∣∣ Xn − E(Xn) ∣∣ ≥ ϵ) ≤ V (Xn)
ϵ2
⇐⇒ P
( ∣∣ Xn − µ ∣∣ ≥ ϵ) ≤ σ2
nϵ2
Tomamos límite cuando n → ∞:
lim
n→∞
P
( ∣∣ Xn − µ ∣∣ ≥ ϵ) ≤ lim
n→∞
σ2
nϵ2
= 0
Luego Xn
p−→ µ como queríamos probar.
9.4 Ejercicio 19
Sea Xn una variable Poisson(λn). Demuestre que Xnn converge en probabilidad a λ.
E(Xn) = λn =⇒ E
(
Xn
n
)
= E(Xn)n =
λn
n = λ
V (Xn) = λn =⇒ V
(
Xn
n
)
= V (Xn)
n2
= λn
n2
= λn
21
Por Tchebyshev:
∀ϵ > 0, P
( ∣∣ Xn
n − E
(
Xn
n
) ∣∣ ≥ ϵ) ≤ V (Xnn )
ϵ2
=⇒ P
( ∣∣ Xn
n − λ
∣∣ ≥ ϵ) ≤ λ
nϵ2
Nuestra medida de probabilidad ∈ [0, 1] por definición. Entonces, tomando límite cuando n → ∞:
0 ≤ P
( ∣∣ Xn
n − λ
∣∣ ≥ ϵ) ≤ λ
nϵ2
n→∞−−−→ 0 ≤ P
( ∣∣ Xn
n − λ
∣∣ ≥ ϵ) ≤ 0 =⇒ lim
n→∞
P
( ∣∣ Xn
n − λ
∣∣ ≥ ϵ) = 0
Lo cual es exactamente la definición de convergencia en probabilidad. Por lo tanto, Xnn converge
en probabilidad a λ.
9.5 Ejercicio 20
Sean X1, X2, . . . v.a. i.i.d. con función de distribución exponencial de parámetro λ y sean Y1, Y2, . . .
v.a. i.i.d. e independientes de las Xi con distribución uniforme en (0, 1). Considerar las variables:
Zn =
1
n
n∑
i=1
I{Xi≤1}I{Yi≤0.5}
Hallar la esperanza y la varianza de Zn, y el valor del límite en probabilidad de Zn.
Observemos que las indicadoras evalúan a 0 o 1 en función de una probabilidad de Xi e Yi. Por lo
tanto, son en sí mismas v.a. con distribución Bernoulli.
I{Xi≤1} ∼ Bernoulli(pX) con pX = P (Xi ≤ 1) = 1− e−λ pues Xi ∼ E(λ)
I{Yi≤0.5} ∼ Bernoulli(pY ) con pY = P (Yi ≤ 0.5) = 0.5 pues Yi ∼ U [0, 1]
Calculemos la esperanza:
E(Zn) = E
( 1
n
n∑
i=1
I{Xi≤1}I{Yi≤0.5}
)
Por la linealidad de la esperanza:
E(Zn) =
1
n
n∑
i=1
E(I{Xi≤1}I{Yi≤0.5})
Porque Xi e Yi son independientes entre sí:
22
E(Zn) =
1
n
n∑
i=1
E(I{Xi≤1})E(I{Yi≤0.5})
Porque Xi e Yi son i.i.d.:
E(Zn) =
1
n
nE(I{Xi≤1})E(I{Yi≤0.5}) = E(I{Xi≤1})E(I{Yi≤0.5})
Calculemos las esperanzas individuales. Recordemos que las indicadoras son v.a. Bernoulli, y la
esperanza de una Bernoulli de parámetro p es p:
E(I{Xi≤1}) = px = 1− e
−λ
E(I{Yi≤0.5}) = pY = 0.5
Finalmente:
E(Zn) = pXpy = (1− e−λ)0.5 = 0.5− 0.5e−λ
Ahora calculemos la varianza:
V (Zn) = V
( 1
n
n∑
i=1
I{Xi≤1}I{Yi≤0.5}
)
=
1
n2
n∑
i=1
V (I{Xi≤1}I{Yi≤0.5}) =
1
n
V (I{Xi≤1}I{Yi≤0.5})
La varianza de una Bernoulli de parámetro p es p(1− p), y la varianza del producto de 2 Bernoulli
independientes con parámetros pX y pY es pXpY (1− pXpY ). Por lo tanto:
V (Zn) =
1
n
(
pXpY (1− pXpY )
)
=
1
n
(
(0.5− 0.5e−λ)(1− (0.5− 0.5e−λ))
)
=
1
n
(
(0.5− 0.5e−λ)(0.5 + 0.5e−λ)
)
=
1
n
(
0.52 − (0.5e−λ)2
)
=
1
n
(
0.25− 0.25e−2λ
)
Dado que Zn es el promedio de v.a.i.i.d. con varianza finita, por la Ley de los Grandes Números:
23
Zn
p−→ E(Z) = E(I{X≤1}I{Y≤0.5}) = 0.5− 0.5e−λ
Demostración auxiliar de que el producto de 2 Bernoulli independientes de parámetros p y q es una
Bernoulli de parámetro pq.
Sean A ∼ Bernoulli(p), B ∼ Bernoulli(q) y C = A ∗B.
P (C = 1) = P (A = 1, B = 1) = P (A = 1)P (B = 1) = pq
P (C = 0) = P (A = 0, B = 0) + P (A = 1, B = 0) + P (A = 0, B = 1)
= P (A = 0)P (B = 0) + P (A = 1)P (B = 0) + P (A = 0)P (B = 1)
= (1− p)(1− q) + p(1− q) + (1− p)q
= 1− q − p+ pq + p− pq + q − pq
= 1− pq
Por lo tanto =⇒ C ∼ Bernoulli(pq)
9.6 Ejercicio 21
Enuncie el Teorema Central del Límite. Sea Yn ∼ P(λn). Demuestre que Yn−nλ√nλ converge en
distribución a una variable N (0, 1) cuando n → +∞.
Sean X1, . . . , Xn variables aleatorias independientes e idénticamente distribuídas, con E(Xi) = µ
y V (Xi) = σ2 < ∞ ∀i. Entonces, si n es suficientemente grande:
T − nµ√
nσ
d−→ Z ∼ N (0, 1)
√
n(X̄ − µ)
σ
d−→ Z ∼ N (0, 1)
Siendo T =
∑n
i=1Xi y X̄ = Tn .Ambas expresiones son equivalentes.
Sean Y1, . . . , Yn v.a.i.i.d. tales que Yi ∼ P(λ) ∀i. Si Yn =
∑n
i=1 Yi =⇒ Yn ∼ P(nλ).
Sabiendo que E(Yi) = V (Yi) = λ ∀i, por el TCL previamente enunciado resulta inmediato que:
Yn − nE(Yi)√
nV (Yi)
=
Yn − nλ√
nλ
d−→ Z ∼ N (0, 1)
24
Demostración auxiliar de que Yn ∼ P(nλ) utilizando la función característica:
Yn =
n∑
i=1
Yi =⇒ ΦYn(t) =
n∏
i=1
ΦYi(t)
Yii.i.d.=
(
ΦYi(t)
)n
=
(
eλ(e
it−1)
)n
= enλ(e
it−1) = ΦP(nλ)(t) =⇒ Yn ∼ P(nλ)
10 Procesos de Poisson
10.1 Ejercicio 22
Los clientes llegan a un banco de acuerdo a un proceso de Poisson de parámetro 3 por minuto, cuál
es la probabilidad que los tres primeros clientes lleguen antes de los 3 primeros minutos?
Sea X ∼ P(9) un proceso de Poisson que modela la llegada de clientes con una tasa de 9 clientes
cada 3 minutos.
Queremos ver la probabilidad de que X ≥ 3, es decir, que para el minuto 3 ya hayan llegado al
menos 3 clientes.
P (X ≥ 3) = 1− P (X ≤ 2)
= 1−
2∑
x=0
P (X = x)
= 1−
2∑
x=0
9xe−9
x!
= 1− e−9(1 + 9 + 81
2
) ≈ 0.9938
10.2 Ejercicio 23
Consideramos un proceso de Poisson de tasa λ. Calcule la probabilidad que ocurran simultanea-
mente los eventos A y B.
A = {hay 3 llegadas en el intervalo [0, 3]}
B = {hay 4 llegadas en el intervalo (3, 4]}
Sea X ∼ P(λ) v.a. que mide la cantidad de llegadas por una unidad del intervalo.
Observemos que la probabilidad de ocurrencia de 2 eventos en intervalos disjuntos de un proceso
de Poisson son independientes, es decir P (A ∩B) = P (A)P (B).
Además, por la propiedad de “falta de memoria”, la probabilidad de llegada en cierto intervalo es
la misma para cualquier intervalo de la misma longitud. Entonces la probabilidad en el intervalo
(3, 4] es la misma que en el intervalo (0, 1].
Por lo tanto planteamos las siguientes v.a. para calcular la probabilidad de cada evento:
Sean XA ∼ P(3λ), XB ∼ P(λ) v.a. que miden la cantidad de llegadas en los intervalos [0, 3] y (3, 4]
respectivamente.
25
P (A ∩B) = P (A)P (B) = P (XA = 3)P (XB = 4) =
(3λ)3e−3λ
3!
λ4e−λ
4!
=
3λ7e−4λ
16
11 Estimadores
11.1 Ejercicio 24
Hallar el estimador de momentos de θ para la distribución Uniforme[−θ, θ].
Sea X1, . . . , Xn una muestra aleatoria de una distribución U [−θ, θ]
Si bien hay un único parámetro a estimar, en este caso no podemos plantear una ecuación basada
en el primer momento ya que éste no depende de θ:
X = E(X) =
−θ + θ
2
= 0
Por lo tanto planteamos la ecuación basada en el segundo momento:
1
n
n∑
i=1
X2i = X
2 = E(X2)
Calculemos E(X2):
V (X) = E(X2)− E(X)2 ⇐⇒ E(X2) = V (X) + E(X)2 = (θ − (−θ))
2
12
+
−θ + θ
2
=
θ2
3
Luego:
X2 = E(X2) =
θ2
3
=⇒ θ̂ =
√
3X2
11.2 Ejercicio 25
Hallar el estimador de máxima verosimilitud de p para la variable X ∼ Bernoulli(p).
Veamos la función de densidad de X:
fX(k) = p
k(1− p)1−k k ∈ {0, 1}
Planteamos la función de máxima verosimilitud:
26
L(p) = fX(xi, . . . , xn) =
n∏
i=1
fX(xi) =
n∏
i=1
pxi(1− p)1−xi = p
∑n
i=1 xi(1− p)
∑n
i=1 1−xi
Le tomamos logaritmo para simplificar las cuentas. Esto vale porque la función logaritmo es
monótona creciente y por lo tanto el argumento que maximiza ln(L(p)) es el mismo para L(p). Es
decir, ambas funciones alcanzan su máximo en los mismos puntos.
ln(L(p)) =
( n∑
i=1
xi
)
ln(p) +
( n∑
i=1
1− xi
)
ln(1− p)
Ahora derivamos para encontrar el punto crítico:
∂
∂p ln(L(p)) =
1
p
( n∑
i=1
xi
)
− 11−p
( n∑
i=1
1− xi
)
= 0
⇐⇒ 1p
( n∑
i=1
xi
)
= 11−p
( n∑
i=1
1− xi
)
⇐⇒ 1p
( n∑
i=1
xi
)
= 11−p
(
n−
n∑
i=1
xi
)
⇐⇒ 1−pp =
n−
∑n
i=1 xi∑n
i=1 xi
⇐⇒ 1p − 1 =
n∑n
i=1 xi
− 1
⇐⇒ 1p =
n∑n
i=1 xi
⇐⇒ p =
∑n
i=1 xi
n
⇐⇒ p = X
Encontramos un punto crítico en p = X. Para confirmar que es el máximo absoluto, veamos los
límites hacia los extremos del dominio de la función ln(L(p)) el cual está definido en p ∈ [0, 1].
lim
p→0
ln(L(p)) = lim
p→0
(( n∑
i=1
xi
)
ln(p) +
( n∑
i=1
1− xi
)
ln(1− p)
)
= −∞+ 0 = −∞
lim
p→1
ln(L(p)) = lim
p→1
(( n∑
i=1
xi
)
ln(p) +
( n∑
i=1
1− xi
)
ln(1− p)
)
= 0−∞ = −∞
Entonces en efecto p = X es el argumento que maximiza L(p) ya que es el único punto crítico
encontrado y ambos extremos del dominio tienden a −∞. Así el estimador de máxima verosimilitud
resulta:
27
p̂MV = X
11.3 Ejercicio 26
Hallar el estimador de máxima verosimilitud del párametro a de la siguiente distribución donde
a > 1. Es consistente?
f(x) =
{
ax−(a+1) si x ≥ 1
0 en otro caso
Sea X1, . . . , Xn una muestra aleatoria con distribución f(x) y asumimos que son i.i.d.
Planteamos la función de máxima verosimilitud. Asumimos que xi ≥ 1 ∀i pues sino f(xi) = 0.
L(a) = f(x1, . . . , xn) =
n∏
i=1
f(xi) =
n∏
i=1
ax
−(a+1)
i
Le tomamos logaritmo para simplificar las cuentas. Esto vale porque la función logaritmo es
monótona creciente y por lo tanto el argumento que maximiza ln(L(a)) es el mismo para L(a).
ln(L(a)) = ln
( n∏
i=1
ax
−(a+1)
i
)
=
n∑
i=1
ln
(
ax
−(a+1)
i
)
=
n∑
i=1
(
ln(a) + ln
(
x
−(a+1)
i
))
=
( n∑
i=1
ln(a)
)
+
( n∑
i=1
−(a+ 1)ln(xi)
)
= nln(a)− (a+ 1)
n∑
i=1
ln(xi)
Derivamos e igualamos a 0 para buscar los puntos críticos:
∂
∂a
ln(L(a)) =
n
a
−
n∑
i=1
ln(xi) = 0 ⇐⇒
n
a
=
n∑
i=1
ln(xi) = nln(X)
=⇒ â = n
nln(X)
=
(
ln(X)
)−1
28
Verifiquemos que el argumento encontrado es el que maximiza la función mediante el criterio de la
segunda derivada:
∂2
∂a2
ln(L(a)) =
−n
a2
Como n > 0 y a2 > 0 la segunda derivada es siempre negativa, por lo tanto el argumento encontrado
es el máximo.
Veamos si es consistente. Por definición, el estimador â es consistente si:
∀ϵ > 0, P (|â− a| > ϵ) n→∞−−−→ 0
Sea Y = ln(X). Busquemos la distribución de Y :
FY (y) = P (Y ≤ y) = P (ln(X) ≤ y) = P (X ≤ ey) = FX(ey)
fY (y) =
∂
∂yFY (y) = fX(e
y)ey = a(ey)−(a+1)ey = ae−ay
=⇒ Y ∼ E(a)
Considerando Y el promedio de una muestra Y1, . . . , Yn v.a.i.i.d. y que a > 0:
â =
(
ln(X)
)−1
= (Y )−1
LGN−−−→
n→∞
E(Y )−1 =
(
1
a
)−1
= a
Por lo tanto â es consistente pues:
∀ϵ > 0, P (|â− a| > ϵ) n→∞−−−→ P (|a− a| > ϵ) = P (0 > ϵ) = 0
11.4 Ejercicio 27
Sea X1, . . . , Xn una muestra de la distribución:
f(x; θ) = e−(x−θ)I{x≥θ}
Hallar el estimador de máxima verosimiltud de θ. Es consistente?
Planteamos la función de máxima verosimilitud:
29
L(θ) = f(x1, . . . , xn) =
n∏
i=1
f(xi) =
n∏
i=1
e−(xi−θ)I{xi≥θ} =
n∏
i=1
e−(xi−θ)
n∏
i=1
I{xi≥θ}
= e
∑n
i=1 −(xi−θ)
n∏
i=1
I{xi≥θ} = e
∑n
i=1(−xi+θ)
n∏
i=1
I{xi≥θ} = e
∑n
i=1 −xie
∑n
i=1 θ
n∏
i=1
I{xi≥θ}
= e
∑n
i=1 −xienθ
n∏
i=1
I{xi≥θ}
Ahora queremos ver qué valores de θ maximizan L(θ). Analizamos cada término:
e
∑n
i=1 −xi Es una constante, así que podemos ignorar este término.
enθ
θ→∞−−−→ ∞ Esto nos dice que queremos el θ más grande posible.
Pero también necesitamos que la productoria de la indicadora de 1 para todos los Xi. Veamos
cuándo pasa eso:
n∏
i=1
I{xi≥θ} = 1 ⇐⇒ θ ≤ Xi ∀1 ≤ i ≤ n ⇐⇒ θ ≤ min1≤i≤nXi
Por lo tanto el θ más grande que podemos elegir es el mínimo de todos los Xi y ese es el estimador
de máxima verosimilitud:
θ̂ = min1≤i≤nXi
Para ver la consistencia, veamos primero el sesgo del estimador y luego buscamos su varianza.
Sea U = min1≤i≤nXi
FU (u) = P (U ≤ u) = 1− P (U ≥ u) = 1− P (min1≤i≤nXi ≥ u)
Observación:
min1≤i≤nXi ≥ u =⇒ Xi ≥ u ∀1 ≤ i ≤ n
Es decir, si el Xi mínimo es mayor que u, entonces todos los Xi son mayores que u.
30
1− P (min1≤i≤nXi ≥ u) = 1− P (∩ni=1Xi ≥ u)
= 1−
n∏
i=1
P (Xi ≥ u) = 1−
n∏
i=1
(1− P (Xi ≤ u))
= 1−
n∏
i=1
(1− FXi(u)) = 1−
n∏
i=1
(1− FX(u))
= 1− (1− FX(u))n
Para el desarrollo anterior usamos que todas las Xi son i.i.d. Recapitulando:
FU (u) = 1− (1− FX(u))n
No sabemos cómo es FX , calculemos eso antes de seguir:
FX(t) =
∫ t
−∞
f(x)dx =
∫ t
−∞
e−(x−θ)I{x≥θ}dx =
∫ t
θ
e−(x−θ)dx =
{
1− eθ−t t ≥ θ
0 t < θ
Ahora sí podemos seguir y encontrar FU :
FU (u) = 1− (1− (1− eθ−u))n = 1− e−n(θ−u)I{u≥θ}
Observemos que la distribución de U se corresponde a una distribución Y = Z + θ con Z ∼ E(n)
pues:
FY (y) = P (Y ≤ y) = P (Z + θ ≤ y) = P (Z ≤ y − θ) = FZ(y − θ)= 1− e−n(y−θ)I{y−θ≥0}
Por lo tanto:
E(θ̂) = E(Y ) = E(Z + θ) = E(Z) + θ =
1
n
+ θ
n→∞−−−→ θ
V (θ̂) = V (Y ) = V (Z + θ) = V (Z) =
1
n2
n→∞−−−→ 0
=⇒ θ̂ es consistente
31
11.5 Ejercicio 28
Defina el error cuadrático medio (ECM) de un estimador y demuestre que es la suma de la varianza
mas el cuadrado del sesgo.
Sea θ̂ un estimador de θ. Su error cuadrático medio (ECM) es:
ECM(θ̂) = E((θ̂ − θ)2)
V (θ̂) + sesgo(θ̂)2 = E(θ̂2)− E(θ̂)2 + (E(θ̂)− θ)2
= E(θ̂2)− E(θ̂)2 + E(θ̂)2 − 2θE(θ̂) + θ2
= E(θ̂2 − 2θθ̂ + θ2)
= E((θ̂ − θ)2)
11.6 Ejercicio 29
Decir si los estimadores de momentos y de máxima verosimilitud de θ para X ∼ U [0, θ] son inses-
gados y/o asintóticamente insesgados.
Estimador de momentos
E(θ̂M ) = E(2X) = 2E(X) = 2E
( 1
n
n∑
i=1
Xi
)
=
2
n
n∑
i=1
E(Xi) =
2
n
nE(X) = 2E(X) = 2
0 + θ
2
= θ
=⇒ θ̂M es insesgado pues su esperanza coincide con el parámetro que estima.
Estimador de máxima verosimilitud
Recordemos que los estimadores son en sí mismos variables aleatorias. Entonces para calcular la
esperanza de θ̂MV vamos a necesitar conocer su función de densidad. Y para eso primero buscamos
la función acumulada y luego la derivamos.
Sea U = max1≤i≤nXi una v.a. (podríamos llamarla θ̂MV también pero así quedá más claro para
leer).
FU (u) = P (U ≤ u) = P (max1≤i≤nXi ≤ u)
Observación:
max1≤i≤nXi ≤ u =⇒ Xi ≤ u ∀1 ≤ i ≤ n
Es decir, si el Xi máximo es menor que u, entonces todos los Xi son menores que u:
32
P (max1≤i≤nXi ≤ u) = P (∩ni=1Xi ≤ u) =
n∏
i=1
P (Xi ≤ u) =
n∏
i=1
FX(u) = FX(u)
n
Para el desarrollo anterior usamos que todas las Xi son i.i.d. Recapitulando:
FU (u) = FX(u)
n
Como X ∼ U(0, θ), sabemos exactamente cómo es FX y por lo tanto podemos plantear directamente
FU :
FU (u) =

0 u < 0(
u
θ
)n
0 ≤ u ≤ θ
1 θ < u
Muy bien, ahora que tenemos FU podemos derivar para obtener fU :
fU (u) =
∂
∂uFU (u) =
nun−1
θn
I[0,θ](u)
Finalmente podemos calcular la esperanza de θ̂MV :
E(θ̂MV ) = E(U) =
∫ θ
0
ufU (u)du =
∫ θ
0
unu
n−1
θn du =
n
θn
∫ θ
0
undu =
n
θn
[
un+1
n+1
]θ
0
=
n
θn
∗ θ
n+1
n+ 1
=
n
n+ 1
θ
=⇒ E(θ̂MV ) =
n
n+ 1
θ
θ̂MV es asintóticamente insesgado pues:
E(θ̂MV ) =
n
n+ 1
θ
n→∞−−−→ θ
12 Intervalos de confianza
12.1 Ejercicio 30
Sean X1, . . . , Xn v.a.i.i.d. con distribución Exponenial de parámetro λ. Halle un intervalo de
confianza de nivel exactamente 1− α para el parámetro λ. Sugerencia: se podrá usar (después de
probarlo) que si X ∼ E(λ) entonces 2λX ∼ E(12) por lo que 2λ
∑n
i=1Xi ∼ Γ(n,
1
2) = X
2
2n.
Sean X ∼ E(λ), Y = 2λX
33
Buscamos la distribución de Y :
FY (y) = P (Y ≤ y) = P (2λX ≤ y) = P (X ≤ y2λ) = FX(
y
2λ)
fY (y) =
∂
∂yFY (y) =
∂
∂yFX(
y
2λ) = fX(
y
2λ)
1
2λ = λe
−λ y2λ 1
2λ =
1
2e
−y2
=⇒ Y = 2λX ∼ E(12)
Buscamos la distribución de
∑n
j=1 Yj usando la función característica:
Φ∑n
j=1 Yj
(t) =
n∏
j=1
ΦYj (t)
Yji.i.d.
=
(
ΦY (t)
)n
=
( 1
2
1
2 − it
)n
= Φ
Γ(n,
1
2 )
(t) =⇒
n∑
j=1
Yj ∼ Γ(n, 12) = X
2
2n
Usamos como pivote a la siguiente función:
T (X1, . . . , Xn;λ) = 2λ
n∑
i=1
Xi
Y usamos la siguiente notación para los cuantiles (consideramos el área hacia la izquierda):
P (X 22n ≤ X 22n,q) = q
Ahora podemos obtener un intervalo de confianza de nivel exacto 1− α para el parámetro λ:
P
(
X 22n,α/2 ≤ 2λ
n∑
i=1
Xi ≤ X 22n,1−α/2
)
= 1− α
P
( X 22n,α/2
2
∑n
i=1Xi
≤ λ ≤
X 22n,1−α/2
2
∑n
i=1Xi
)
= 1− α
El intervalo de confianza resulta:
[ X 22n,α/2
2
∑n
i=1Xi
,
X 22n,1−α/2
2
∑n
i=1Xi
]
34
12.2 Ejercicio 31
Construya un intervalo de confianza de nivel 1−α para la media de la distribución normal N (µ, σ2)
con varianza conocida. Y si no se conoce la varianza?
Sea X1, . . . , Xn una muestra aleatoria de una población N (µ, σ2) con la varianza σ2 conocida.
X ∼ N (µ, σ2n ) ⇐⇒
√
n
X − µ
σ
∼ N (0, 1)
Usamos como pivote a la siguiente función:
T (X1, . . . , Xn;µ) =
√
n
X − µ
σ
Y usamos la siguiente notación para los cuantiles (consideramos el área hacia la izquierda):
P (Z ≤ zq) = q
Ahora podemos obtener un intervalo de confianza de nivel 1− α para la media µ con varianza σ2
conocida:
P
(
zα/2 ≤
√
n
X − µ
σ
≤ z1−α/2
)
= 1− α
P
(
zα/2
σ√
n
−X ≤ −µ ≤ z1−α/2
σ√
n
−X
)
= 1− α
P
(
X − z1−α/2
σ√
n
≤ µ ≤ X − zα/2
σ√
n
)
= 1− α
Notemos que por la simetría de la distribución normal estándar:
P (Z ≥ z1−q) = q =⇒ z1−q = −zq
Por lo tanto podemos simplificar el intervalo para buscar un único cuantil:
P
(
X + zα/2
σ√
n
≤ µ ≤ X − zα/2
σ√
n
)
= 1− α
El intervalo de confianza resulta:
[
X + zα/2
σ√
n
≤ µ ≤ X − zα/2
σ√
n
]
35
Si no se conoce la varianza, podemos reemplazar σ por el desvío muestral S:
√
n
X − µ
S
∼ tn−1
Siendo tn−1 la distribución t-Student con n−1 grados de libertad. Esta distribución se comporta de
forma similar a una normal, tiene forma de campana pero con colas más pesadas. Cuando n → ∞
aproxima una normal estándar.
Planteamos nuevamente el intervalo de confianza con este otro pivote y hacemos el mismo despeje.
Consideramos la misma interpretación de los cuantiles.
P
(
tn−1,α/2 ≤
√
n
X − µ
S
≤ tn−1,1−α/2
)
= 1− α
P
(
X + tn−1,α/2
S√
n
≤ µ ≤ X − tn−1,α/2
S√
n
)
= 1− α
El intervalo de confianza resulta:
[
X + tn−1,α/2
S√
n
,X − tn−1,α/2
S√
n
]
12.3 Ejercicio 32
Construya un intervalo de confianza de nivel 1 − α para la varianza de la distribución normal
N (µ, σ2) con esperanza conocida. Y si no se conoce la esperanza?
Sea X1, . . . , Xn una muestra aleatoria de una población N (µ, σ2) con la esperanza µ conocida.
Xi − µ
σ
∼ N (0, 1) ∀1 ≤ i ≤ n =⇒
(Xi − µ
σ
)2
∼ X 21 = Γ(12 ,
1
2) ∀1 ≤ i ≤ n
Como además las v.a. son independientes:
n∑
i=1
(Xi − µ
σ
)2
∼ X 2n = Γ(n2 ,
1
2)
Usamos como pivote a la siguiente función:
T (X1, . . . , Xn;σ
2) =
n∑
i=1
(Xi − µ
σ
)2
=
∑n
i=1(Xi − µ)2
σ2
36
Y usamos la siguiente notación para los cuantiles (consideramos el área hacia la izquierda):
P (X 2n ≤ X 2n,q) = q
Ahora podemos obtener un intervalo de confianza de nivel 1−α para la varianza σ2 con esperanza
µ conocida:
P
(
X 2n,α/2 ≤
∑n
i=1(Xi − µ)2
σ2
≤ X 2n,1−α/2
)
= 1− α
P
(∑n
i=1(Xi − µ)2
X 2n,1−α/2
≤ σ2 ≤
∑n
i=1(Xi − µ)2
X 2n,α/2
)
= 1− α
El intervalo de confianza resulta:
[∑n
i=1(Xi − µ)2
X 2n,1−α/2
,
∑n
i=1(Xi − µ)2
X 2n,α/2
]
Si no se conoce la esperanza, podemos usar el siguiente pivote, siendo S2 la varianza muestral:
T (X1, . . . , Xn;σ
2) =
(n− 1)S2
σ2
∼ X 2n−1
Ahora podemos obtener un intervalo de confianza de nivel 1−α para la varianza σ2 con esperanza
desconocida:
P
(
X 2n−1,α/2 ≤
(n− 1)S2
σ2
≤ X 2n−1,1−α/2
)
= 1− α
P
( (n− 1)S2
X 2n−1,1−α/2
≤ σ2 ≤ (n− 1)S
2
X 2n−1,α/2
)
= 1− α
El intervalo de confianza resulta:
[ (n− 1)S2
X 2n−1,1−α/2
,
(n− 1)S2
X 2n−1,α/2
]
37
13 Test de hipótesis
13.1 Ejercicio 33
Sea X ∼ N (µ, σ2) con σ2 = 9 conocida. Se quiere testear la hipótesis H0 : µ = 30 contra
Ha : µ > 30. Se toma una muestra de tamaño 16 obteniendo un promedio muestral x̄ = 31.
Calcule el P-valor y decida si se rechaza el test a nivel 0,01. Calcule el error de tipo 2 a nivel 0,01
si el valor verdadero de µ es µ = 32.
Datos del enunciado:
n = 16 tamaño de la muestra
X = 31 promedio muestral
σ20 = 9 =⇒ σ0 = 3
Planteamos el test:
H0 : µ = µ0 vs Ha : µ > µ0
µ0 = 30
T =
√
nX−µ0σ0 ∼ N (0, 1) bajo H0 : µ = µ0
α = 0.01 el nivel del test
zα el cuantil tal que P (Z ≥ zα) = α (consideramos el área hacia la derecha)
T ≥ zα región de rechazo
P-Valor = P (Z ≥ Tobs) = 1− P (Z ≤ Tobs) = 1− Φ(Tobs)
Calculamos:
Tobs =
4
3
P-Valor ≈ 0.0912
El P-Valor nos dice la probabilidad mínima necesaria para rechazar H0 en función del valor de T
observado. El P-Valor cambia por cada muestra observada. Entonces, sabiendo el P-Valor podemos
decidir si rechazar o no H0 simplemente comparando el nivel deseado con el P-Valor.
P-Valor ≤ α ⇐⇒ se rechaza H0
Con nuestros valores:
P-Valor ≈ 0.0912 ̸≤ 0.01 = α =⇒ no se rechaza H0
Para calcular el error de tipo 2 (aceptar H0 cuando en realidad es falsa) podemos usar la función
de potencia:
π(µ) = Pµ(T ∈ R) =
{
α(µ) si µ ∈ H0
1− β(µ)si µ ∈ H1
Siendo R la región de rechazo del test: T ≥ zα, α(µ) la probabilidad de error de tipo 1 y β(µ) la
probabilidad de error de tipo 2.
38
Observemos que µ = 32 ∈ H1 por lo tanto:
π(µ) = 1− β(µ) ⇐⇒ β(µ) = 1− π(µ) = 1− Pµ(T ≥ zα) = Pµ(T ≤ zα)
Entonces:
β(µ) = Pµ(T ≤ zα) = Pµ(
√
n
X − µ0
σ0
≤ zα)
= Pµ(
√
n
X − µ+ µ− µ0
σ0
≤ zα) = Pµ(
√
n
X − µ
σ0
+
√
n
µ− µ0
σ0
≤ zα) = Pµ(Z ≤ zα −
√
n
µ− µ0
σ0
)
= Φ(zα −
√
n
µ− µ0
σ0
)
Ahora sí, calculemos el error de tipo 2 siendo µ = 32, α = 0.01 y zα ≈ 2.3263:
β(32) ≈ Φ(2.3263−
√
16
32− 30
3
) ≈ 0.3668
Nota: Los cálculos se hicieron con R.
13.2 Ejercicio 34
Se toman 25 mediciones de la temperatura en cierto sector de un reactor obteniéndose un promedio
muestral x̄ = 249ºC y un desvío muestral s = 2.8ºC. A nivel α = 0.05 decida si (a) la temperatura
media en ese sector del reactor es menor que 250ºC y (b) la varianza de la temperatura en ese
sector del reactor es mayor que (2ºC)2. Suponga los datos normales.
Pasamos en limpio los datos del enunciado:
n = 25
X = 249
s = 2.8
α = 0.05
Primer test para la media con varianza desconocida
H0 : µ = µ0 vs H1 : µ < µ0 con µ0 = 250
Al no conocer la varianza, usamos el siguiente estadístico:
T =
√
nX−µ0S ∼ tn−1 bajo H0 : µ = µ0 con tn−1 la distribución t-Student con n − 1 grados de
libertad.
La región de rechazo está dada por:
T ≤ tn−1,α
39
Con tn−1,α tal que P (tn−1 ≤ tn−1,α) = α ⇐⇒ tn−1,α ≈ −1.7109
Calculamos el valor de T observado:
Tobs =
√
25249−2502.8 ≈ −1.7857
Por lo tanto:
Tobs ≤ tn−1,α ⇐⇒ −1.7857 ≤ −1.7109 =⇒ rechazamos H0 en favor de H1 y por lo tanto podemos
afirmar con nivel 0.05 que la temperatura media en ese sector del reactor es menor que 250ºC.
Segundo test para la varianza con media desconocida
H0 : σ
2 = σ20 vs H1 : σ2 > σ20 con σ20 = 22
Al no conocer la media, usamos el siguiente estadístico:
T = (n−1)S
2
σ20
∼ X 2n−1 bajo H0 : σ2 = σ20 distribución Chi cuadrado con n− 1 grados de libertad.
La región de rechazo está dada por:
T ≥ X 2n−1,1−α
Con X 2n−1,1−α tal que P (X 2n−1 ≥ X 2n−1,1−α) = α ⇐⇒ X 2n−1,1−α ≈ 36.415
Calculamos el valor de T observado:
Tobs =
(25−1)2.82
22
= 47.04
Por lo tanto:
Tobs ≥ X 2n−1,1−alpha ⇐⇒ 47.04 ≥ 36.415 =⇒ rechazamos H0 en favor de H1 y por lo tanto
podemos afirmar con nivel 0.05 que la varianza de la temperatura en ese sector del reactor es
mayor que (2ºC)2.
13.3 Ejercicio 35
Un sujeto acierta el color (rojo o negro) de 850 de 1600 cartas puestas al dorso. Queremos decidir
si creemos que es adivino. Defina el test, el estadístico utilizado y calcule el P-valor para este test.
¿Qué decisión toma a nivel 1%? ¿Y a nivel 0.5%?
Notemos que adivinar el color de la carta es un ensayo de Bernoulli. Si consideramos 0.5 la
proporción ideal de adivinar el color, entonces un sujeto debería obtener una proporción mayor si
realmente es un adivino. Y si fuese un adivino perfecto, debería obtener una proporción de 1, es
decir, adivinó todas las cartas.
n = 1600 tamaño de la muestra, es decir, el total de cartas
X = 8501600 = 0.53125 la proporción muestral de las cartas adiviniadas por el supuesto adivino
p0 = 0.5 la proporción ideal suponiendo equiprobabilidad de que las cartas sean rojas o negras
σ0 =
√
p0(1− p0) = 0.5 el desvío ideal de p0
H0 : p = p0 vs H1 : p > p0
T =
√
nX−p0σ0 ∼ N (0, 1) bajo H0 : p = p0
α el nivel del test
40
zα el cuantil tal que P (Z >= zα) = α
T ≥ zα región de rechazo
P-Valor = P (Z ≥ Tobs) = 1− P (Z ≤ Tobs) = 1− Φ(Tobs)
Tobs = 2.5
P-Valor ≈ 0.0062
El P-Valor nos dice la probabilidad mínima necesaria para rechazar H0 en función del valor de T
observado. El P-Valor cambia por cada muestra observada. Entonces, sabiendo el P-Valor podemos
decidir si rechazar o no H0 simplemente comparando el nivel deseado con el P-Valor. Es decir:
P-Valor ≤ α ⇐⇒ se rechaza H0
Nivel 1%
P-Valor = 0.0062 ≤ 0.01 = α =⇒ rechazamos H0
Nivel 0.5%
P-Valor = 0.0062 ̸≤ 0.05 = α =⇒ no rechazamos H0
Conclusión: a nivel 1% le creemos que es un adivino, pero a nivel 0.5% no.
41
	Probabilidad: definición y enunciados
	Ejercicio 1
	Ejercicio 2
	Probabilidad condicional e independencia
	Ejercicio 3
	Ejercicio 4
	Ejercicio 5
	Variables aleatorias
	Ejercicio 6
	Vectores aleatorios
	Ejercicio 7
	Ejercicio 8
	Esperanza
	Ejercicio 9
	Ejercicio 10
	Esperanza condicional
	Ejercicio 11
	Ejercicio 12
	Generación de variables aleatorias
	Ejercicio 13
	Ejercicio 14
	Función característica
	Ejercicio 15
	Convergencia de variables aleatorias
	Ejercicio 16
	Ejercicio 17
	Ejercicio 18
	Ejercicio 19
	Ejercicio 20
	Ejercicio 21
	Procesos de Poisson
	Ejercicio 22
	Ejercicio 23
	Estimadores
	Ejercicio 24
	Ejercicio 25
	Ejercicio 26
	Ejercicio 27
	Ejercicio 28
	Ejercicio 29
	Intervalos de confianza
	Ejercicio 30
	Ejercicio 31
	Ejercicio 32
	Test de hipótesis
	Ejercicio 33
	Ejercicio 34
	Ejercicio 35

Continuar navegando