Dada uma cadeia de Markov com três estados, J = {1,2,3}, e uma matriz de transição [1/2 1/4 1/41 0 2/3 P= 1/3 1/2 1/2 Se soubermos que P(X1=1) = P(...
Dada uma cadeia de Markov com três estados, J = {1,2,3}, e uma matriz de transição [1/2 1/4 1/41 0 2/3 P= 1/3 1/2 1/2 Se soubermos que P(X1=1) = P(X1=2) = 1/4, então qual o valor de P(X1=3, X2=2, X3=1): 0 A 1/4 B 1/8 c 1/12 D 1/9 E 1/6
Compartilhar