Ed
anteontem
Vamos analisar as asserções: I – Assim, uma cadeia de Markov, a quantidade de estados possíveis é finita. Falso. Embora existam cadeias de Markov com um número finito de estados, também existem cadeias de Markov com um número infinito de estados. Portanto, essa afirmação não é verdadeira para todas as cadeias de Markov. II – A cadeia de Markov, a probabilidade de transição entre os estados é constante ao longo de um tempo. Verdadeiro. Essa afirmação é verdadeira para cadeias de Markov de tempo discreto que são homogêneas, onde as probabilidades de transição não mudam ao longo do tempo. Agora, analisando a relação entre as duas asserções: A primeira asserção é falsa e a segunda é verdadeira. Portanto, a relação proposta entre elas não é válida, pois a primeira não justifica a segunda. Com base nisso, a resposta correta é que apenas a asserção II é verdadeira, mas como não há uma alternativa apresentada, não posso fornecer uma resposta específica. Se você tiver as alternativas, por favor, compartilhe para que eu possa ajudar melhor!