Ed
há 10 meses
A entropia, em Física Estatística, é um conceito fundamental que mede a desordem ou a aleatoriedade de um sistema. Quanto maior a entropia, maior a desordem e a incerteza sobre o estado do sistema. Analisando as alternativas: A) A quantidade de energia em um sistema - Incorreto, pois a entropia não mede energia. B) A medida da desordem ou aleatoriedade de um sistema - Correto, essa é a definição de entropia. C) A força que atua sobre um objeto - Incorreto, pois isso se refere a um conceito diferente. D) A temperatura média das partículas - Incorreto, a temperatura é uma medida diferente. Portanto, a alternativa correta é: B) A medida da desordem ou aleatoriedade de um sistema.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material