Buscar

DEFINIÇÃO TERMODINÂMICA E ESTATÍSTICA DA ENTROPIA

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

DEFINIÇÃO TERMODINÂMICA E ESTATÍSTICA DA ENTROPIA
		De modo a prever a espontaneidade de um processo, devemos introduzir uma nova quantidade termodinâmica, chamada de entropia. A entropia (S) é muitas vezes descrita como a medida do espalhamento ou da dispersão da energia de um sistema entre as várias maneiras que o sistema pode utilizar para conter energia. Quanto maior for a dispersão, maior será a entropia. A maioria dos processos é acompanhada por uma alteração da entropia [1].
		 Considere a situação representada na Figura 1. Antes de a válvula ser aberta, o sistema possui uma determinada quantidade de entropia. Quando se abre a válvula, as moléculas de gás passam a ter acesso ao volume combinado de ambos os balões. O aumento do volume para a movimentação resulta em uma diminuição da diferença entre os níveis de energia translacional das moléculas. Por conseguinte, a entropia do sistema aumenta porque o espaço reduzido entre os níveis de energia provoca uma maior dispersão entre os níveis de energia [1].
Figura 1: Representação do aumento da entropia
 Fonte: CHANG, R; GOLDSBY, K. A,2013, p.780.
	A conexão entre entropia e espontaneidade de uma reação é expressa pela segunda lei da termodinâmica: a entropia do universo aumenta em um processo espontâneo e mantém-se invariável em um processo de equilíbrio. Uma vez que o universo é constituído pelo sistema e por sua vizinhança [1]. A variação de entropia para uma dada quantidade de calor absorvida também depende da temperatura. 
Figura 2: Representação processo exotérmico e endotérmico e vizinhança.
 Fonte: CHANG, R; GOLDSBY, K. A,2013, p.788.
	O calor estimula o movimento aleatório nas vizinhanças, em contrapartida, o trabalho estimula o movimento ordenado dos átomos nas vizinhanças e não altera sua entropia [2].
	A definição termodinâmica da entropia está baseada na expressão:
Onde: qrev = calor transferido de forma reversível. 
Microestados e entropia
	Considerando um sistema simples de quatro moléculas distribuídas entre dois compartimentos iguais, conforme mostrado na Figura 3. Há apenas uma combinação para ter todas as moléculas no compartimento da esquerda, quatro combinações para ter três moléculas no compartimento da esquerda e uma no compartimento da direita, e seis combinações para ter duas moléculas em cada um dos dois compartimentos. As 11 combinações possíveis para colocar as moléculas são chamadas de microestados. Como podemos ver, a distribuição III é a mais provável porque há seis microestados ou seis combinações diferentes para realizá-la e a distribuição I é a menos provável porque tem um microestado e, portanto, há apenas uma combinação que a realiza [1].
Fonte: CHANG, R; GOLDSBY, K. A,2013, p.781.
Em 1868, Boltzmann mostrou que a entropia de um sistema está relacionada com o logaritmo natural do número de microestados (W):
S = k ln W
em que k é a constante de Boltzmann (1 ,38 X 10- 23 J/K). Assim, quanto maior for W, maior será a entropia do sistema. A entropia é uma função de estado, tal como a entalpia. Considere um determinado processo em um sistema. A variação de entropia do processo, ∆S, é
∆S=Sf – Si 
onde Si e Sf são, respectivamente, as entropias dos estados inicial e final do sistema. Assim podemos escrever:
∆S = k ln Wf - k ln Wi
k ln 
onde Wi e Wf são os números de microestados correspondentes nos estados inicial e final. Assim, se Wf > Wi , ∆S >0 e a entropia do sistema aumenta [1].
Referências Bibliográficas
[1] CHANG, R.; GOLDSBY, K. A. Química. Porto Alegre: McGraw Hill Bookman, 2013. 11 ed. p.780-782, 788.
[2] ATKINS, P. W.; PAULA, J de. Físico-Química, 9. ed. Rio de Janeiro: LTC, 2012. vol.1. p.70.

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando