Baixe o app para aproveitar ainda mais
Prévia do material em texto
O QUE É ENTROPIA? Vamos estudar neste capítulo alguns conceitos já conhecidos, mas pouco (ou nada) entendidos. O primeiro deles é a ENTROPIA. Todos já ouvimos falar esta palavra alguma vez na vida, e provavelmente vocês já estudaram esse conceito quando fizeram Bioquímica e Biologia Celular. Mas, vocês devem estar pensando: “já vi, mas ainda não entendi...” Pois é, costumam dizer por aí que entropia está relacionado à desordem. Mas como assim? Um quarto todo desarrumado tem entropia e um quarto todo arrumadinho não tem? Cuidado! Não é bem assim! De todos os conceitos da Física Clássica o mais difícil é a ENTROPIA. E isso não foi dito por alunos apenas! Até mesmo o grande matemático John von Neumann (1903–1957) disse uma vez que “ninguém realmente sabe o que é entropia” (STYER 2000). A entropia é um dos assuntos mais temidos, não apenas pelos estudantes, devido a sua complexidade, mas também por professores, porque é difícil transmitir os seus princípios básicos utilizando-se apenas dos conceitos físicos. Na verdade, a segunda lei da termodinâmica, que trata dos conceitos “ordem” e “desordem”, tem despertado discussões acaloradas entre os cientistas, não apenas na Física, mas nos diversos ramos da ciência. Além disto, algumas vezes esse conceito tem sido aplicado em outros ramos não diretamente relacionado às ciências, até mesmo a fenômenos sociais, gerando interpretações perigosas (OLIVEIRA e DECHHOUM, 2003). Como vimos na aula anterior, a palavra “Termodinâmica” é derivada do grego, e significa “movimento do calor”. E a palavra “Entropia”? Também deriva do grego, e junta dois termos: em (em) e trope (transformação). Portanto, Entropia significa “algo que está em transformação”. O processo de elaboração do conceito de entropia como conhecemos hoje foi extenso e muito árduo. Não apareceu da noite para o dia! Teve seu início nas experiências de Joule, que mostravam que a energia mecânica se transformava em calor. Quem primeiro usou o termo Entropia na termodinâmica foi Rudolf Clausius, um fisico alemão, por volta de 1865. Depois disso, Ludwig Boltzmann interpretou a entropia como uma desordem no nível atômico e, um pouco mais tarde, James Clerk Maxwell deu inicio à interpretação estatística da termodinâmica, estudando a distribuição das velocidades das moléculas de um gás. Bom, sabendo disso, vamos tentar entender o que é ENTROPIA, utilizando situações do nosso dia-a-dia. Vamos começar jogando 3 moedas e vendo as possíveis composições: 1 CARA CARA CARA 2 CARA CARA COROA 3 CARA COROA CARA 4 CARA COROA COROA 5 COROA CARA COROA 6 COROA CARA CARA 7 COROA COROA CARA 8 COROA COROA COROA Agora vamos pensar: a probabilidade de cada uma dessas composições acontecer é a mesma, concorda? A menos que as moedas sejam “viciadas”, não tem porque uma das composições ter preferência sobre as outras. Jogando ao acaso 3 moedas consecutivamente, é tão difícil conseguir a situação 1 como a situação 2, 3 etc. Mas, se pensarmos em uma composição especial, por exemplo, a situação em que aparecem 3 figuras iguais aí já teremos diferença! Por quê? Porque só existem duas possibilidades de aparecerem 3 figuras iguais (cara, cara, cara ou coroa, coroa, coroa), mas existem 6 possibilidades de aparecerem figuras diferentes! Para facilitar nossa conversa, vamos usar os termos microestado e macroestado, como Boltzmann fazia. Qualquer uma das 6 combinações mostradas nas situações 2 a 7 será um microestado do macroestado correspondente a “figuras diferentes”. Isto é, o macroestado “figuras diferentes” tem 6 microestados, enquanto o macroestado “figuras iguais” tem apenas 2 microestados. Agora, é fácil entender porque obter figuras diferentes é mais provável do que obter figuras iguais quando jogamos 3 moedas ao acaso: ela tem muito mais microestados. E podemos agora definir a ENTROPIA de um jogo de moedas como sendo o número de microestados em um macroestado. A entropia do macroestado “figuras diferentes” é 6 e a entropia do macroestado “figuras iguais” é 2. Entende agora porque dizemos que a grandeza física ENTROPIA mede a “desordem” de um sistema molecular e pode ser interpretada como uma medida probabilística, como está escrito na apostila? Quanto maior o número de situações possíveis, maior a desordem do sistema, e maior a sua entropia! Note que o termo “desordem” aqui não é usado no sentido usual de “bagunça” ou “confusão”, mas sim no sentido de que existem várias possibilidades diferentes e não podemos determinar com exatidão qual delas é a mais provável. Um outro exemplo, muito utilizado nos livros, é o do quarto arrumado e desarrumado. A Entropia é maior no quarto desarrumado, mas não porque tudo ali é uma grande bagunça, e sim porque existem inúmeras possibilidades de deixarmos um quarto desarrumado, mas existe um número muito menor de possibilidades de mantermos um quarto arrumado! Já no caso das moléculas de um fluido (liquido ou gás) podemos entender “desordem” como agitação molecular. Referências Styer, Daniel F. Insight into Entropy. American Journal of Physics, 2000, 12:1090-1096. Oliveira, P.M.C.; Dechoum, K. Facilitando a compreensão da Segunda lei da Termodinâmica. Revista Brasileira de Ensino de Física. Vol 25, nº4, Dezembro, 2003. p. 359-363. Silva, Alex A. As Várias Facetas do Termo Entropia. Será Difícil Entender Este Conceito? Trabalho de Conclusão do Curso de Física. Universidade Católica de Brasília, 2007.
Compartilhar