Statystyczna definicja entropii

Wiemy już, że z wielu możliwych makrostanów układu realizują się głownie stany o największym prawdopodobieństwie termodynamicznym. Kiedy izolowany układ znajdzie się z jakiegoś powodu w stanie o mniejszym prawdopodobieństwie, wówczas samorzutnie dąży do stanu o największej wadze statystycznej. Oczywiście stan układu może zmieniać się na krótko (fluktuować) wokół stanu równowagi, ale im większa jest waga statystyczna, tym mniejsze są fluktuacje względne. 

Prawdopodobieństwo makrostanu wyraża się przez liczbę mikrostanów, czyli sposobów na które dany makrostan może być zrealizowany. Liczba ta może być więc traktowana jako miara prawdopodobieństwa stanu makroskopowego. Kiedy układ składa się z nie oddziałujących  podukładów wówczas prawdopodobieństwo stanu równe jest iloczynowi prawdopodobieństw stanów podukładów.

(12.39)

Łatwo to sprawdzić na konkretnych przykładach naszej ilustracji interaktywnej z poprzedniej części lekcji.

Stan układu, oprócz znanych nam już parametrów jak temperatura, czy ciśnienie można więc także scharakteryzować przez inną wielkość zawierająca informacje o jego prawdopodobieństwie termodynamicznym. Wielkością taką jest entropia zdefiniowana poprzez logarytm naturalny z prawdopodobieństwa termodynamicznego. Dzięki takiej definicji entropia układu jest sumą entropii podukładów, bowiem iloczyn prawdopodobieństw zamienia się w sumę ich logarytmów.

(12.40)

Jak zobaczymy później, entropię można także zdefiniować poprzez wielkości makroskopowe. 

Definicja entropii łącząca jej cechy mikroskopowe i makroskopowe ma postać

(12.41)

gdzie jest znaną nam już stałą Boltzmanna. Entropia rośnie wraz ze wzrostem prawdopodobieństwa stanu układu, jest logarytmiczną miarą tego prawdopodobieństwa.

Wymieńmy podstawowe własności entropii wynikające z naszych wcześniejszych rozważań.

1. Przemiany nieodwracalne zachodzące w układzie izolowanym prowadzą do wzrostu entropii układu. Prawo to wyraża wzór

(12.42)

Przykładem może być rozważany przez nas układ podzielony umownie na część lewą i prawą. Wzrost prawdopodobieństwa statystycznego równoważny jest ze wzrostem entropii tego układu. 

Prawo wzrostu entropii ma charakter ogólny i odnosi się do wszelkich procesów zachodzących w przyrodzie. Wzrost entropii równoznaczny jest ze wzrostem nieuporządkowania elementów układu; z  przechodzeniem ich od stanu uporządkowanego do stanu chaotycznego. Stanem pewnego uporządkowania jest zgromadzenie gazu w jednej części naczynia, ale także stanem uporządkowania jest półka z ustawionymi na niej książkami. Kiedy półka spada i w rezultacie książki są porozrzucane po podłodze, mamy także do czynienia za wzrostem entropii układu. To samo dotyczy rozbitej szklanki, która spadła ze stołu, zburzonych w wyniku trzęsienia Ziemi domów, wracającej do położenia równowagi drgającej sprężyny itd.

2. W stanie równowagi entropia układu osiąga wartość maksymalną.  

Kiedy wiec w wyniku przemiany nieodwracalnej układ zwiększa swą entropię, to stan jego równowagi równoznaczny jest z maksymalną wartością entropii układu.

 Więcej o entropii powiemy, kiedy poznamy jej definicję fenomenologiczną.