Энтропия как мера хаоса
Более глубокий смысл энтропии раскрывается в статистической физике, согласно которой энтропия системы в данном состоянии характеризует вероятность этого состояния:
S = k ln W, (33.1)
где S – энтропия системы; k – постоянная Больцмана; W – термодинамическая вероятность состояния, определяемая числом микросостояний, реализующих данное макросостояние. Соотношение выражает принцип Больцмана. Односторонний характер изменения энтропии изолированной системы определяется переходом системы из менее вероятного состояния в более вероятное. Пример. Пусть два тела большой массы имеют температуры T 1 = 300 К и T 2 =301 К. Резонно задаться вопросом, как изменится вероятность состояния этой системы тел при переходе энергии в 1 эрг от тела с большей температурой к телу с меньшей температурой. Изменение энтропии при таком переходе равно
Δ S = Q / T 1 – Q / T 2.
С другой стороны, по формуле Больцмана
Δ S = k ln (W 2 / W 1).
Приравняв эти два выражения для Δ S, можно найти
W 2 / W 1 = exp (Q / k × (T 1–1 – T 2–1)).
Если Q = 1 эрг = 10–7 Дж, W 2 / W 1» exp(1012/12)» . Чудовищно большое значение этого отношения говорит о том, что именно такой переход всегда и происходит. Обратный же переход никогда не наблюдается. Однако, если Q = 1,2 × 10–12 эрг, то W 2 / W 1» exp (0,1)» 1. Таким образом, происходят оба перехода с примерно одинаковой вероятностью.
|