Physikalische Chemie. Peter W. AtkinsЧитать онлайн книгу.
und dqUmg mit dHUmg gleichsetzen.) Die Innere Energie ist eine Zustandsfunktion, und dUUmg ist folglich ein totales Differenzial. Wie bereits gezeigt wurde, folgt aus diesen Eigenschaften, dass dUUmg nicht davon abhängt, wie die Zustandsänderung im Einzelnen verläuft, insbesondere auch nicht davon, ob der Prozess reversibel ist oder nicht. Da nun dUUmg mit dqUmg gleichgesetzt werden kann, gilt all dies auch für die ausgetauschte Wärme, und wir können Gl. (3.1a) modifizieren, indem wir die Einschränkung „reversibel“ aufheben:
(3.2a)
Da die Temperatur der Umgebung unabhängig von der Zustandsänderung konstant ist, gilt für eine endliche (messbare) Zustandsänderung außerdem
Wir können die Entropieänderung in der Umgebung also immer berechnen, indem wir die ausgetauschte Wärme durch die Temperatur teilen, bei der der Austausch stattfindet – gleichgültig, ob die Zustandsänderung reversibel oder irreversibel erfolgt.
Gleichung (3.2b) macht es uns sehr einfach, Entropieänderungen in der Umgebung für beliebige Prozesse zu berechnen. Für eine beliebige adiabatische Zustandsänderung gilt beispielsweise qUmg = 0 und folglich
(3.3)
Diese Beziehung gilt wieder unabhängig davon, ob die Änderung reversibel oder irreversibel erfolgt; einzige Voraussetzung ist, dass die Wärme gleichmäßig in der Umgebung verteilt wird – anders ausgedrückt, dass sich die Umgebung stets im inneren Gleichgewicht befindet. (Wenn sich die Wärme an bestimmten Stellen ansammeln würde, so wäre eine anschließende Energieumverteilung mit einer weiteren Entropiezunahme verbunden.)
Illustration 3.1
Um zu berechnen, wie sich die Entropie der Umgebung ändert, wenn 1,00 mol H2O (l) unter Standardbedingungen bei 298 K aus den Elementen gebildet wird, verwenden wir ΔBH⊖ = −286 kJ mol−1 aus Tab. 2.6 in Abschn. 2.3. Die freigesetzte Wärmemenge wird der Umgebung (einem Reservoir unter konstantem Druck) zugeführt, also ist qUmg = + 286 kJ. Folglich gilt
Die stark exotherme Reaktion bewirkt eine Zunahme der Entropie in der Umgebung durch die Freisetzung von Energie in Form von Wärme.
Nun lässt sich erkennen, dass die Definition der Entropie mit den Formulierungen des Zweiten Hauptsatzes der Thermodynamik nach Kelvin bzw. Clausius konsistent ist und diese Aussagen in sich vereinigt. In Abb. 3.3b verringert sich die Entropie der Wärmequelle, da ihr Energie in Form von Wärme entzogen wird. Die Energieübertragung in Form von Arbeit führt nicht zu einem Anstieg der Entropie, sodass sich in der Summe die Entropie des (insgesamt abgeschlossenen) Systems verringert. Nach dem Zweiten Hauptsatz findet ein derartiger Prozess nicht freiwillig statt, weshalb eine Anordnung, wie sie in Abb. 3.3b gezeigt ist, keine Arbeit verrichtet. Nach der Formulierung von Clausius würden wir erwarten, dass sich die Entropie der Wärmesenke in Abb. 3.4 verringert, wenn sie Energie in Form von Wärme abgibt; wenn diese Energie jedoch an die Wärmequelle abgegeben wird, ist die Entropieerhöhung gering (da deren Temperatur höher ist). Insgesamt verringert sich also die Entropie; wir kommen zu dem Schluss, dass eine Energieübertragung in Form von Wärme von der Wärmesenke an die Wärmequelle nicht freiwillig ablaufen kann.
(b) Die statistische Deutung der Entropie
Unser Einstieg in die molekulare Interpretation des Zweiten Hauptsatzes der Thermodynamik und der „statistischen“ Definition der Entropie beginnt mit der (auf Boltzmann zurückgehenden und bereits im Prolog dieses Buchs diskutierten) Erkenntnis, dass die Energie eines Atoms oder Moleküls nur bestimmte Werte annehmen kann, die sogenannten Energieniveaus. Die Moleküle einer Probe bei T > 0 sind durch die ständige thermische Anregung auf alle verfügbaren Energieniveaus verteilt. Boltzmann stellte auch die Verbindung zwischen der Verteilung der Moleküle auf die Energieniveaus und der Entropie her. Für die Entropie eines Systems schlug er folgende Beziehung vor:
wobei die Konstante k = 1,381 × 10−23 J K−1 die Boltzmann‐Konstante ist und W die Anzahl der Mikrozustände angibt – der unterscheidbaren Möglichkeiten, die Moleküle bei gegebener Gesamtenergie eines Systems auf die zur Verfügung stehenden Energieniveaus zu verteilen. Wenn wir die Eigenschaften eines Systems messen, ermitteln wir eigentlich den Mittelwert über die verschiedenen Mikrozustände, die das System unter den Versuchsbedingungen einnehmen kann. Das Konzept der Mikrozustände stellt die unscharf definierten qualitativen Konzepte der „Unordnung“ und der „Verteilung von Stoffen und Energie“, anhand derer die Entropie meist eingeführt wird, auf eine quantitative Grundlage: Eine „ungeordnete“ Verteilung von Materie und Energie entspricht einer größeren Anzahl bei einer bestimmten Gesamtenergie möglicher Mikrozustände. Diesen Aspekt werden wir in Abschn. 13.5 erneut aufgreifen und detailliert betrachten.
Gleichung (3.4) ist unter der Bezeichnung Boltzmann‐Gleichung (auch Boltzmann‐Ausdruck für die Entropie) bekannt; die so berechnete Entropie wird oft als statistische Entropie bezeichnet. Wir sehen sofort, dass für W = 1 (wenn nur ein Mikrozustand oder eine Möglichkeit, die gegebene Gesamtenergie zu erreichen, denkbar ist; wenn sich also alle Moleküle exakt im gleichen Zustand befinden) wegen ln1 = 0 sofort S = 0 gilt. Wenn das System in mehreren Mikrozuständen existieren kann, ist hingegen stets W > 1 und S > 0. Wenn für die Moleküle in einer Probe mehr Energieniveaus erreichbar sind, gibt es automatisch auch mehr Mikrozustände zu einer bestimmten Gesamtenergie, folglich ist W und somit auch die Entropie größer als wenn nur wenige Energieniveaus erreichbar sind. Die statistische Sicht der Entropie, wie sie in der Boltzmann‐Gleichung zusammengefasst ist, steht deshalb mit unserer qualitativen Beziehung zwischen der Entropie und der Energieverteilung im Einklang. Für ein Gas in einem Behälter rücken die Energieniveaus dichter zusammen, wenn das Volumen des Behälters größer wird (Abb. 3.5; diese Konsequenz aus der Quantentheorie werden wir in Abschn. 7.4 näher untersuchen). Dadurch werden mehr Mikrozustände möglich, der Wert von W nimmt zu und somit auch die Energie, genau wie wir es auch aus der thermodynamischen Definition der Entropie abgeleitet hatten (siehe Beispiel 3.1).
Boltzmanns molekulare Interpretation führt auch zur thermodynamischen Definition der Entropie gemäß Gl. (3.1). Um dies zu verstehen, führen wir uns vor Augen, dass den Molekülen in einem System mit hoher Temperatur bereits viele Energieniveaus zur Verfügung stehen, weshalb eine