Das Problem, über das Sie nachdenken, ist als Frage der thermodynamischen Grobkörnung bekannt. Dies gibt Ihnen hoffentlich einen Satz, nach dem Sie suchen können, um mehr herauszufinden.
Manchmal sind mögliche Zustände von Ensemblemitgliedern offensichtlich diskret, da sie sich in einer Sammlung von Quantenharmonischen Oszillatoren befinden. Ein Großteil der Quantenmechanik hängt davon ab, dass der zugrunde liegende Hilbert-Zustandsraum trennbar ist ( dh hat eine zählbare dichte Teilmenge), und für Hilbert-Räume entspricht dies der Behauptung, dass die Vektorbasis selbst ist ist zählbar. Selbst wenn eine beobachtbare Größe wie ein Impuls oder eine Position ein kontinuierliches Spektrum aufweist ( d. H. kann eine kontinuierliche Zufallsvariable als Messung ergeben), ist der zugrunde liegende Zustandsraum häufig diskret. In dem speziellen Beispiel des OP können Sie das Gas als ein System von Partikeln in einer 3D-Box modellieren (Hutspitze an Benutzer knzhou, um mich an diesen Punkt zu erinnern), so dass der Zustandsraum der Ensemblemitglieder ist klar diskret. Wenn wir das Volumen unserer Box erhöhen, nimmt die Zustandsdichte (mehr in Chris 'Antwort besprochen) proportional zum räumlichen Volumen der Box zu, und daher auch die Entropie. In der Grenze eines sehr großen Gasvolumens ist die Entropie pro Volumeneinheit eine genau definierte, endliche Grenze
In Fällen, in denen der Zustandsraum nicht offensichtlich diskret ist, muss entweder auf Grobkörnung oder relative Entropie zurückgegriffen werden.
Grobe Körnung ist die etwas willkürliche Aufteilung des Zustandsraums von Ensemblemitgliedern in diskrete Teilmengen, wobei Zustände, die zu einer bestimmten Teilung gehören, dann als gleich angesehen werden. Somit wird ein kontinuierlicher Zustandsraum in eine diskrete Näherung verklumpt. Viele Schlussfolgerungen der statistischen Mechanik sind unempfindlich gegenüber solchen Verklumpungen.
Relative Entropie wird im informationstheoretischen Sinne für eine kontinuierliche Zufallsvariable als ungefähr die Entropieänderung relativ zu einer "standardmäßigen" kontinuierlichen Zufallsvariablen definiert, wie sie beispielsweise durch eine Gaußsche Verteilung gesteuert wird . Wir sehen das Problem, mit dem Sie es zu tun haben, wenn wir naiv versuchen, die Shannon-Entropie einer kontinuierlichen Zufallsvariablen mit der Wahrscheinlichkeitsverteilung $ p (x) $ als Grenze einer diskreten Summe zu berechnen:
$$ S \ approx - \ sum \ limit_i p (x_i) \, \ Delta x \, \ log (p (x_i) \, \ Delta x) = - \ log (\ Delta x) \, \ sum \ Grenzen_i p (x_i) \, \ Delta x - \ Summe \ Grenzen_i p (x_i) \, \ Delta x \, \ log (p (x_i)) \ Tag {1} $$
Die beiden Summen im Ausdruck ganz rechts konvergieren in Ordnung, aber wir werden durch den Faktor $ \ log (\ Delta x) $ vereitelt, der natürlich divergiert. Wenn wir jedoch die Differenz zwischen der Entropie für unser $ p (x) $ und der einer "Standard" -Verteilung nehmen, ergibt unsere Berechnung:
$$ \ Delta S \ approx - \ log (\ Delta x) \, \ left (\ sum \ limit_i p (x_i) \, \ Delta x- \ sum \ limit_i q (x_i) \, \ Delta x \ rechts) - \ Summe \ Grenzen_i \ links (p (x_i) \, \ log (p (x_i)) - q (x_i) \, \ log (q (x_i)) \ rechts) \, \ Delta x \ Tag {2} $$
eine Menge, die zu $ \ int \ left konvergiert (p \ log p - q \, \ log q \ right) \ mathrm {d} x $. Die übliche relative Entropie ist nicht ganz dieselbe wie diese Definition (siehe Artikel - die Definition wurde geändert, um das Maß unabhängig von der Neuparametrisierung zu machen), aber dies ist die Grundidee. Oft werden die Konstanten in der Grenze von (2) fallen gelassen und man sieht die Menge $ - \ int \, p \, \ log p \, \ mathrm {d} x $, definiert als die nicht qualifizierte (relative) Entropie der Verteilung $ p (x) $.
Grobkörnung würde bei dieser Berechnung einfach eine Konstante $ \ Delta x $ in (1) wählen. (1) ist dann ungefähr die relative Entropie $ - \ int \, p \, \ log p \, \ mathrm {d} x $, die durch die Konstante $ - \ log (\ Delta x) $ versetzt ist. Daher solange:
- Wir halten uns in einer bestimmten Diskussion an eine Konstante $ \ Delta x $;
- $ \ Delta x $ ist relativ zu den Variationen in der Wahrscheinlichkeitsdichte klein genug, so dass $ \ sum \ limit_i p (x_i) \, \ Delta x \, \ log (p (x_i)) \ approx \ int p\, \ log p \, \ mathrm {d} p $;
- Unsere Berechnungen und physikalischen Vorhersagen beziehen sich nur auf Unterschiede zwischen Entropien (wie es meistens der Fall ist)
ol>
dann liefern die Ansätze der Grobkörnung und der relativen Entropien identische physikalische Vorhersagen, unabhängig von dem exakten gewählten $ \ Delta x $.
Eine gute Übersicht über diese Ideen mit historischer Diskussion finden Sie in:
Katinka Ridderbos, "Der grobkörnige Ansatz der statistischen Mechanik: Wie selig ist unsere Unwissenheit?", Studien zur Geschichte und Philosophie der modernen Physik , 33, S. 65-77, 2002