Frage:
Warum ist die Entropie von Gas nicht unendlich, wenn unendlich viele Mikrozustände verfügbar sind?
Jacob
2017-11-30 14:45:47 UTC
view on stackexchange narkive permalink

Wie kann es sein, dass die Entropie von Gas nicht unendlich ist?Wenn wir die Formel $ S = k \ ln (\ Omega) $ verwenden, erhalten wir unendlich, weil es unendlich viele mögliche Situationen gibt (weil es für jedes Molekül unendlich viele Möglichkeiten für Position und Impuls gibt).

Wenn eine Gasmenge $ 10 ^ {25} $ Moleküle hat, wie schließen Sie daraus, dass w unendlich ist?
Damit die Entropie genau definiert werden kann, muss der Raum auf irgendeine Weise quantisiert werden.
@DanielC $ w $ in dieser Formel ist "die Anzahl der möglichen Zustände des Systems".Aus Sicht der klassischen Mechanik kann sich sogar ein einzelnes Molekül in einer Box in unendlich vielen Zuständen befinden.
Die @probably_someone-Entropie kann in der klassischen Mechanik gut definiert werden, ohne dass etwas quantisiert wird.Alles, was Sie brauchen, ist ein Maß für den Phasenraum des Systems (das Sie grundsätzlich kostenlos von der symplektischen Form erhalten).Sie müssen durch eine geeignete Potenz von $ 2 \ pi \ hbar $ dividieren, um das Argument des Logarithmus dimensionslos zu halten. Wenn Sie jedoch $ 2 \ pi \ hbar $ durch eine andere positive Zahl durch Aktionseinheiten ersetzen, erhalten Sie eine Entropie, dieunterscheidet sich nur durch eine Gesamtkonstante und alles funktioniert genauso gut (auf der Ebene der klassischen Mechanik).
Drei antworten:
Selene Routley
2017-11-30 18:26:25 UTC
view on stackexchange narkive permalink

Das Problem, über das Sie nachdenken, ist als Frage der thermodynamischen Grobkörnung bekannt. Dies gibt Ihnen hoffentlich einen Satz, nach dem Sie suchen können, um mehr herauszufinden.

Manchmal sind mögliche Zustände von Ensemblemitgliedern offensichtlich diskret, da sie sich in einer Sammlung von Quantenharmonischen Oszillatoren befinden. Ein Großteil der Quantenmechanik hängt davon ab, dass der zugrunde liegende Hilbert-Zustandsraum trennbar ist ( dh hat eine zählbare dichte Teilmenge), und für Hilbert-Räume entspricht dies der Behauptung, dass die Vektorbasis selbst ist ist zählbar. Selbst wenn eine beobachtbare Größe wie ein Impuls oder eine Position ein kontinuierliches Spektrum aufweist ( d. H. kann eine kontinuierliche Zufallsvariable als Messung ergeben), ist der zugrunde liegende Zustandsraum häufig diskret. In dem speziellen Beispiel des OP können Sie das Gas als ein System von Partikeln in einer 3D-Box modellieren (Hutspitze an Benutzer knzhou, um mich an diesen Punkt zu erinnern), so dass der Zustandsraum der Ensemblemitglieder ist klar diskret. Wenn wir das Volumen unserer Box erhöhen, nimmt die Zustandsdichte (mehr in Chris 'Antwort besprochen) proportional zum räumlichen Volumen der Box zu, und daher auch die Entropie. In der Grenze eines sehr großen Gasvolumens ist die Entropie pro Volumeneinheit eine genau definierte, endliche Grenze

In Fällen, in denen der Zustandsraum nicht offensichtlich diskret ist, muss entweder auf Grobkörnung oder relative Entropie zurückgegriffen werden.

Grobe Körnung ist die etwas willkürliche Aufteilung des Zustandsraums von Ensemblemitgliedern in diskrete Teilmengen, wobei Zustände, die zu einer bestimmten Teilung gehören, dann als gleich angesehen werden. Somit wird ein kontinuierlicher Zustandsraum in eine diskrete Näherung verklumpt. Viele Schlussfolgerungen der statistischen Mechanik sind unempfindlich gegenüber solchen Verklumpungen.

Relative Entropie wird im informationstheoretischen Sinne für eine kontinuierliche Zufallsvariable als ungefähr die Entropieänderung relativ zu einer "standardmäßigen" kontinuierlichen Zufallsvariablen definiert, wie sie beispielsweise durch eine Gaußsche Verteilung gesteuert wird . Wir sehen das Problem, mit dem Sie es zu tun haben, wenn wir naiv versuchen, die Shannon-Entropie einer kontinuierlichen Zufallsvariablen mit der Wahrscheinlichkeitsverteilung $ p (x) $ als Grenze einer diskreten Summe zu berechnen:

$$ S \ approx - \ sum \ limit_i p (x_i) \, \ Delta x \, \ log (p (x_i) \, \ Delta x) = - \ log (\ Delta x) \, \ sum \ Grenzen_i p (x_i) \, \ Delta x - \ Summe \ Grenzen_i p (x_i) \, \ Delta x \, \ log (p (x_i)) \ Tag {1} $$

Die beiden Summen im Ausdruck ganz rechts konvergieren in Ordnung, aber wir werden durch den Faktor $ \ log (\ Delta x) $ vereitelt, der natürlich divergiert. Wenn wir jedoch die Differenz zwischen der Entropie für unser $ p (x) $ und der einer "Standard" -Verteilung nehmen, ergibt unsere Berechnung:

$$ \ Delta S \ approx - \ log (\ Delta x) \, \ left (\ sum \ limit_i p (x_i) \, \ Delta x- \ sum \ limit_i q (x_i) \, \ Delta x \ rechts) - \ Summe \ Grenzen_i \ links (p (x_i) \, \ log (p (x_i)) - q (x_i) \, \ log (q (x_i)) \ rechts) \, \ Delta x \ Tag {2} $$

eine Menge, die zu $ ​​\ int \ left konvergiert (p \ log p - q \, \ log q \ right) \ mathrm {d} x $. Die übliche relative Entropie ist nicht ganz dieselbe wie diese Definition (siehe Artikel - die Definition wurde geändert, um das Maß unabhängig von der Neuparametrisierung zu machen), aber dies ist die Grundidee. Oft werden die Konstanten in der Grenze von (2) fallen gelassen und man sieht die Menge $ - \ int \, p \, \ log p \, \ mathrm {d} x $, definiert als die nicht qualifizierte (relative) Entropie der Verteilung $ p (x) $.

Grobkörnung würde bei dieser Berechnung einfach eine Konstante $ \ Delta x $ in (1) wählen. (1) ist dann ungefähr die relative Entropie $ - \ int \, p \, \ log p \, \ mathrm {d} x $, die durch die Konstante $ - \ log (\ Delta x) $ versetzt ist. Daher solange:

  1. Wir halten uns in einer bestimmten Diskussion an eine Konstante $ \ Delta x $;
  2. $ \ Delta x $ ist relativ zu den Variationen in der Wahrscheinlichkeitsdichte klein genug, so dass $ \ sum \ limit_i p (x_i) \, \ Delta x \, \ log (p (x_i)) \ approx \ int p\, \ log p \, \ mathrm {d} p $;
  3. Unsere Berechnungen und physikalischen Vorhersagen beziehen sich nur auf Unterschiede zwischen Entropien (wie es meistens der Fall ist)
  4. ol>

    dann liefern die Ansätze der Grobkörnung und der relativen Entropien identische physikalische Vorhersagen, unabhängig von dem exakten gewählten $ \ Delta x $.

    Eine gute Übersicht über diese Ideen mit historischer Diskussion finden Sie in:

    Katinka Ridderbos, "Der grobkörnige Ansatz der statistischen Mechanik: Wie selig ist unsere Unwissenheit?", Studien zur Geschichte und Philosophie der modernen Physik , 33, S. 65-77, 2002

Ich stimme mit allem überein, was Sie geschrieben haben, aber sind die Zustände für ein ideales Gas nicht bereits diskret?Es ist nur ein Bündel von [Partikeln in einer Box] (https://en.wikipedia.org/wiki/Particle_in_a_box), daher funktioniert die übliche Methode zum Zählen diskreter Mikrozustände.
+1, ich halte dies für den richtigen Ansatz.Aber ich bin verwirrt über die Verwendung eines Unterschieds zwischen zwei Entropien anstelle des üblichen $ \ int p \ log \ frac {p} {q} $.Es scheint, dass diese Version für eine Neuparametrisierung (z. B. Ersetzen von $ y = x ^ 2 $) nicht unveränderlich ist, wohingegen die übliche relative Entropie (auch bekannt als Kullback-Leibler-Divergenz) ist.
@knzhou In der Tat sind sie in diesem speziellen Beispiel.Siehe meine Änderungen.
@Nathaniel Ich habe gesagt, dass die "übliche relative Entropie nicht ganz mit dieser Definition übereinstimmt (siehe Artikel), aber dies ist die Grundidee";Ich habe diesen Satz auch geändert, um das Problem der Neuparametrisierung anzugeben.Ich wollte die Wahl von $ \ Delta x $ als "Hauptproblem" hervorheben.In älteren informationstheoretischen Texten (einschließlich Shannon und Weaver) wird die relative Entropie eines PDFs angezeigt, das einfach als $ - \ int p \, \ log p \, \ mathrm {d} p $ definiert ist.Ich weiß nicht, ob dies die Verwendung eines Signalverarbeitungs- / Kommunikationstheoretikers im Gegensatz zu der eines Statistikers / statistischen Mechanikers ist.
@WetSavannaAnimalakaRodVance Ich denke, es ist eher eine Frage der Art und Weise, wie sich das Feld historisch entwickelt hat.Shannon definierte kontinuierliche Entropie als nur $ - \ int p (x) \ log p (x) dx $, hatte aber immer das Problem der Neuparametrisierung.Dies wird durch die Kullback-Leibler-Divergenz gelöst, die jedoch einige Jahre später und auf einem anderen Gebiet (Statistik statt Kommunikationstheorie) entwickelt wurde. Daher dauerte es ziemlich lange, bis sie sich in der Literatur durchsetzte.Heutzutage wird die KL-Divergenz eher als die grundlegendste Größe in der Informationstheorie angesehen, noch mehr als die Entropie.
(In einem Artikel von Edwin Jaynes gibt es einen Kommentar dahingehend, dass er Shannons integrale Definition für einen einfachen Fehler hält - er weist darauf hin, dass Shannon bei der Ableitung der diskreten Entropie als einzigartiges Maß für die Unsicherheit unter bestimmten Desiderata unglaublich vorsichtig ist, aberdann wird einfach $ - \ int p (x) \ log p (x) dx $ als das offensichtliche kontinuierliche Analog angegeben. Wenn man mehr darauf achtet, die Kontinuumsgrenze abzuleiten, muss man sich stattdessen etwas Analoges zur KL-Divergenz einfallen lassen.)
Der Link zu Ridderbos 'Artikel ist tot, und eine Google-Suche hat nur Dinge hinter einer Paywall aufgetaucht.Kann hier jemand helfen?
Chris
2017-11-30 15:42:16 UTC
view on stackexchange narkive permalink

In einem kontinuierlichen System wird $ w $ als Integral über den möglichen Mikrozuständen des Systems angesehen.Dies wird typischerweise als Zustandsdichte bezeichnet und ist ziemlich endlich.Insbesondere ist es so etwas wie $$ w (E) = \ mathcal N \ int d ^ {3N} x ~ d ^ {3N} p ~ \ delta (E- \ epsilon (\ vec p, \ vec x)) $$

wobei $ \ epsilon (\ vec p, \ vec x) $ die Energie des Systems als Funktion aller Impulse und Positionen ist, ist $ \ delta $ eine Delta-Funktion, die die Energie des Systems und $ festlegt\ mathcal N $ ist eine Normalisierung.

Dies hinterlässt eine gewisse Mehrdeutigkeit (nämlich bei der Normalisierung), aber das Verhältnis von $ w $ zwischen zwei Zuständen ist genau definiert, so dass $ \ Delta S = k \ ln (\ frac {w_f} {w_i}) $ist gut definiert und die Mehrdeutigkeit wird aufgelöst, indem die Entropie als Null bei absolutem Nullpunkt definiert wird, was die zu verwendende Normalisierung ergibt.

Einige Dinge verstehe ich nicht: 1. Die Epsilon-Funktion sollte immer gleich E sein, da dies die Gesamtenergie des Systems ist 2. Das Ergebnis dieses Integrals ist nicht mit dem bekannten Ausdruck der Gasentropie (der von der Temperatur abhängt) kompatibel.Vielleicht habe ich nicht richtig verstanden.Können Sie das Ergebnis dieses Integrals schreiben?
1. Kennen Sie Delta-Funktionen?Der Punkt dabei ist, mathematisch nur über das Volumen im Phasenraum zu integrieren, wo die Energie $ E $ ist.2. Es kann ausgewertet und dann auf die Temperatur bezogen werden.Die Bewertung hängt vom System ab - sie hängt beispielsweise von den Freiheitsgraden im System und möglichen Energien ab.Es stimmt mit der Entropie für ein ideales Gas überein, obwohl es eine Menge Arbeit sein kann, dies zu zeigen.
Dieser Ausdruck bedeutet also tatsächlich, alle Punkte im Phasenraum zu summieren, die der Energie E entsprechen, aber genau das ist mein Problem: Es gibt unendlich viele solche Punkte, und daher ist das Ergebnis des Integrals unendlich
Ein integraler Überphasenraum ist jedoch endlich.In einer Box mit dem Volumen $ V $ ergibt sich beispielsweise das Positionsintegral zu $ V ^ N $ und nicht zu $ \ infty $.Das Impulsintegral ist ebenfalls endlich.
OK, Sie haben Recht. Aber etwas hier macht keinen Sinn, weil wir unendlich viele Möglichkeiten zusammenfassen und eine endliche Zahl erhalten.Können Sie mir eine Intuition dafür geben?(Bei der Berechnung des Integrals einer Fläche addieren wir beispielsweise eine unendliche Anzahl von Punkten, aber jeder hat ein kleines infinitesimales Gewicht. Hier hat jede Option das gleiche Gewicht wie 1)
Warum nehmen Sie an, dass das "Gewicht" 1 ist?Es ist nicht das gleiche infinitesimale Gewicht wie bei einem normalen Integral.
@Jacob Auf einer noch grundlegenderen Ebene ist dies dieselbe Frage wie "Warum ist $ \ sum ^ \ infty_ {n = 1} \ frac {1} {n ^ 2} = \ frac {\ pi ^ 2} {6}?$ statt $ \ infty $? ", und die Antwort ist, dass Sie die Dinge, die Sie summieren, zwingen können, schnell klein genug zu werden, wenn Ihre Bedingungen steigen und als Ergebnis eine endliche Summe erhalten.Integrale stetiger Funktionen tun dies per Definition immer - sehen Sie sich nur die tatsächliche Definition eines Integrals an: https://en.wikipedia.org/wiki/Darboux_integral.
Alec Rhea.Dies ist genau der Punkt, dass wir hier eine Reihe von Möglichkeiten zusammenfassen, es sind keine infinitesimalen Dinge, jede Option erhält die Zahl 1, es ist einfach die Summe von 1 + 1 + 1 .... (Eine Option + eine Option + eine Option ...) Hier erscheint mir die Idee eines Integrals seltsam und unangemessen.
@Jacob Sie verpassen den Punkt.In einem * kontinuierlichen * Phasenraum ist $ \ Omega $ * nicht * einfach die Anzahl der zugänglichen Zustände, die Sie korrekt als unendlich erkennen.Stattdessen ist $ \ Omega $ proportional zum "Volumen" des zugänglichen Phasenraums.
Ein alternativer Ansatz, der in den anderen Antworten verwendet wird, besteht darin, den Phasenraum so zu diskretisieren, dass die Anzahl der zugänglichen Zustände endlich wird.Solange die Diskretisierungsskala ausreichend klein ist, sind diese beiden Ansätze äquivalent, und physikalische Größen hängen ohnehin nie von der Diskretisierungsskala ab.
J. Murray Können Sie in einfachen Worten erklären, was es rechtfertigt, die Anzahl der Zustände nach Volumen im Phasenraum zu messen, anstatt was sie wirklich sind - die Anzahl der Zustände.Wir sind uns einig, dass wir, wenn wir die Anzahl der Zustände auf einfache Weise zählen, unendlich werden. Was rechtfertigt diesen Trick des Phasenraums?
@Jacob Es multipliziert effektiv die Anzahl der Zustände mit einer Konstanten.Da das Multiplizieren zweier Zustände mit einer Konstanten das Verhältnis zwischen ihnen nicht ändert, ändert sich auch nicht die Entropiedifferenz, da $ \ ln (Cx_1) - \ ln (Cx_2) = \ ln \ left (\ frac {Cx_1} {Cx_2} \ right) = \ ln \ left (\ frac {x_1} {x_2} \ right) $.
@ Chris Wir reden über das Zählen der Anzahl der Staaten, nicht über das Finden des Verhältnisses zwischen zwei Staaten.Weil die Entropie einfach ist: ln (Anzahl der Zustände)
@Jacob Für eine endliche Anzahl von Zuständen ist das wahr.Die Methode, die ich gezeigt habe, ist eine der Möglichkeiten, mit einer unendlichen Anzahl von Zuständen umzugehen.Solange Sie nur über * Unterschiede * in der Entropie zwischen zwei Zuständen sprechen, macht eine allgemeine Normalisierung der Anzahl solcher Zustände keinen Unterschied.
@ Chris Aber das ist die Definition der Entropie.Wir ändern die Definition für den Fall einer unendlichen Anzahl von Zuständen?Ich verstehe die Logik nicht.
@Jacob Beachten Sie, dass die Anzahl der Zustände, wenn sie mit der Feldtheorie anstelle einer klassischen Theorie behandelt werden, nicht wirklich unendlich wäre.Dieser Prozess ähnelt der Renormierung in QFT, oder die Inkonsistenzen, die Sie erhalten, versuchen, klassische E & M auf ein Punktteilchen anzuwenden.Es ist ein Artefakt des Versuchs, eine Theorie auf eine kleinere Entfernungsskala anzuwenden, als sie gültig ist.
@ Chris Wenn ich verstehe, was du meinst, obwohl die Anzahl der Zustände unendlich ist, kann die Theorie nicht damit umgehen, ohne die "reelle" Zahl zu "ignorieren", und wir sind gezwungen, nur die quantisierte Anzahl der Zustände zu zählen.Ich habe recht?
@Jacob Grundsätzlich sagen wir, wir wissen, dass die klassische Theorie nicht mit willkürlichen Maßstäben richtig ist.Da wir es brauchen würden, um Entropie zu finden, geben wir das auf und sprechen nur über Änderungen in der Entropie, wodurch wir die unphysische Unendlichkeit ignorieren können, die Sie erhalten, wenn Sie statistische Mechanik naiv auf eine klassische Theorie anwenden.
@Jacob Umgekehrt.Die reale Anzahl zugänglicher Zustände ist endlich und wird durch die Quantenmechanik angegeben.Wir werden unendlich, wenn wir eine klassische Theorie anwenden, in der wir wirklich eine Quantentheorie brauchen.
@ Chris Aber laut QM ist die Anzahl der Zustände des Gases in der Box unendlich.
Die Anzahl der orthogonalen Zustände für ein gebundenes System mit Einschränkungen der Energie ist endlich.
@Chris Dies ist die interessanteste Antwort, da keine willkürliche diskrete Approximation erforderlich ist und erwähnt wird, wie die Normalisierungskonstanten durch die absolute Nullanforderung behandelt werden.Es ist jedoch sehr kurz und ich kann keine Links finden, die diesen Ansatz detailliert beschreiben.Können Sie einen Link, eine Papierreferenz oder ein Buch dazu bereitstellen?
@MikeWise Ich kenne keinen auf dem Kopf, sorry.
Na ja, trotzdem danke.Und dieser Kommentar zur Renormierung unter Verwendung der absoluten Null-Anforderung war äußerst hilfreich - und scheint auch für die diskreten Approximationsableitungen zu gelten - obwohl niemand ihn zu erwähnen schien.Und ich denke, dies ist der Hauptgrund, warum die Auswahl unterschiedlicher Diskretisierungsintervalle zu demselben Wert für die Entropie führen würde.Ich denke, eines der Hauptprobleme hier ist die Verwendung dieses Ausdrucks "Anzahl der Mikrozustände".Es scheint eher "ein Maß für die Vielzahl der Mikrozustände" zu sein.
Christophe
2017-11-30 18:59:21 UTC
view on stackexchange narkive permalink

Ich rate Ihnen, sich ein Lehrbuch der Statistischen Mechanik anzuschauen. Dieser Punkt wird normalerweise in den ersten Kapiteln angesprochen. Sie möchten die mikrokanonische Entropie berechnen $$ S (E) = k_B \ ln \ Omega (E) $$ Dabei zählt $ \ Omega (E) $ die Anzahl der Mikrozustände mit Energie $ E $. Wie Sie bereits betont haben, ist diese Zahl unendlich, wenn die Koordinaten stetig sind. Der Standardansatz besteht darin, den Phasenraum zu diskretisieren und in Zellen zu teilen. Es wird angenommen, dass jede Zelle einem einzelnen Mikrozustand entspricht. Für $ N $ Partikel in einem 3D-Raum beträgt die Dimension des Phasenraums $ 6N $. Die Breite einer Zelle wird so gewählt, dass sie in den den Koordinaten zugeordneten $ 3N $ -Richtungen $ \ Delta q $ und in den den Impulsen zugeordneten $ \ Delta p $ -Richtungen $ \ Delta p $ beträgt. Es wird dann angenommen, dass $$ \ Delta q \ Delta p = h_0 $$ Jetzt ist die Anzahl der Zustände $ \ Omega (E) $ mit Energie $ E $ endlich und Sie können die mikrokanonische Entropie berechnen. Dies ist ein Sonderfall der Grobkörnung, der in den vorherigen Antworten erwähnt wurde.

Der Vorteil dieses Ansatzes besteht darin, dass Sie $ \ Omega (E) $, die Anzahl der Energiezellen $ E $, leicht als das Volumen $ Vol $ des Phasenraums schätzen können, das einer geteilten Energie $ E $ entspricht durch das Volumen $ h_0 ^ {3N} $ einer Zelle (ich vereinfache hier etwas: Was zuerst berechnet werden sollte, ist tatsächlich das Volumen des Phasenraums, das einer Energie entspricht, die niedriger als $ E $ ist). Diese Schätzung ist nur dann genau, wenn $ h_0 $ ausreichend klein gewählt wird. Sehen Sie, was mit der Entropie passiert: Da $ \ Omega (E) = Vol / h_0 ^ {3N} $, liest die Entropie $$ S (E) = k_B \ ln Vol-3Nk_B \ ln h_0 $$ Der Parameter $ h_0 $ erscheint nur als additive Konstante. Da thermodynamische Mittelwerte durch Ableitungen der Entropie gegeben sind, hängen sie nicht von $ h_0 $ ab (hoffentlich, da die Diskretisierung des Phasenraums nicht physikalisch ist), und Sie können $ h_0 $ einen beliebigen Wert geben, solange er ausreichend klein bleibt. Normalerweise wird $ h_0 $ kein bestimmter Wert zugewiesen.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...